Unabhängige Analysen und Informationen zu Geopolitik, Wirtschaft, Gesundheit, Technologie

PEXELS.COM

Lobbyisten, die die KI-Politik diktieren und die Zukunft der Technologie beeinflussen

Sollte jemand geglaubt haben, dass die Biden-Administration eine Schlüsselrolle bei der jüngsten, gelinde gesagt umstrittenen KI-Durchführungsverordnung gespielt hat, so wird er nun durch Berichte eines Besseren belehrt.

Es ist nicht weit hergeholt, sich vorzustellen, dass der Anstoß für die Verordnung von außen kam, von Big Tech – was die symbiotische Beziehung mit dem Weißen Haus nur bestätigen würde.

Aber war das der Hauptakteur – die “Ideologie” des effektiven Altruismus?

Ein Bericht behauptet jetzt, dass diese Rolle der RAND Corporation vorbehalten war, die ihrerseits eine “monetäre Beziehung” zu Big Tech unterhält – der Think Tank hat rund 15 Millionen Dollar an Fördergeldern von Open Philanthropy erhalten.

Und obwohl der Politico-Artikel zunächst darauf hinweist, dass Dustin Moskovitz Mitbegründer von Facebook ist, geht es in der Geschichte eigentlich darum, dass er auch Mitbegründer und Geldgeber von Open Philanthropy ist.

Zurück zu Politico: Die Website stützt sich auf die Aussagen eines KI-Forschers, der mit der Ausarbeitung der Verordnung vertraut ist, sowie auf die Aufzeichnung eines internen RAND-Treffens, die die Zeitung gesehen haben will.

Nun sieht Politico auch Ähnlichkeiten zwischen der weitreichenden Durchführungsverordnung, die die Berichterstattung für die größten KI-Systeme einführt, und den Prioritäten von Open Philanthropy in diesem Bereich.

Der Artikel ist ein ziemliches Durcheinander – er versucht, eine Art von Narrativ zu diskreditieren, das von der Art von Medien geschaffen wurde, zu denen Politico gehört (Warnungen vor der Übernahme der Welt durch KI), während er eine andere Art von Ängsten im Zusammenhang mit KI schürt, nämlich dass sie “rassistische Voreingenommenheit” fördert und “den Urheberrechtsschutz untergräbt”.

Politico missbilligt dies deutlich und warnt davor, dass diese Haltung nicht von führenden KI-Unternehmen geteilt wird, und nimmt die Verbindung zwischen RAND und Open Philanthropy als Warnung.

Alles in allem scheint das Problem für Politico nicht darin zu liegen, dass, wie es in der Überschrift heißt, “Think tank tied to tech billionaires played key role in Biden’s AI order” (Denkfabrik mit Verbindungen zu Tech-Milliardären spielte Schlüsselrolle in Bidens KI-Order) – was angesichts der Macht, die KI in der Zukunft haben wird, eindeutig alarmierend ist -, sondern darin, dass es sich um die “falsche” Art von Milliardären handelte.

Die Biden-Administration hat ihre Initiative angekündigt, entscheidende Standards und Richtlinien für die sichere Nutzung generativer künstlicher Intelligenz zu entwickeln. Dieser Schritt ist Teil einer umfassenderen Bemühung, die Herausforderungen der KI in verschiedenen Bereichen, einschließlich Tests und Systemsicherheit, anzugehen.

Die Initiative, die vom National Institute of Standards and Technology (NIST) des Handelsministeriums geleitet wird, ist derzeit bis zum 2. Februar für öffentliche Rückmeldungen geöffnet. Ziel ist es, Erkenntnisse über kritische Testverfahren zu gewinnen, die für die Sicherheit von KI-Systemen unerlässlich sind.

Im Einklang mit der von Präsident Joe Biden im Oktober erlassenen KI-Durchführungsverordnung betonte Handelsministerin Gina Raimondo, wie wichtig es sei, Industriestandards für die Sicherheit und das Vertrauen in KI zu schaffen. Diese Standards sollen dazu beitragen, Amerikas Führungsrolle bei der verantwortungsvollen Entwicklung und Nutzung dieser sich schnell entwickelnden Technologie zu erhalten.

Das aktuelle Projekt des NIST umfasst die Formulierung von Richtlinien für die Bewertung von KI, die Entwicklung von Standards und die Bereitstellung von Testumgebungen für die Bewertung von KI-Systemen. Das NIST bittet insbesondere um Beiträge von KI-Unternehmen und der Öffentlichkeit zum Umgang mit den Risiken generativer KI und zur Eindämmung von Fehlinformationen durch KI.

Generative KI, die für ihre Fähigkeit bekannt ist, Texte, Bilder und Videos auf der Grundlage offener Vorgaben zu produzieren, hat in jüngster Zeit sowohl für Aufregung als auch für Besorgnis gesorgt. Es wird befürchtet, dass KI Arbeitsplätze ersetzen, Wahlen stören und sogar die menschliche Kontrolle überwältigen könnte, was katastrophale Folgen haben könnte.

Aber wer die KI kontrolliert, wird auch die Kontrolle über viele Aspekte der Gesellschaft haben.

Bidens Durchführungsverordnung beauftragt die Behörden auch damit, Standards für solche Tests festzulegen und dabei die damit verbundenen Risiken in den Bereichen chemische, biologische, radiologische, nukleare und Cyber-Sicherheit zu berücksichtigen, was nun auch die Überwachung von “Desinformation” einschließt.

Aber wer und was wird entscheiden, was “Desinformation” ist und was nicht?

Zu den Bemühungen des NIST gehört die Entwicklung von Richtlinien für effektive Testmethoden, wie z.B. die Verwendung von “Red-Teaming”, einer Praxis, die traditionell in der Cybersicherheit eingesetzt wird, um neue Risiken zu identifizieren. Beim Red-Teaming werden feindliche Aktionen simuliert, ein Konzept, das auf Praktiken des Kalten Krieges in den USA zurückgeht.

Im August fand auf einer großen Cybersicherheitskonferenz die erste öffentliche “Red-Teaming”-Veranstaltung in den USA statt, die von AI Village, SeedAI und Humane Intelligence organisiert wurde. Während dieser Veranstaltung testeten Tausende Teilnehmer KI-Systeme, um unerwünschte Ergebnisse oder Ausfälle zu provozieren. Ziel der Übung war es, das Verständnis für die mit diesen Systemen verbundenen Risiken zu vertiefen.

Das Weiße Haus lobte die Veranstaltung als Beispiel dafür, wie externes Red Teaming eine wirksame Methode zur Identifizierung neuer KI-Risiken sein kann.

Der wachsende Einfluss von Big-Tech-Unternehmen und Lobbyisten auf die Gestaltung der KI-Gesetzgebung hat kritische Bedenken hervorgerufen. Während dieser Einfluss eine natürliche Schnittstelle zwischen Industrieexpertise und politischer Entscheidungsfindung darstellt, birgt er auch potenzielle Fallstricke, die zu Zensur und der Konsolidierung dominanter Akteure in der KI-Industrie führen und damit Innovation und Wettbewerb ersticken könnten.

1) Konvergenz der Interessen: Die Rolle von Big Tech bei der Gestaltung der KI-Politik

Aufgrund ihrer enormen Ressourcen und ihres starken Engagements in der KI-Entwicklung sind Big-Tech-Unternehmen natürliche Akteure im KI-Gesetzgebungsprozess. Ihr Beitrag ist wertvoll für eine realistische und fundierte Regulierung. Diese Beteiligung ist jedoch häufig eher auf die Interessen der Unternehmen als auf das öffentliche Wohl ausgerichtet. Die Lobbyarbeit dieser Unternehmen kann dazu führen, dass Regelungen geschaffen werden, die in erster Linie ihre Marktposition und ihre Interessen schützen, anstatt ein ausgewogenes Ökosystem für die Entwicklung und Nutzung von KI zu fördern.

2) Die Sorge vor Zensur: Wie die Gesetzgebung die Freiheiten der KI einschränken könnte

Eine der drängendsten Sorgen ist die Möglichkeit, dass die KI-Gesetzgebung als Zensurinstrument eingesetzt wird. Vorschriften, die unter dem Einfluss von Großunternehmen stehen, könnten so gestaltet werden, dass sie die Möglichkeiten der KI in einer Weise einschränken, die den Interessen dieser Unternehmen entspricht. Beschränkungen könnten etwa für KI-generierte Inhalte dazu genutzt werden, Wettbewerb oder abweichende Meinungen unter dem Vorwand zu unterdrücken, Fehlinformationen zu verhindern oder geistiges Eigentum zu schützen.

3) Zementierung der Giganten: Die Gefahr wettbewerbswidriger Praktiken

Ein weiteres großes Risiko besteht darin, dass die Gesetzgebung die Vormachtstellung etablierter Akteure zementieren könnte. Große Technologieunternehmen könnten durch Lobbyarbeit Gesetze so gestalten, dass sie neue Marktteilnehmer und kleinere Wettbewerber behindern. Dies könnte beispielsweise durch strenge Compliance-Anforderungen geschehen, die nur große, ressourcenstarke Unternehmen erfüllen können, oder durch Einflussnahme auf die Entwicklung von Standards und Protokollen, die bestehende Technologien und Plattformen begünstigen.

4) Das Innovationsdilemma: Balance zwischen Regulierung und Wachstum

Regulierung ist zwar entscheidend, um eine ethische und sichere Entwicklung der KI zu gewährleisten, aber es besteht ein schmaler Grat zwischen verantwortungsvoller Steuerung und erdrückender Kontrolle. Eine von den Interessen einiger weniger getriebene Überregulierung könnte die Innovation im Bereich der KI behindern. Dies würde nicht nur den technologischen Fortschritt bremsen, sondern auch den potenziellen gesellschaftlichen Nutzen einer wettbewerbsfähigen KI-Industrie einschränken.

Wer auch immer künstliche Intelligenz kontrolliert, hat erheblichen Einfluss auf verschiedene gesellschaftliche Aspekte, einschließlich der Möglichkeit, den Informationsfluss zu steuern oder zu begrenzen, was zu Zensur führen könnte. Die Fähigkeit der KI, große Datenmengen zu analysieren und zu verarbeiten, ermöglicht es ihr, Inhalte auf digitalen Plattformen zu überwachen und zu filtern. Im Medien- und Kommunikationsbereich kann KI eingesetzt werden, um personalisierte Inhalte zu kuratieren, was zwar für die zielgerichtete Werbung und die Nutzererfahrung von Vorteil ist, aber auch dazu genutzt werden kann, bestimmte Informationen selektiv zu unterdrücken oder zu fördern und so die öffentliche Meinung und gesellschaftliche Normen zu beeinflussen.

Weiterhin kann die Rolle von KI in Regierungs- und Überwachungssystemen bis hin zur Kontrolle der Informationsverbreitung reichen, was zu Zensur im Namen der nationalen Sicherheit oder der öffentlichen Ordnung führen könnte. Dies könnte tiefgreifende Auswirkungen auf die Rede- und Meinungsfreiheit haben, da KI-gestützte Systeme eingesetzt werden könnten, um abweichende Stimmen oder alternative Standpunkte automatisch zu erkennen und zu unterdrücken.

Die Macht, durch KI zu zensieren oder das Narrativ zu gestalten, könnte ein Instrument zur Aufrechterhaltung der politischen Macht oder zur Unterdrückung der Opposition sein.