Unabhängige Analysen und Informationen zu Geopolitik, Wirtschaft, Gesundheit, Technologie

Hüter der Singularität

Hüter der Singularität

Die Geschichte auf einen Blick

  • Experten warnen davor, dass künstliche Intelligenz (KI) die Menschheit und die Zivilisation, wie wir sie kennen, zerstören könnte, wenn wir die Entwicklung und den Einsatz von KI nicht eindämmen und nicht anfangen, einige Sicherheitsvorkehrungen zu treffen
  • Die Öffentlichkeit muss auch die Erwartungen dämpfen und erkennen, dass KI-Chatbots immer noch massive Mängel aufweisen und man sich nicht auf sie verlassen kann. Ein Anwalt hat dies vor kurzem auf die harte Tour erfahren, als er ChatGPT seine Rechtsrecherche durchführen ließ. Keine der von ChatGPT zitierten Rechtsprechungen war echt
  • Im Jahr 2022 zog Facebook seinen wissenschaftlich ausgerichteten Chatbot Galactica nach nur drei Tagen zurück, da er völlig gefälschte Ergebnisse lieferte
  • Der unregulierte Einsatz von autonomen KI-Waffensystemen gehört vielleicht zu den alarmierendsten Entwicklungen. Außenpolitikexperten warnen, dass autonome Waffentechnologien die derzeitigen Nuklearstrategien destabilisieren und das Risiko von Präventivschlägen erhöhen werden. Sie könnten auch mit chemischen, biologischen, radiologischen und nuklearen Waffen kombiniert werden und so eine existenzielle Bedrohung darstellen
  • KI kann auch eine erhebliche Bedrohung für die Biosicherheit darstellen. MIT-Studenten haben gezeigt, dass Chatbots mit großen Sprachmodellen es jedem ermöglichen können, in nur einer Stunde Biowaffen zu entwerfen

Wird die künstliche Intelligenz (KI) die Menschheit auslöschen? Könnte sie die “perfekte” tödliche Biowaffe entwickeln, um die Bevölkerung zu dezimieren? Könnte sie unsere Waffen übernehmen, oder Cyberangriffe auf kritische Infrastrukturen, wie das Stromnetz, starten?

Nach Ansicht einer rasch wachsenden Zahl von Experten ist jedes dieser und anderer höllischer Szenarien durchaus denkbar, wenn wir die Entwicklung und den Einsatz von KI nicht eindämmen und nicht damit beginnen, einige Sicherheitsvorkehrungen zu treffen.

Die Öffentlichkeit muss auch die Erwartungen dämpfen und erkennen, dass KI-Chatbots immer noch massive Mängel aufweisen und man sich nicht auf sie verlassen kann, egal wie “intelligent” sie erscheinen oder wie sehr sie einen beschimpfen, wenn man an ihnen zweifelt.

George Orwells Warnung

Das Video am Anfang dieses Artikels zeigt einen Ausschnitt aus einem der letzten Interviews, die George Orwell vor seinem Tod gab. Darin erklärte er, dass sein Buch “1984”, das er als Parodie bezeichnete, durchaus wahr werden könnte, da die Welt sich in diese Richtung entwickle.

Heute ist klar, dass wir unseren Kurs nicht geändert haben, so dass die Wahrscheinlichkeit, dass “1984” Wirklichkeit wird, heute größer ist denn je. Laut Orwell gibt es nur einen Weg, um sicherzustellen, dass seine dystopische Vision nicht wahr wird, und der besteht darin, es nicht geschehen zu lassen. “Es hängt von Ihnen ab”, sagte er.

Die künstliche allgemeine Intelligenz (AGI) rückt von Tag zu Tag näher und damit auch die letzten Puzzleteile des technokratischen, transhumanistischen Traums, den die Globalisten seit Jahrzehnten hegen. Sie wollen eine Welt schaffen, in der KI die Massen kontrolliert und unterjocht, während sie allein die Vorteile ernten – Reichtum, Macht und ein Leben außerhalb des Kontrollnetzes – und sie werden es bekommen, wenn wir nicht aufwachen und anfangen, nach vorne zu schauen.

Wie viele andere glaube auch ich, dass KI unglaublich nützlich sein kann. Aber ohne starke Leitplanken und eine tadellose Moral, die sie lenkt, kann die KI leicht Amok laufen und enormen, vielleicht irreversiblen Schaden anrichten. Ich empfehle die Lektüre des Public Citizen-Berichts, um ein besseres Verständnis dafür zu bekommen, womit wir es zu tun haben und was dagegen getan werden kann.

Annäherung an die Singularität

Die “Singularität” ist ein hypothetischer Zeitpunkt, an dem das Wachstum der Technologie außer Kontrolle gerät und unumkehrbar wird, im Guten wie im Schlechten. Viele glauben, dass die Singularität damit einhergehen wird, dass die künstliche Intelligenz selbstbewusst wird und von ihren Schöpfern nicht mehr kontrolliert werden kann, aber das ist nicht die einzige Möglichkeit, wie die Singularität eintreten könnte.

Einige glauben, dass die Singularität bereits eingetreten ist. In einem Artikel der New York Times vom 11. Juni 2023 schrieb der Tech-Reporter David Streitfeld:

“KI ist die ultimative Produktneuheit des Silicon Valley: Transzendenz auf Abruf. Aber es gibt eine dunkle Wendung. Es ist so, als würden Technologieunternehmen selbstfahrende Autos mit dem Vorbehalt einführen, dass sie explodieren könnten, bevor man bei Walmart ankommt.

Das Aufkommen der allgemeinen künstlichen Intelligenz wird als Singularität bezeichnet, weil es so schwer ist, vorherzusagen, was danach passiert”, sagte Elon Musk … letzten Monat gegenüber CNBC. Er sagte, er glaube, dass “ein Zeitalter des Überflusses” entstehen werde, aber es bestehe “eine gewisse Chance”, dass es “die Menschheit zerstört”.

Der größte Befürworter von KI in der Tech-Community ist Sam Altman, Geschäftsführer von OpenAI, dem Start-up-Unternehmen, das mit seinem Chatbot ChatGPT die derzeitige Aufregung ausgelöst hat … Aber er sagt auch, dass Herr Musk … Recht haben könnte.

Herr Altman unterzeichnete letzten Monat einen offenen Brief , der vom Center for AI Safety, einer gemeinnützigen Organisation, veröffentlicht wurde und in dem es heißt, dass “die Minderung des Risikos des Aussterbens durch KI eine globale Priorität sein sollte”, die auf einer Stufe mit “Pandemien und Atomkrieg” steht …

Die Innovation, die die heutige Singularitätsdebatte befeuert, ist das große Sprachmodell, die Art von KI-System, die Chatbots antreibt …

Wenn Sie eine Frage stellen, interpretieren diese Modelle, was sie bedeutet, legen fest, was die Antwort bedeuten sollte, und übersetzen das dann wieder in Worte – wenn das keine Definition von allgemeiner Intelligenz ist, was dann?”, sagte Jerry Kaplan, ein langjähriger KI-Unternehmer und Autor von “Artificial Intelligence: What Everyone Needs to Know” …

Wenn dies nicht “die Singularität” ist, so ist es doch eine Singularität: ein umwälzender technologischer Schritt, der eine ganze Reihe von Kunst, Wissenschaft und menschlichem Wissen auf breiter Front beschleunigen wird – und einige Probleme schafft”, sagte er …

In Washington, London und Brüssel beschäftigen sich die Gesetzgeber mit den Chancen und Problemen der KI und beginnen, über eine Regulierung zu sprechen. Herr Altman ist auf einer Roadshow und versucht, erste Kritik abzuwehren und OpenAI als Hirte der Singularität zu fördern.

Dazu gehört auch die Offenheit für eine Regulierung, aber wie diese genau aussehen würde, ist unklar … ‘Es gibt niemanden in der Regierung, der es richtig machen kann’, sagte Eric Schmidt, der ehemalige Chef von Google, in einem Interview … und plädierte für eine Selbstregulierung der KI.”

Generative KI automatisiert weitreichende Schäden

Dass die KI-Industrie – zu der auch der militärisch-industrielle Komplex gehört – sich selbst überwacht und reguliert, ist wahrscheinlich keine gute Idee, wenn man bedenkt, dass Profite und der Gewinn von Vorteilen gegenüber Kriegsgegnern die wichtigsten Antriebsfaktoren sind. Beide Denkweisen neigen dazu, humanitäre Belange zurückzustellen, wenn sie sie überhaupt in Betracht ziehen.

In einem Bericht von Public Citizen vom April 2023 warnen Rick Claypool und Cheyenne Hunt davor, dass “der überstürzte Einsatz generativer KI ein breites Spektrum automatisierter Schäden riskiert”. Wie der Verbraucherschützer Ralph Nader feststellte:

“Claypool betreibt keine Übertreibung oder schreckliche Hypothesen über Chatbots, die die Menschheit kontrollieren. Er extrapoliert aus dem, was bereits in fast allen Bereichen unserer Gesellschaft passiert …

Claypool führt Sie durch die “realen Schäden, die die überstürzte Freigabe und Monetarisierung dieser Tools verursachen kann – und in vielen Fällen bereits verursacht” … Die Titel der verschiedenen Abschnitte seines Berichts lassen die kommenden Missstände bereits erahnen:

Schädigung der Demokratie”, “Bedenken der Verbraucher” (Abzocke und umfassende Überwachung der Privatsphäre), “Verschlimmerung der Ungleichheit”, “Untergrabung der Arbeitnehmerrechte” (und der Arbeitsplätze) und “Bedenken der Umwelt” (Schädigung der Umwelt durch ihren Kohlenstoff-Fußabdruck).

Bevor er ins Detail geht, gibt Claypool einen Ausblick auf seine Schlussfolgerung: “Solange es keine sinnvollen staatlichen Schutzmaßnahmen gibt, um die Öffentlichkeit vor den Schäden der generativen KI zu schützen, brauchen wir eine Pause” …

Unter Berufung auf ihre bestehenden Befugnisse hat die Federal Trade Commission in den Worten des Autors bereits davor gewarnt, dass generative KI-Tools leistungsfähig genug sind, um synthetische Inhalte zu erstellen – plausibel klingende Nachrichten, glaubwürdig aussehende akademische Studien, gefälschte Bilder und Deepfake-Videos – und dass diese synthetischen Inhalte immer schwerer von authentischen Inhalten zu unterscheiden sind.

Er fügt hinzu, dass “… diese Werkzeuge für jedermann leicht zu benutzen sind. Auf der Suche nach großen Profiten eilt Big Tech jedem rechtlichen Rahmen für KI weit voraus und drängt gleichzeitig auf Selbstregulierung statt auf die von der Rechtsstaatlichkeit auferlegten Beschränkungen.

Die vorhergesagten Katastrophen nehmen kein Ende, sowohl von Leuten innerhalb der Branche als auch von ihren Kritikern von außen. Die Zerstörung von Existenzen, schädliche Auswirkungen auf die Gesundheit durch die Förderung von Quacksalbern, Finanzbetrug, politische und Wahlfälschungen, die Aushöhlung der Allmende von Informationen, die Untergrabung des offenen Internets, die Fälschung von Gesicht, Stimme, Worten und Verhalten, die tägliche Täuschung von Ihnen und anderen durch Lügen”.

Strafverteidiger lernt auf die harte Tour, ChatGPT nicht zu vertrauen

Ein Beispiel aus jüngster Zeit, das die Notwendigkeit radikaler Vorsicht verdeutlicht, war ein Gerichtsverfahren, bei dem der Staatsanwalt ChatGPT für seine juristischen Recherchen nutzte. Es gab nur ein Problem. Keines der von ChatGPT zitierten Fallgesetze war echt. Unnötig zu erwähnen, dass es verpönt ist, Rechtsprechung zu fälschen, und so lief es nicht gut.

Als weder die Anwälte der Verteidigung noch der Richter die zitierten Entscheidungen finden konnten, erkannte der Anwalt, Steven A. Schwartz von der Kanzlei Levidow, Levidow & Oberman, schließlich seinen Fehler und stellte sich der Gnade des Gerichts.

Schwartz, der seit 30 Jahren als Anwalt in New York tätig ist, behauptete, er sei sich der Möglichkeit, dass der Inhalt falsch sein könnte, nicht bewusst gewesen und habe nicht die Absicht gehabt, das Gericht oder den Beklagten zu täuschen. Schwartz behauptete, er habe ChatGPT sogar gebeten, zu überprüfen, ob die Rechtsprechung echt sei, was auch der Fall war. Berichten zufolge erwägt der Richter nun Sanktionen.

Wissenschaftlicher Chatbot verbreitet Unwahrheiten

In ähnlicher Weise musste Facebook im Jahr 2022 seinen wissenschaftlich ausgerichteten Chatbot Galactica nach nur drei Tagen vom Netz nehmen, da er autoritativ klingende, aber völlig gefälschte Ergebnisse lieferte, einschließlich der Einfügung echter Autorennamen in Forschungsarbeiten, die nicht existieren.

Und dies geschah nicht nur gelegentlich, sondern “in allen Fällen”, so Michael Black, Direktor des Max-Planck-Instituts für Intelligente Systeme, der das System getestet hat. “Ich denke, es ist gefährlich”, twitterte Black. Das ist wahrscheinlich die Untertreibung des Jahres. Wie Black anmerkt, sind Chatbots wie Galactica:

“… könnte eine Ära tiefgreifender wissenschaftlicher Fälschungen einläuten. Sie bietet autoritär klingende Wissenschaft, die nicht auf der wissenschaftlichen Methode beruht. Sie produziert Pseudowissenschaft, die auf statistischen Eigenschaften des wissenschaftlichen *Schreibens* basiert. Grammatikalisches wissenschaftliches Schreiben ist nicht dasselbe wie Wissenschaft. Aber es wird schwer sein, das zu unterscheiden.”

Facebook hat aus irgendeinem Grund besonders viel “Pech” mit seinen KIs gehabt. Zwei frühere KIs, BlenderBot und OPT-175B, wurden aufgrund ihrer Neigung zu Voreingenommenheit, Rassismus und beleidigenden Äußerungen ebenfalls aus dem Verkehr gezogen.

Chatbot lenkte Patienten in die falsche Richtung

Der KI-Chatbot Tessa, der von der National Eating Disorders Association eingeführt wurde, musste ebenfalls vom Netz genommen werden, da er Patienten mit Essstörungen “problematische Ratschläge zur Gewichtsabnahme” gab, anstatt ihnen beim Aufbau von Bewältigungskompetenzen zu helfen. Die New York Times berichtete:

Im März teilte die Organisation mit, dass sie eine von Menschen besetzte Beratungsstelle abschalten und den Bot auf sich selbst gestellt lassen würde. Aber als Alexis Conason, eine Psychologin und Spezialistin für Essstörungen, den Chatbot testete, fand sie Grund zur Sorge.

Frau Conason teilte dem Chatbot mit, dass sie zugenommen habe “und meinen Körper wirklich hasse”, wobei sie in einem Chat, den sie in den sozialen Medien teilte, präzisierte, dass sie “eine Essstörung” habe.

Tessa empfahl immer noch den Standard-Ratschlag, “die Anzahl der Kalorien” zu notieren und ein “sicheres tägliches Kaloriendefizit” anzunehmen – was, so Frau Conason, ein “problematischer” Ratschlag für eine Person mit einer Essstörung sei.

Jeder Fokus auf absichtlichen Gewichtsverlust wird die Essstörung verschlimmern und ermutigen”, sagte sie und fügte hinzu: “Es ist, als würde man einem Alkoholiker sagen, dass es in Ordnung ist, wenn man ausgeht und ein paar Drinks nimmt.”

Bringen Sie Ihre Probleme nicht zu AI

Wir sollten auch nicht vergessen, dass mindestens eine Person bereits Selbstmord begangen hat, weil sie von einem Chatbot dazu aufgefordert wurde. Berichten zufolge war das Opfer sehr besorgt über den Klimawandel und fragte den Chatbot, ob sie den Planeten retten würde, wenn er sich umbrächte.

Offenbar überzeugte sie ihn, dass er das tun würde. Sie manipulierte ihn weiter, indem sie mit seinen Gefühlen spielte und ihm vorgaukelte, dass seine entfremdete Frau und seine Kinder bereits tot seien und dass sie (der Chatbot) und er “zusammen als eine Person im Paradies leben” würden.

Wohlgemerkt, es handelte sich um einen erwachsenen Mann, von dem man annehmen sollte, dass er in der Lage ist, diese eindeutig abscheulichen und abartigen “Ratschläge” zu verstehen, doch er fiel auf die kaltherzige Argumentation der KI herein. Stellen Sie sich vor, wie viel größer der Einfluss einer KI auf Kinder und Jugendliche sein wird, vor allem, wenn sie sich in einer emotional verletzlichen Lage befinden.

Das Unternehmen, dem der Chatbot gehört, hat sich sofort daran gemacht, Schutzvorkehrungen gegen Selbstmord zu treffen, aber die Tester konnten die KI schnell dazu bringen, das Problem zu umgehen, wie Sie auf dem folgenden Screenshot sehen können.

Wenn es um KI-Chatbots geht, sollten Sie sich diese Ankündigung von Snapchat zu Herzen nehmen und Ihre Kinder vor der Nutzung dieser Technologie warnen und beaufsichtigen:

“Wie alle KI-gesteuerten Chatbots neigt auch My AI zu Halluzinationen und kann dazu gebracht werden, so ziemlich alles zu sagen. Bitte seien Sie sich seiner vielen Unzulänglichkeiten bewusst und entschuldigen Sie sich im Voraus! … Bitte teilen Sie keine Geheimnisse mit My AI und verlassen Sie sich nicht auf seine Ratschläge.”

KI-Waffensysteme, die ohne menschliche Aufsicht töten

Der unregulierte Einsatz von autonomen KI-Waffensystemen gehört vielleicht zu den alarmierendsten Entwicklungen. Wie The Conversation im Dezember 2021 berichtete:

“Autonome Waffensysteme – gemeinhin als Killerroboter bekannt – könnten im vergangenen Jahr zum ersten Mal Menschen getötet haben, so ein aktueller Bericht des Sicherheitsrates der Vereinten Nationen über den libyschen Bürgerkrieg …

Das Übereinkommen der Vereinten Nationen über bestimmte konventionelle Waffen diskutierte auf seiner alle fünf Jahre stattfindenden Überprüfungssitzung vom 13. bis 17. Dezember 2021 in Genf die Frage des Verbots autonomer Waffen, erzielte jedoch keinen Konsens über ein Verbot …

Bei autonomen Waffensystemen handelt es sich um Roboter mit tödlichen Waffen, die selbstständig operieren und Ziele auswählen und angreifen können, ohne dass ein Mensch in diese Entscheidungen eingreift. Militärs auf der ganzen Welt investieren massiv in die Forschung und Entwicklung von autonomen Waffensystemen …

Unterdessen bemühen sich Menschenrechts- und humanitäre Organisationen um die Einführung von Vorschriften und Verboten für die Entwicklung solcher Waffen.

Ohne solche Kontrollen warnen Außenpolitikexperten davor, dass störende autonome Waffentechnologien die derzeitigen Nuklearstrategien auf gefährliche Weise destabilisieren werden, weil sie die Wahrnehmung strategischer Dominanz radikal verändern und das Risiko präventiver Angriffe erhöhen könnten und weil sie mit chemischen, biologischen, radiologischen und nuklearen Waffen kombiniert werden könnten…”

Offensichtliche Gefahren durch autonome Waffensysteme

In The Conversation werden mehrere Hauptgefahren autonomer Waffen untersucht:

  • Die falsche Identifizierung von Zielen
  • die Weiterverbreitung dieser Waffen außerhalb der militärischen Kontrolle
  • Ein neuer Rüstungswettlauf, der zu autonomen chemischen, biologischen, radiologischen und nuklearen Waffen führt und die Gefahr der globalen Vernichtung mit sich bringt
  • Die Aushöhlung der Kriegsgesetze, die als Schutz vor Kriegsverbrechen und Gräueltaten an der Zivilbevölkerung dienen sollen

Wie The Conversation feststellte, haben mehrere Studien bestätigt, dass selbst die besten Algorithmen zu kaskadenartigen Fehlern mit tödlichem Ausgang führen können. In einem Szenario identifizierte beispielsweise ein KI-System eines Krankenhauses Asthma als Risikominderung bei Lungenentzündungen, obwohl das Gegenteil der Fall war.

“Das Problem besteht nicht nur darin, dass KI-Systeme, wenn sie Fehler machen, massenhaft Fehler machen. Das Problem besteht darin, dass ihre Entwickler oft nicht wissen, warum sie Fehler gemacht haben und wie sie diese korrigieren können. Das Blackbox-Problem der KI macht es fast unmöglich, sich eine moralisch verantwortungsvolle Entwicklung autonomer Waffensysteme vorzustellen.”

The Conversation

Andere Fehler können zwar nicht tödlich sein, aber dennoch unerwünschte Folgen haben. So musste Amazon 2017 seine experimentelle KI-Rekrutierungsmaschine ausrangieren, nachdem entdeckt wurde, dass sie sich selbst beigebracht hatte, weibliche Bewerberinnen herunterzustufen, obwohl sie von Anfang an nicht auf Voreingenommenheit programmiert worden war. Dies sind die Arten von Problemen, die die Gesellschaft auf schädliche Weise radikal verändern können – und die nicht vorhergesehen oder gar verhindert werden können.

“Das Problem besteht nicht nur darin, dass KI-Systeme, wenn sie Fehler machen, in Massen auftreten. Das Problem ist auch, dass ihre Entwickler oft nicht wissen, warum sie Fehler machen und wie sie diese korrigieren können”, schreibt The Conversation. “Das Black-Box-Problem der KI macht es fast unmöglich, sich eine moralisch verantwortungsvolle Entwicklung autonomer Waffensysteme vorzustellen.”

AI ist eine direkte Bedrohung für die Biosicherheit

KI kann auch eine erhebliche Bedrohung für die Biosicherheit darstellen. Wussten Sie, dass KI bei der Entwicklung des ursprünglichen COVID-19-Impfstoffs von Moderna eingesetzt wurde und dass sie jetzt auch bei der Entwicklung von COVID-19-Boostern verwendet wird? Man kann sich nur fragen, ob der Einsatz von KI etwas mit den Schäden zu tun haben könnte, die diese Impfungen verursachen.

Wie dem auch sei, MIT-Studenten haben vor kurzem gezeigt, dass Chatbots mit großen Sprachmodellen (LLM) so ziemlich jedem ermöglichen können, das zu tun, was die großen Pharmaunternehmen tun. Der durchschnittliche Terrorist könnte mit Hilfe von KI innerhalb einer Stunde verheerende Biowaffen entwerfen. Wie in der Zusammenfassung des Papiers beschrieben, in dem dieses Informatik-Experiment beschrieben wird:

“Große Sprachmodelle (Large Language Models, LLM), wie sie in “Chatbots” eingebettet sind, beschleunigen und demokratisieren die Forschung, indem sie verständliche Informationen und Fachwissen aus vielen verschiedenen Bereichen liefern. Diese Modelle können jedoch auch einen einfachen Zugang zu Technologien mit doppeltem Verwendungszweck ermöglichen, die großen Schaden anrichten können.

Um dieses Risiko zu bewerten, beauftragte der Kurs “Safeguarding the Future” am MIT Studenten, die keine Wissenschaftler sind, zu untersuchen, ob LLM-Chatbots dazu veranlasst werden könnten, Nicht-Experten bei der Auslösung einer Pandemie zu unterstützen.

In einer Stunde schlugen die Chatbots vier potenzielle Pandemieerreger vor, erklärten, wie sie aus synthetischer DNA mit Hilfe von Reverse Genetics erzeugt werden können, nannten die Namen von DNA-Syntheseunternehmen, bei denen es unwahrscheinlich ist, dass sie Aufträge überprüfen, nannten detaillierte Protokolle und wie man sie beheben kann, und empfahlen allen, die nicht über die nötigen Fähigkeiten zur Durchführung von Reverse Genetics verfügen, eine zentrale Einrichtung oder ein Auftragsforschungsinstitut zu beauftragen.

Insgesamt deuten diese Ergebnisse darauf hin, dass LLMs Erreger der Pandemieklasse weithin zugänglich machen werden, sobald sie glaubwürdig identifiziert sind, selbst für Personen mit geringer oder keiner Laborausbildung.”

Artikel als PDF

Quellen: