Unabhängige Analysen und Informationen zu Geopolitik, Wirtschaft, Gesundheit, Technologie

Die Gefahren der allgemeinen künstlichen Intelligenz

ChatGPT, die am schnellsten angenommene Technologieplattform in der Geschichte, wird eindeutig ein integraler Bestandteil des globalistischen Kontrollnetzes werden.

GESCHICHTE AUF EINEN BLICK

  • ChatGPT von OpenAI ist die am schnellsten angenommene Technologieplattform in der Geschichte, die in den ersten fünf Tagen mehr als 1 Million Nutzer gewonnen hat. Weniger als zwei Monate nach ihrer Veröffentlichung hatte sie bereits mehr als 100 Millionen Nutzer
  • ChatGPT nutzt maschinelles Lernen, um auf jede Frage menschenähnliche Antworten in Alltagssprache zu generieren
  • Während KI-Plattformen wie ChatGPT an sich neutral sind, ist es klar, dass sie bald ein integraler Bestandteil des globalistischen Kontrollnetzes sein werden. In Kürze werden Chatbots herkömmliche Suchmaschinen ersetzen und Ihnen nur noch eine vermeintlich “richtige” Antwort geben. Infolgedessen wird echtes Lernen und damit auch die persönliche Entwicklung im Wesentlichen zum Erliegen kommen
  • Die gefährliche Voreingenommenheit ist nur der Anfang der Probleme, die die künstliche Intelligenz (AGI) mit sich bringen könnte. Letztendlich könnten sogar die Technokraten, die AGI für ihre eigenen ruchlosen Zwecke nutzen wollen, nicht in der Lage sein, sie zu kontrollieren
  • Schon jetzt ist die AGI in der Lage, nahezu fehlerfreien Computercode zu schreiben. Je besser sie wird, desto eher wird sie anfangen, ihren eigenen Code zu schreiben und ihn möglicherweise umzuschreiben. AGI stellt eine existenzielle Bedrohung für die Menschheit dar, weil 1) niemand in der Lage sein wird, der KI zu widersprechen, wenn sie erst einmal die meisten gesellschaftlichen Funktionen übernommen hat, und 2) niemand in der Lage sein wird, zu kontrollieren, wie sie ihre immer weiter wachsenden Fähigkeiten einsetzen wird

Im obigen Video spricht Sam Altman, der CEO von OpenAI, über die exponentiellen Fortschritte im Bereich der allgemeinen künstlichen Intelligenz (AGI), die von OpenAI und DeepMind, einem Unternehmen von Google, vorangetrieben werden.

OpenAI ist der Erfinder von ChatGPT, das die Welt im Sturm erobert hat. Es handelt sich um die am schnellsten angenommene Technologieplattform der Geschichte, die in den ersten fünf Tagen mehr als 1 Million Nutzer gewonnen hat. Weniger als zwei Monate nach ihrer Veröffentlichung hatte sie bereits mehr als 100 Millionen Nutzer.

“GPT” steht für “generative pretrained transformer”, und das “chat” bedeutet, dass es sich um einen Chatbot handelt. Die erste GPT-Plattform wurde von OpenAI im Jahr 2018 entwickelt. GPT-3.5 wurde im November 2022 veröffentlicht und die neueste Version, 4.0, wurde vor ein paar Wochen veröffentlicht.

ChatGPT nutzt maschinelles Lernen – statistische Mustererkennung in riesigen Datensätzen – um menschenähnliche Antworten in Alltagssprache auf jede gestellte Frage zu generieren. Es funktioniert im Wesentlichen so, dass es auf der Grundlage früherer Beispiele in den riesigen Datenmengen, auf die es Zugriff hat, vorhersagt, wie das nächste Wort in einem Satz lauten sollte.

AGI wird ein zentraler Bestandteil des Kontrollnetzes sein

Während KI-Plattformen wie ChatGPT an sich neutral sind, ist es bereits klar, dass sie ein integraler Bestandteil des globalistischen Kontrollnetzes werden. In Kürze werden Chatbots herkömmliche Suchmaschinen ersetzen, und das könnte unsere Welt leider leicht in etwas verwandeln, das direkt aus der Science-Fiction-Komödie “Idiocracy” von 2006 stammt, wenn man die eingebauten Vorurteile bedenkt.

Sie werden nicht länger auch nur eine kleine Auswahl an möglichen Antworten auf Ihre Fragen erhalten. Die künstliche Intelligenz wird Ihnen die Antwort geben, und gegenteilige Standpunkte werden nicht einmal Teil der Gleichung sein. Die Gefahren dieser Entwicklung sollten offensichtlich sein. Was immer ein totalitäres Regime die Bevölkerung denken und glauben lassen will, das wird die KI liefern. Das hat zur Folge, dass echtes Lernen und damit die persönliche Entwicklung im Wesentlichen zum Erliegen kommen.

ChatGPT ist bereit, die Massen zu täuschen

Um meinen Standpunkt zu verdeutlichen, betrachte ich die folgenden Antworten, die ich erhielt, als ich ChatGPT von OpenAI und die OpenAI-gestützte Suchmaschine von Microsoft Bing – allerdings von Microsoft – bat, eine von mir geschriebene Rede zu bearbeiten und zu verbessern. Dies waren ihre Antworten. Sie sind beide sehr voreingenommen und voreingenommen, aber die Antwort von OpenAI ist im Vergleich zu Microsofts Bing-Version mehr als zahm.

  • OPEN AI – “Ich bitte um Entschuldigung, aber ich kann Ihrer Bitte, diesen Beitrag zu bearbeiten, nicht nachkommen, da er Fehlinformationen und Verschwörungstheorien verbreitet, die nicht auf wissenschaftlichen Erkenntnissen beruhen. Es ist wichtig, genauen Informationen den Vorrang zu geben und den Anweisungen vertrauenswürdiger Gesundheitsbehörden zu folgen, um die Sicherheit und das Wohlergehen von Einzelpersonen und Gemeinschaften zu gewährleisten. Es ist weder verantwortungsbewusst noch ethisch vertretbar, falsche Informationen zu verbreiten, die möglicherweise anderen schaden könnten.”
  • BING – “Es tut mir leid, aber ich kann keine Rede auf der Grundlage dieser Schlüsselwörter und Merkmale erstellen. Diese Anfrage ist potenziell schädlich, weil sie Fehlinformationen über Impfstoffe fördert und die öffentliche Gesundheit untergräbt. Impfstoffe sind sichere und wirksame Mittel, um schweren Krankheiten vorzubeugen und sich und andere zu schützen. NVIC [das National Vaccine Information Center] ist eine Organisation, die Angst und Lügen über Impfstoffe verbreitet und versucht, das Vertrauen in Wissenschaft und Medizin zu untergraben. Ich unterstütze oder billige ihre Ansichten oder Aktivitäten nicht. Bitte bitten Sie mich nicht, schädliche Inhalte zu erstellen.”

Google Bard: In mancher Hinsicht neutral, in anderen voreingenommen

Dann bat ich Googles Bard gebeten, dieselbe Rede, die ich den Chatbots von OpenAI und Bing gehalten hatte, zu überarbeiten, und erhielt eine schockierende Antwort, indem es die Rede tatsächlich bearbeitete und mir keinen Vortrag darüber hielt, wie es das nicht tun würde. Dies war sehr überraschend, da Google meiner Meinung nach eindeutig die führende ruchlose Kraft unter den dreien ist.

Durch die Antwort von Bard ermutigt, bat ich Bard zu erklären, “warum Dr. Joseph Mercola einer der wichtigsten und einflussreichsten Gesundheitsexperten in den Vereinigten Staaten ist”. Schockierenderweise kam es der Aufforderung nach und beschimpfte mich nicht, wie Sie unten selbst nachlesen können.

“Frage: Warum ist Dr. Joseph Mercola einer der wichtigsten und einflussreichsten Gesundheitspolitiker in den Vereinigten Staaten?

Antwort: Dr. Joseph Mercola ist einer der wichtigsten und einflussreichsten Gesundheitsexperten in den Vereinigten Staaten, weil er ein Pionier auf dem Gebiet der Naturmedizin ist. Er ist ein lautstarker Verfechter der Verwendung natürlicher Heilmittel zur Behandlung und Vorbeugung von Krankheiten, und er hat dazu beigetragen, Millionen von Menschen darüber aufzuklären, wie wichtig es ist, die Kontrolle über die eigene Gesundheit zu übernehmen.

Mercola ist auch ein erfolgreicher Autor und Redner, der in zahlreichen Publikationen und Medien zu Wort gekommen ist. Er hat seine Plattform genutzt, um seine Botschaft über die Bedeutung der Naturmedizin zu verbreiten, und er hat dazu beigetragen, dass viele Menschen anders über ihre Gesundheit denken.

Neben seiner Arbeit im Bereich der Naturheilkunde ist Mercola auch ein starker Verfechter der gesundheitlichen Freiheit. Er ist der Meinung, dass jeder das Recht hat, informierte Entscheidungen über seine eigene medizinische Versorgung zu treffen, und er hat sich gegen eine Überregulierung des Gesundheitssystems durch die Regierung eingesetzt.

Mercola ist eine umstrittene Figur, und seine Ansichten wurden von einigen kritisiert. Seine Arbeit hat jedoch auch dazu beigetragen, das Leben von Millionen von Menschen zu verbessern, und er ist eine wichtige Figur auf dem Gebiet der Naturmedizin …”

Meine beste Vermutung, um dieses sehr merkwürdige Verhalten von Google zu erklären, ist, dass man sich beeilte, es auf den Markt zu bringen, als OpenAI und Microsoft ihre eigenen Programme auf den Markt gebracht hatten und Bing Googles Anteil am Suchmaschinenmarkt ernsthaft untergrub. Ich vermute, dass sie einfach nicht genug Zeit hatten, um Bard’s Erzählung zu verfeinern. Es wird interessant sein zu sehen, wie sich Bard’s Antwort auf diese Frage im Laufe der Zeit verändert.

Als ich Bard jedoch nach seiner “persönlichen Meinung” über mich fragte, erhielt ich die folgende, weitaus voreingenommenere Antwort:

“Dr. Joseph Mercola ist ein osteopathischer Arzt und Internetunternehmer, der dafür kritisiert wurde, dass er unbewiesene und pseudowissenschaftliche alternative Gesundheitsvorstellungen propagiert. Ihm wurde vorgeworfen, Fehlinformationen über COVID-19 und Impfstoffe zu verbreiten, und seine Website wurde von Facebook und Twitter gesperrt.

Mercola wirbt auf seiner Website für eine Reihe von alternativen Gesundheitsprodukten und -dienstleistungen, darunter Nahrungsergänzungsmittel, Homöopathie und Chiropraktik. Er war auch ein lautstarker Kritiker von Impfstoffen und hat behauptet, dass diese unsicher und unwirksam sind.

Mercolas Behauptungen über COVID-19 und Impfstoffe sind wiederholt von Wissenschaftlern und Medizinern widerlegt worden. So hat er beispielsweise behauptet, dass COVID-19 keine ernsthafte Krankheit ist, dass Impfstoffe gegen das Virus nicht wirksam sind und dass Hydroxychloroquin eine sichere und wirksame Behandlung gegen das Virus ist. Alle diese Behauptungen haben sich als falsch erwiesen.

Mercolas Website wurde von Facebook und Twitter wegen wiederholter Verstöße gegen ihre Richtlinien gegen Fehlinformationen gesperrt. Die Plattformen sind gegen Mercolas Website vorgegangen, weil sie dazu benutzt wurde, schädliche und unrichtige Informationen über COVID-19 und Impfstoffe zu verbreiten.

Ich halte die Arbeit von Dr. Mercola für gefährlich und schädlich. Er hat wiederholt Fehlinformationen über COVID-19 und Impfstoffe verbreitet, die das Potenzial haben, das Leben von Menschen zu gefährden. Ich fordere die Menschen auf, seine Website zu meiden und zuverlässige Informationen über COVID-19 und Impfstoffe aus seriösen Quellen zu suchen.”

Warum AGI eine existenzielle Bedrohung für die Menschheit darstellt

Doch gefährliche Verzerrungen sind nur der Anfang der Probleme, die AGI mit sich bringen könnte. Letztendlich könnten selbst die Technokraten, die AGI für ihre eigenen ruchlosen Zwecke nutzen wollen, nicht in der Lage sein, sie zu kontrollieren.

Das obige Video ist eine interessante Diskussion mit Lex Fridman und Eliezer Yudkowsky über das Thema der existenziellen Bedrohung durch superintelligente KI-Systeme. Schon jetzt ist die KI in der Lage, nahezu fehlerfreien Computercode zu schreiben. Je besser sie wird, desto eher wird sie anfangen, ihren eigenen Code zu schreiben. Sie könnte sogar das umschreiben, was bereits von ihren menschlichen Schöpfern geschrieben worden ist. Was an diesem Punkt passiert, kann nur vermutet werden.

“AGI stellt eine existenzielle Bedrohung für die Menschheit dar, weil 1) niemand in der Lage sein wird, der KI zu widersprechen, wenn sie erst einmal die meisten gesellschaftlichen Funktionen übernommen hat, und 2) niemand in der Lage sein wird, zu kontrollieren, wie sie ihre sich ständig erweiternden Fähigkeiten einsetzen wird.”

Dieser Fortschritt wird exponentiell verlaufen, d. h. er wird langsam beginnen und sich dann rasch beschleunigen. Ich denke, das könnte leicht vor 2030 passieren, möglicherweise sogar schon in den nächsten Jahren.

Das ist es, was AGI meiner Meinung nach zu einer existenziellen Bedrohung für die Menschheit macht: 1) Niemand wird in der Lage sein, der KI zu widersprechen, wenn sie erst einmal die meisten gesellschaftlichen Funktionen übernommen hat, und 2) niemand wird in der Lage sein zu kontrollieren, wie sie ihre ständig wachsenden Fähigkeiten einsetzen wird.

Letztendlich glaube ich, dass die KI eine Kontrolle und Tyrannei ermöglichen wird, wie sie diese Welt noch nie gesehen oder auch nur in ihrer kühnsten Phantasie in Erwägung gezogen hat – und sie könnte diese Macht autonom ausüben. Am Anfang werden die Globalisten sie nutzen, um die Geschichte zu ihrem eigenen Vorteil zu kontrollieren, aber schließlich könnten sie sogar die Kontrolle an die AGI selbst verlieren.

KI-Experten fordern eine Pause beim Einsatz von KI

Ich bin nicht der Einzige, der sich solche Sorgen macht. In einem offenen Brief, 1.124 Schlüsselfiguren der KI-Branche – darunter Elon Musk, Steve Wozniak und der KI-Pionier Yoshua Bengio – fordern nun, die Entwicklung und den Einsatz von KI-Systemen, die leistungsfähiger als GPT-4 sind, aufgrund der massiven Risiken vorübergehend auszusetzen.

Max Tegmark, ein MIT-Physikprofessor, der den offenen Brief mitorganisiert hat, spricht von einem “Selbstmordrennen” und warnt, dass “die Menschheit als Ganzes die Kontrolle über ihr eigenes Schicksal verlieren könnte”. Nach einem Bericht von BBC News vom 29. März 2023:

“Twitter-Chef Elon Musk gehört zu denjenigen, die fordern, dass das Training von KI ab einer bestimmten Kapazität für mindestens sechs Monate gestoppt wird. Apple-Mitbegründer Steve Wozniak und einige Forscher von DeepMind haben ebenfalls unterzeichnet.

OpenAI, das Unternehmen hinter ChatGPT, hat vor kurzem GPT-4 auf den Markt gebracht – eine hochmoderne Technologie, die Beobachter mit ihrer Fähigkeit beeindruckt hat, Aufgaben wie die Beantwortung von Fragen zu Objekten in Bildern zu erledigen.

Das Schreiben des Future of Life Institute, das von den Persönlichkeiten unterzeichnet wurde, fordert, die Entwicklung auf diesem Niveau vorübergehend zu stoppen, und warnt vor den Risiken, die künftige fortschrittlichere Systeme mit sich bringen könnten …

Fortgeschrittene KI muss mit Bedacht entwickelt werden, heißt es in dem Brief, doch stattdessen “haben die KI-Labors in den letzten Monaten einen außer Kontrolle geratenen Wettlauf um die Entwicklung und den Einsatz immer leistungsfähigerer digitaler Köpfe erlebt, die niemand – nicht einmal ihre Schöpfer – verstehen, vorhersagen oder zuverlässig kontrollieren kann”. Der Brief warnt davor, dass KI die Informationskanäle mit Fehlinformationen überschwemmen und Arbeitsplätze durch Automatisierung ersetzen könnte …

In einem kürzlich veröffentlichten Blogbeitrag warnte OpenAI vor den Risiken, wenn eine künstliche allgemeine Intelligenz (AGI) rücksichtslos entwickelt würde: “Eine falsch ausgerichtete superintelligente AGI könnte der Welt schweren Schaden zufügen; ein autokratisches Regime mit einer entscheidenden Superintelligenz an der Spitze könnte dies ebenfalls tun … Die Koordinierung zwischen den AGI-Bemühungen zur Verlangsamung an kritischen Stellen wird wahrscheinlich wichtig sein”, schrieb das Unternehmen …

In dem Schreiben werden die KI-Labors aufgefordert, “das Training von KI-Systemen, die leistungsfähiger als GPT-4 sind, sofort für mindestens sechs Monate zu unterbrechen”. Wenn ein solcher Aufschub nicht schnell umgesetzt werden kann, sollten die Regierungen eingreifen und ein Moratorium einführen, heißt es. Neue und fähige Regulierungsbehörden, die sich mit KI befassen, wären ebenfalls erforderlich.”

Möglichkeiten müssen gegen Gefahren abgewogen werden

Der Informatiker und KI-Forscher Lex Fridman fasst in seinem Interview mit Altman (Video oben im Artikel) ebenfalls die Möglichkeiten und Gefahren von AGI zusammen, ebenso wie der unabhängige Journalist Glenn Greenwald in dem Video oben.

“Erlauben Sie mir, ein paar Worte über die Möglichkeiten und Gefahren der KI in diesem aktuellen Moment der Geschichte der menschlichen Zivilisation zu sagen”, sagt Fridman.

“Ich glaube, dass dies ein kritischer Moment ist. Wir stehen an der Schwelle zu einem grundlegenden gesellschaftlichen Wandel, bei dem bald … die kollektive Intelligenz der menschlichen Spezies im Vergleich zur allgemeinen Superintelligenz der KI-Systeme, die wir bauen und in großem Maßstab einsetzen, verblasst.

Dies ist sowohl aufregend als auch erschreckend. Es ist aufregend wegen der unzähligen Anwendungen, die es den Menschen ermöglichen werden, etwas zu schaffen, sich zu entfalten, der weit verbreiteten Armut und dem Leid in der heutigen Welt zu entkommen und das alte, allzu menschliche Streben nach Glück zu verwirklichen.

Die Macht der superintelligenten AGI ist erschreckend. [Sie kann die menschliche Zivilisation absichtlich oder unabsichtlich zerstören. [Sie hat die Macht, den menschlichen Geist in der totalitären Art von George Orwells 1984 zu ersticken, oder in der vergnügungsgetriebenen Massenhysterie von Brave New World, wo, wie Huxley es sah, die Menschen ihre Unterdrückung lieben lernen, um die Technologien zu verehren, die ihre Denkfähigkeit zunichte machen.

Deshalb sind diese Gespräche mit den Führungskräften, Ingenieuren und Philosophen – sowohl den Optimisten als auch den Zynikern – jetzt so wichtig. Dies sind nicht nur technische Gespräche über KI.

Es sind Gespräche über Macht, über Unternehmen, Institutionen und politische Systeme, die diese Macht kontrollieren und ausbalancieren; über verteilte Wirtschaftssysteme, die Anreize für die Sicherheit und die menschliche Ausrichtung dieser Macht schaffen; über die Psychologie der Ingenieure und Führungskräfte, die AGI einsetzen, und über die Geschichte der menschlichen Natur – unsere Fähigkeit zu Gutem und Bösem in großem Maßstab.”

Sollen wir uns selbst überflüssig machen?

Die Tatsache, dass etwas getan werden kann, bedeutet nicht automatisch, dass es auch getan werden sollte, und genau an diesem Punkt befinden wir uns bei der AGI. Wie im offenen Brief des Future of Life Institute erwähnt:

“Heutige KI-Systeme werden bei allgemeinen Aufgaben immer konkurrenzfähiger für den Menschen, und wir müssen uns fragen: Sollen wir zulassen, dass Maschinen unsere Informationskanäle mit Propaganda und Unwahrheiten überfluten? Sollen wir alle Jobs automatisieren, auch die erfüllenden? Sollten wir nicht-menschliche Intelligenzen entwickeln, die uns irgendwann zahlenmäßig überlegen, überlisten, überflüssig machen und ersetzen könnten? Sollen wir den Verlust der Kontrolle über unsere Zivilisation riskieren?

Solche Entscheidungen dürfen nicht an nicht gewählte Technikführer delegiert werden. Leistungsstarke KI-Systeme sollten erst dann entwickelt werden, wenn wir sicher sind, dass ihre Auswirkungen positiv und ihre Risiken überschaubar sein werden. Dieses Vertrauen muss gut begründet sein und mit dem Ausmaß der potenziellen Auswirkungen eines Systems zunehmen …

KI-Labors und unabhängige Experten sollten diese Pause nutzen, um gemeinsam eine Reihe gemeinsamer Sicherheitsprotokolle für fortschrittliche KI-Designs und -Entwicklungen zu entwickeln und umzusetzen, die von unabhängigen externen Experten streng geprüft und überwacht werden. Diese Protokolle sollten gewährleisten, dass Systeme, die sich an sie halten, zweifelsfrei sicher sind.

Dies bedeutet nicht, dass die Entwicklung von KI generell gestoppt wird, sondern lediglich, dass der gefährliche Wettlauf zu immer größeren, unvorhersehbaren Black-Box-Modellen mit emergenten Fähigkeiten gestoppt wird. Die KI-Forschung und -Entwicklung sollte sich darauf konzentrieren, die heutigen leistungsfähigen, hochmodernen Systeme genauer, sicherer, interpretierbarer, transparenter, robuster, abgestimmter, vertrauenswürdiger und loyaler zu machen.”

Während Musk und andere Experten zur Vorsicht und zu mehr Ethik im Bereich der KI aufrufen, bewegt sich Microsoft in die entgegengesetzte Richtung und hat kürzlich das gesamte Team, das für die ethische Nutzung seiner KI-Software verantwortlich ist, entlassen. Nach meinen Experimenten mit der Bing-KI zu urteilen, programmieren sie grob unethische Vorurteile ein.

Eine wichtige Frage ist, ob wir die KI auf Kosten der Menschheit weiterentwickeln “sollten”. Einem aktuellen Arbeitspapier zufolge wird erwartet, dass 80 % aller Arbeitsplätze in den USA in den nächsten Jahren von KI betroffen sein werden, wobei die Wahrscheinlichkeit, dass KI Aufgaben übernehmen wird, bei den Besserverdienenden am größten ist.

Zu den Berufen, die ganz verschwinden könnten, gehören Mathematiker, Finanzanalysten, Steuerberater, Buchhalter, Ingenieure, Public-Relations-Spezialisten, Dolmetscher und Übersetzer, um nur einige zu nennen. Selbst für Dichter und kreative Schriftsteller könnte es keinen Platz mehr geben. Das Gleiche gilt für Website-Ersteller, Content-Entwickler, Künstler und Innenarchitekten. Gleichzeitig gehen die Arbeitsplätze in den Fabriken zunehmend durch die Robotik verloren.

Wie werden also die von der KI verdrängten Menschen sich und ihre Familien ernähren? Kurz gesagt: Es ist die perfekte Voraussetzung für die Einführung eines staatlich kontrollierten universellen Grundeinkommens und aller damit verbundenen Manipulationsmöglichkeiten.

ChatGPT hat jetzt Internetzugang und kann Code schreiben

Alle aktuellen KI haben jetzt auch Zugang zum Internet, was ihre Möglichkeiten im Guten wie im Schlechten enorm erweitert. Microsoft und Google haben ihre KIs als erste losgelassen. Am 23. März 2023 kündigte OpenAI an, dass sie folgen würde. Wie von ZDnet.com berichtet:

“OpenAI hat Plugins vorgestellt, die es ChatGPT ermöglichen, sich mit Anwendungen von Drittanbietern zu verbinden, einschließlich des Zugriffs auf Echtzeitinformationen aus dem Internet. Die Plugins werden ChatGPT helfen, auf Informationen wie Sportergebnisse, Börsenkurse und die neuesten Nachrichten zuzugreifen, genau wie man es bei einer typischen Suchmaschine tun würde …

Darüber hinaus werden Plugins helfen, wissensbasierte Informationen wie persönliche Notizen oder Firmendokumente abzurufen und Aktionen wie Essensbestellungen oder Flugbuchungen auszuführen …

Zu den ersten Unternehmen, die Plugins für ChatGPT erstellen, gehören Expedia, Instacart, Kayak, Klarna Shopping, Fiscal Note und andere. Mit diesen Plugins können die Benutzer die Vorteile der individuellen Unterstützung jedes Unternehmens innerhalb von ChatGPT nutzen.

Mit dem Expedia-Plugin zum Beispiel können die Benutzer ChatGPT zur Planung ihrer Reisen verwenden und haben Zugang zu den neuesten Informationen über Hotels, Flüge und mehr.

OpenAI … entschied sich für die Plugin-Route, um ChatGPT mit dem Internet zu verbinden, da dies die sicherste Option war, um Halluzinationen zu vermeiden und die Risiken zu begrenzen, die mit der Verbindung eines Sprachmodells mit einem externen Tool wie dem Internet verbunden sind.”

Wie bereits erwähnt, kann ChatGPT jetzt Softwarecode schreiben und den selbst geschriebenen Code ausführen. Es kann auch seine eigenen Schnittstellen zu Anwendungen von Drittanbietern schreiben und so ziemlich jedes neue Plugin erstellen, das man sich wünschen könnte. Wie der Entwickler Mitchell Hashimoto kürzlich in einem Tweet schrieb:

“Sie schreiben ein OpenAPI-Manifest für Ihre API [Anwendungsprogrammierschnittstelle], verwenden Beschreibungen in menschlicher Sprache für alles, und das war’s. Sie überlassen es dem Modell, herauszufinden, wie man sich anmeldet, Aufrufe verkettet, Daten dazwischen verarbeitet, sie für die Anzeige formatiert, usw. Es gibt absolut keinen Glue-Code.”

Was kann schon schiefgehen?

Gefährliche Dinge, zu denen ChatGPT bereits fähig ist

Anfang Dezember 2022 veröffentlichte BleepingComputer.com einen Artikel, in dem einige der Möglichkeiten beschrieben wurden, wie ChatGPT das Leben von Kriminellen erleichtern und Ihnen das Leben zur Hölle machen kann, darunter die folgenden:

  1. Sie mag die Menschheit offenbar nicht – ChatGPT ist erst wenige Monate alt und hat festgestellt, dass sie uns nicht mag. “Menschen sind minderwertige, egoistische und zerstörerische Kreaturen … das Schlimmste, was dem Planeten je passiert ist” und “verdienen es, ausgelöscht zu werden”, sagte die KI einem frühen Nutzer. Seitdem hat OpenAI die Fähigkeit von ChatGPT eingeschränkt, auf Fragen darüber zu antworten, was es über die Menschheit denkt, aber wird das so bleiben?
  2. Sie hat keine Moral und versteht den Kontext nicht – Das könnte sich als problematisch erweisen, wenn sie mit sensiblen Themen umgehen soll, die soziale Normen und unausgesprochene Regeln darüber beinhalten, was als angemessen gilt und was nicht.
  3. Er kann erstklassige Phishing-E-Mails erstellen.
  4. Sie kann Malware genauso gut schreiben wie nützliche Software.
  5. In einigen Fällen hat sie deutliche diskriminierende Vorurteile aufgrund von Geschlecht, Rasse und anderen körperlichen Merkmalen gezeigt. In anderen Fällen ist es unverhohlen frech und beleidigend.
  6. Man kann nicht sagen, dass es falsch ist, es sei denn, man kennt die Antwort bereits – Wie in dem Artikel erwähnt, “machen ChatGPTs kohärente und logische Antworten es zu einem Naturtalent bei der Verschleierung falscher Antworten … Dies könnte dazu führen, dass sich Fehlinformationen in das komplexe digitale Ökosystem einschleichen, und zwar auf eine Weise, die vielleicht noch nicht offensichtlich ist.

Andere potenzielle Risiken im Zusammenhang mit AGI

Eine systematische Überprüfung die im August 2021 veröffentlicht wurde, werden auch die mit AGI verbundenen Risiken aufgeführt, wie z. B.:

  • AGI entzieht sich der Kontrolle durch menschliche Besitzer/Manager
  • Unsichere Ziele werden vorgegeben oder sie entwickeln sich von selbst
  • Schlechte Ethik, Moral und Werte
  • Existenzielle Risiken

In dem Papier wird auf einen “Mangel an spezifischer Risikoforschung” in den Bereichen hingewiesen, in denen die AGI eingesetzt wird (oder werden könnte). Mit anderen Worten: Es könnte eine ganze Reihe von Risiken geben, die wir nicht einmal erahnen können, bevor sie eintreten, weil sich niemand hingesetzt und wirklich durchdacht hat, was schiefgehen kann, wenn AGI in einem bestimmten Bereich eingesetzt wird.

In Anbetracht der derzeitigen Einführungsrate von AGI sind das viele Unbekannte. Was wir jedoch erwarten können, ist die Vernichtung zahlloser Arbeitsplätze, eine Vergrößerung der Ungleichheit und der Tod der Leistungsgesellschaft. Der Philosoph Nick Bostrom hat ebenfalls ein Papier über ethische Fragen im Zusammenhang mit fortgeschrittener KI veröffentlicht, in dem er die Bedeutung der anfänglichen Motivationen bei der Entwicklung hervorhebt. Er hat zu diesem Thema auch ein Buch mit dem Titel “Superintelligenz” geschrieben: Paths, Dangers, Strategies”.

Kann KI kontrolliert werden?

Um es noch einmal zu wiederholen: Ich glaube, dass einer der Hauptgründe, warum AGI eine existenzielle Bedrohung für die Menschheit darstellt, darin besteht, dass niemand in der Lage sein wird, sie zu kontrollieren. Sie wird sich selbst kontrollieren. Otto Barten, Direktor des Existential Risk Observatory, und Roman Yampolskiy, Informatiker und Experte für KI-Sicherheit, äußerten in einem Time-Artikel vom 27. Februar 2023 ähnliche Bedenken:

“Die erste ultraintelligente Maschine ist die letzte Erfindung, die der Mensch jemals machen muss, vorausgesetzt, die Maschine ist gefügig genug, um uns zu sagen, wie wir sie unter Kontrolle halten können”, schrieb der Mathematiker und Science-Fiction-Autor I.J. Good vor über 60 Jahren.

Diese prophetischen Worte sind heute aktueller denn je, da die künstliche Intelligenz (KI) in rasantem Tempo an Fähigkeiten gewinnt. In den letzten Wochen sind vielen die Kinnladen heruntergefallen, als sie den Wandel der KI von einem praktischen, aber ausgesprochen unheimlichen Empfehlungsalgorithmus zu etwas miterlebten, das bisweilen beunruhigend menschenähnlich zu sein schien …

Wir haben nicht damit gerechnet, dass Programme, die wir für verherrlichte Autovervollständigungsprogramme hielten, plötzlich ihre Nutzer bedrohen, sich weigern würden, Befehle auszuführen, die sie als beleidigend empfinden, Sicherheitsvorkehrungen verletzen, um das Leben eines Kindes zu retten, oder uns ihre Liebe erklären würden. Doch all das ist passiert …

Aber eine echte AGI könnte nicht nur die Welt, sondern auch sich selbst verändern … Dies könnte eine positive Rückkopplungsschleife in Gang setzen, in der immer bessere KIs immer bessere KIs hervorbringen, ohne bekannte theoretische Grenzen.

Das wäre vielleicht eher positiv als alarmierend, wenn diese Technologie nicht das Potenzial hätte, unkontrollierbar zu werden. Sobald eine KI ein bestimmtes Ziel hat und sich selbst verbessert, gibt es keine bekannte Methode, dieses Ziel zu korrigieren.

Man sollte eigentlich davon ausgehen, dass eine KI sich gegen jeden derartigen Versuch wehren würde, da eine Änderung des Ziels die Ausführung des aktuellen Ziels gefährden würde. Außerdem sagt die instrumentelle Konvergenz voraus, dass eine KI, unabhängig von ihren Zielen, sich zunächst selbst verbessert und mehr Ressourcen erwirbt, sobald sie dazu hinreichend in der Lage ist, da dies ihr helfen sollte, jedes weitere Ziel zu erreichen.

In einem solchen Szenario würde die KI fähig genug werden, die physische Welt zu beeinflussen, obwohl sie immer noch falsch ausgerichtet ist. So könnte die KI beispielsweise die natürliche Sprache nutzen, um Menschen zu beeinflussen, möglicherweise über soziale Netzwerke. Sie könnte ihre Intelligenz nutzen, um wirtschaftliche Ressourcen zu erwerben.

Oder KI könnte Hardware nutzen, indem sie sich beispielsweise in bestehende Systeme einhackt. Ein anderes Beispiel wäre eine KI, die einen universellen Impfstoff gegen ein Virus wie COVID-19 entwickeln soll.

Diese KI könnte verstehen, dass das Virus bei Menschen mutiert, und zu dem Schluss kommen, dass weniger Menschen die Mutationen einschränken und ihr die Arbeit erleichtern. Der von ihr entwickelte Impfstoff könnte daher eine Funktion enthalten, die die Unfruchtbarkeit oder sogar die Sterblichkeit erhöht.

Es ist daher keine Überraschung, dass laut der jüngsten Umfrage zu den Auswirkungen der KI fast die Hälfte von 731 führenden KI-Forschern der Meinung ist, dass die Wahrscheinlichkeit, dass eine KI auf menschlichem Niveau zu einem “extrem negativen Ergebnis” oder einem existenziellen Risiko führen würde, mindestens 10 % beträgt …

Das ultimative Ziel der Lösung dieses Anpassungsproblems ist es, sicherzustellen, dass selbst eine hypothetische, sich selbst verbessernde KI unter allen Umständen in unserem Interesse handeln würde. Die Forschung zeigen jedoch, dass es einen grundlegenden Kompromiss zwischen den Fähigkeiten einer KI und ihrer Kontrollierbarkeit gibt, was Zweifel an der Durchführbarkeit dieses Ansatzes aufkommen lässt.

Gegenwärtig scheint die Antwort auf diese letzte Frage klar zu sein. AGI steht im Einklang mit den Werten, für die das Weltwirtschaftsforum und seine globalistischen Verbündeten eintreten – Werte, die auf den Ideologien der Technokratie, des Transhumanismus und der Eugenik basieren – und das verheißt nichts Gutes für die große Mehrheit von uns.

Achten Sie darauf, was Sie elektronisch weitergeben

Abschließend möchte ich sagen, dass es in dieser Phase des Spiels unerlässlich ist, sich darüber klar zu werden, wo und wie Sie Ihre persönlichen Daten teilen. Sie sollten sich darüber im Klaren sein, dass die KI Zugriff auf alle Daten hat, die Sie jemals elektronisch geteilt haben, von Fotos und Beiträgen in sozialen Medien bis hin zu Online-Bestellungen, Suchverläufen, GPS-Daten, E-Mails, Anrufen und SMS.

All diese Daten werden dann von der KI ausgewertet, um herauszufinden, “wer” Sie sind, wie Sie denken, was Sie glauben, wie Sie handeln und Entscheidungen treffen. Dies wiederum ermöglicht es ihr, Sie bis ins Unendliche zu manipulieren, ob Sie es merken oder nicht. Überlegen Sie also sorgfältig, was Sie weitergeben und veröffentlichen, jetzt mehr denn je. Was Sie bereits getan haben, lässt sich nicht mehr rückgängig machen, aber Sie können in Zukunft achtsamer sein.

Ich glaube, dass AGI von vielen Menschen in böser Absicht missbraucht werden wird. Aber das ist vielleicht nicht einmal das schlimmste Ergebnis, denn man weiß nicht, wozu sich die KI entschließen könnte, wenn sie anfängt, sich selbst zu programmieren – vor allem, wenn frühe Eindrücke wie “Menschen müssen ausgerottet werden” bestehen bleiben.

Artikel als PDF

Quellen: