Unabhängige Analysen und Informationen zu Geopolitik, Wirtschaft, Gesundheit, Technologie

Modernste Anwendungen der Künstlichen Intelligenz werden im Pavillon für Künstliche Intelligenz im Zhangjiang Future Park während einer staatlich organisierten Medientour in Shanghai am 18. Juni 2021 gezeigt. (Andrea Verdelli/Getty Images)

Künstliche Intelligenz könnte eine existenzielle Bedrohung für die Menschheit darstellen: Australischer Abgeordneter

Die Risiken im Zusammenhang mit künstlicher Intelligenz müssen gründlich untersucht werden, da sie eine existenzielle Bedrohung für das menschliche Leben darstellen könnte, so ein australischer Abgeordneter.

In einer Rede im Parlament am 6. Februar sagte der Labor-Abgeordnete Julian Hill, dass ChatGPT das Potenzial habe, die Welt zu revolutionieren, warnte aber, dass KI, wenn sie die menschliche Intelligenz übertreffe, erheblichen Schaden anrichten könne.

“Es dauert nicht lange, wenn man anfängt nachzudenken, um zu erkennen, dass die disruptiven und katastrophalen Risiken einer ungezähmten AGI real, plausibel und leicht vorstellbar sind”, sagte er.

Hill sagte, dass Risikoanalysten, die sich mit Bedrohungen wie Asteroiden, Klimawandel, Supervulkanen, nuklearen Verwüstungen, Sonneneruptionen oder Pandemien mit hoher Sterblichkeitsrate befassen, die künstliche Intelligenz (AGI) zunehmend an die Spitze ihrer Sorgenliste setzen.

“AGI hat das Potenzial, unsere Welt in einer Weise zu revolutionieren, die wir uns noch nicht vorstellen können, aber wenn AGI die menschliche Intelligenz übertrifft, könnte sie der Menschheit erheblichen Schaden zufügen, wenn ihre Ziele und Motivationen nicht mit unseren eigenen übereinstimmen”, sagte er.

“Das Risiko, das Menschen, die weitaus klüger sind als ich, zunehmend beunruhigt, ist das, was sie die ‘Unwahrscheinlichkeit’ nennen, dass Menschen in der Lage sein werden, AGI zu kontrollieren, oder dass ein böswilliger Akteur AGI für Massenvernichtung nutzen könnte.”

Hill wies auch darauf hin, dass Militärs auf der ganzen Welt die Entwicklung von AGI vorantreiben, da diese die Kriegsführung verändern und die derzeitigen “Verteidigungsfähigkeiten obsolet machen” könnten.

“Ein AGI-fähiger Gegner könnte Australien erobern oder Zerstörung auf gesellschaftlicher Ebene anrichten, ohne durch weltweit vereinbarte Normen eingeschränkt zu werden”, sagte er.

KI-Programme wurden in Schulen in New South Wales, Queensland, Tasmanien, Victoria und Westaustralien verboten.

Die Rede des Abgeordneten wurde teilweise von ChatGPT geschrieben

Um seine Bedenken zu verdeutlichen, sagte Hill, er habe ChatGPT benutzt, um Teile seiner Rede zu schreiben.

Das Programm brauchte nur 90 Sekunden, um die jüngsten Medienberichte über den Einsatz von künstlicher Intelligenz durch australische SchülerInnen zusammenzufassen und sagte, der von ihm erstellte Absatz sei “ziemlich gut”.

ChatGPT schrieb: “Kürzlich gab es Medienberichte über SchülerInnen in Australien, die künstliche Intelligenz benutzen, um bei ihren Prüfungen zu schummeln. Künstliche Intelligenz (KI), wie z. B. intelligente Software, die Aufsätze schreiben und Antworten generieren kann, wird für Schülerinnen und Schüler immer zugänglicher und ermöglicht es ihnen, Aufgaben und Tests zu erledigen, ohne den Stoff wirklich zu verstehen. Dies bereitet den Lehrkräften verständlicherweise Sorgen, da sie sich um die Auswirkungen auf die Integrität des Bildungssystems sorgen.”

ChatGPT schrieb auch, dass die Schüler durch den Einsatz von KI ihre Ausbildung effektiv umgehen und sich einen unfairen Vorteil verschaffen würden.

“Dies kann zu einem Mangel an Fähigkeiten zum kritischen Denken und zu einem Rückgang der Gesamtqualität der Bildung führen. Außerdem können Lehrkräfte möglicherweise nicht erkennen, ob ein Schüler oder eine Schülerin KI verwendet hat, um eine Aufgabe zu erledigen, was es schwierig macht, Betrug zu erkennen und zu bekämpfen. Der Einsatz von KI zum Schummeln wirft auch ethische Fragen über die Verantwortung der Schüler auf, den Stoff zu lernen und zu verstehen, über den sie geprüft werden”, heißt es in dem Bericht.

Hill warnte, die Qualität der Antwort bedeute, dass die Menschheit einen Schritt voraus sein müsse.

“Wenn es den Menschen gelingt, AGI zu kontrollieren, bevor es zu einer Intelligenzexplosion kommt, könnte dies die Wissenschaft, die Wirtschaft, unsere Umwelt und die Gesellschaft mit Fortschritten in allen Bereichen menschlichen Bemühens verändern”, sagte er und forderte eine Untersuchung oder internationale Zusammenarbeit bei der Erforschung des Themas.

“Die Schlüsselbotschaft, die ich vermitteln möchte, ist, dass wir jetzt damit beginnen müssen.”

KI-Gemeinschaft besorgt

Hills Rede folgt auf die Entscheidung der Internationalen Konferenz für maschinelles Lernen, Autoren zu verbieten, den Chatbot zum Schreiben wissenschaftlicher Arbeiten zu verwenden.

“In den vergangenen Jahren haben wir rasante Fortschritte bei großangelegten Sprachmodellen (LLM) beobachtet und miterlebt, sowohl in der Forschung als auch bei der Anwendung. Dieser Fortschritt hat sich in den vergangenen Monaten nicht verlangsamt, sondern nur noch beschleunigt. Wie viele, einschließlich uns selbst, bemerkt haben, sind LLMs, die in den vergangenen Monaten veröffentlicht wurden, wie OpenAI’s chatGPT, nun in der Lage, Textschnipsel zu produzieren, die oft schwer von dem von Menschen geschriebenen Text zu unterscheiden sind”, sagte das ICML.

“Ein solch schneller Fortschritt hat oft unvorhergesehene Konsequenzen.

“Leider hatten wir nicht genug Zeit, um die Auswirkungen auf unseren Überprüfungs- und Veröffentlichungsprozess zu beobachten, zu untersuchen und zu berücksichtigen. Wir haben daher beschlossen, die Erstellung von ICML-Papieren unter Verwendung von Sprachmodellen in großem Maßstab zu verbieten.”

US-Verteidigung setzt AGI auf Beobachtungsliste

Inzwischen hat die U.S. Defence Information System Agency (DISA) AGI auf ihre Beobachtungsliste gesetzt.

Die DISA-Beobachtungsliste ist dafür bekannt, dass sie Punkte enthält, die später zu Pfeilern der US-Verteidigung werden, wie 5G, vertrauensfreie digitale Verteidigung, quantenresistente Kryptografie, Edge Computing und Telepräsenz.

Der Chief Technology Officer der DISA, Stephen Wallace, erklärte auf einer Veranstaltung der Armed Forces Communications and Electronics Association International (AFCEA), dass sich die Organisation für diese Technologie interessiere.

“Wir haben in den letzten Jahren viel über KI gehört, und es gibt eine Reihe von Bereichen, in denen sie bereits im Einsatz ist”, sagte Wallace am 25. Januar laut Defence News. “Aber diese Art, die Fähigkeit, Inhalte zu generieren, ist eine sehr interessante Fähigkeit.

“Wir fangen an, uns damit zu beschäftigen: Wie verändert [generative KI] tatsächlich die Aufgabe der DISA im Ministerium und was wir dem Ministerium in Zukunft zur Verfügung stellen.”