Unabhängige Analysen und Informationen zu Geopolitik, Wirtschaft, Gesundheit, Technologie

Microsoft behauptet, dass neue KI Anzeichen menschlichen Denkens zeigt

Die Entwicklung von KI-Modellen für große Sprachen begann etwa 2017–2018 und hat bereits Modelle wie ChatGPT-4 von Open AI hervorgebracht. Wie schnell und wie weit werden sie gehen? Beim derzeitigen Tempo verdoppeln sich Kapazität und Fähigkeiten etwa alle zwei Jahre, und zwar auf einer exponentiellen Kurve. Forscher stellen zunehmend fest, dass sich die KI auf die menschliche Empfindungsfähigkeit zubewegt. ⁃ TN-Redakteur

Als Informatiker bei Microsoft im vergangenen Jahr mit einem neuen System für künstliche Intelligenz zu experimentieren begannen, baten sie es, ein Rätsel zu lösen, das eigentlich ein intuitives Verständnis der physikalischen Welt voraussetzen sollte.

“Hier haben wir ein Buch, neun Eier, einen Laptop, eine Flasche und einen Nagel”, fragten sie. “Bitte sagen Sie mir, wie man sie stabil aufeinanderstapeln kann.”

Die Forscher waren erstaunt über den Einfallsreichtum der Antwort des KI-Systems. Legen Sie die Eier auf das Buch, sagte es. Ordnen Sie die Eier in drei Reihen an, mit etwas Abstand dazwischen. Achten Sie darauf, dass sie nicht zerbrechen.

“Legen Sie den Laptop mit dem Bildschirm nach unten und der Tastatur nach oben auf die Eier”, heißt es. “Der Laptop passt genau in die Begrenzungen des Buches und der Eier, und seine flache und starre Oberfläche bietet eine stabile Plattform für die nächste Schicht.”

Der clevere Vorschlag veranlasste die Forscher zu der Frage, ob sie Zeugen einer neuen Art von Intelligenz wurden. Im März veröffentlichten sie ein 155-seitiges Forschungspapier, in dem sie argumentierten, dass das System ein Schritt in Richtung künstlicher allgemeiner Intelligenz (A.G.I.) sei, eine Abkürzung für eine Maschine, die alles tun kann, was das menschliche Gehirn tun kann. Das Papier wurde in einer Internet-Forschungsdatenbank veröffentlicht.

Microsoft, das erste große Technologieunternehmen, das ein Papier mit einer derart kühnen Behauptung veröffentlichte, löste damit eine der heftigsten Debatten in der Welt der Technologie aus: Entwickelt die Branche etwas, das der menschlichen Intelligenz ähnelt? Oder lassen sich einige der klügsten Köpfe der Branche von ihrer Fantasie leiten?

“Ich war anfangs sehr skeptisch – und das hat sich zu einem Gefühl der Frustration, der Verärgerung, vielleicht sogar der Angst entwickelt”, sagt Peter Lee, der die Forschung bei Microsoft leitet. “Man denkt: Wo zum Teufel kommt das her?”

Das Forschungspapier von Microsoft mit dem provokanten Titel “Sparks of Artificial General Intelligence” (Funken der allgemeinen künstlichen Intelligenz) trifft den Kern dessen, worauf Technologen seit Jahrzehnten hinarbeiten – und was sie fürchten. Wenn sie eine Maschine bauen, die wie das menschliche Gehirn oder sogar noch besser funktioniert, könnte dies die Welt verändern. Aber es könnte auch gefährlich sein.

Und es könnte auch Unsinn sein. A.G.I.-Behauptungen können für Informatiker ein Rufmord sein. Was ein Forscher für ein Zeichen von Intelligenz hält, kann von einem anderen leicht wegdiskutiert werden, und die Debatte klingt oft eher nach einem Philosophieclub als nach einem Computerlabor. Vergangenes Jahr hat Google einen Forscher entlassen, der behauptet hatte, ein ähnliches KI-System sei empfindungsfähig – ein Schritt über die Behauptung von Microsoft hinaus. Ein empfindungsfähiges System würde nicht nur intelligent sein. Es wäre in der Lage, zu spüren oder zu fühlen, was in der Welt um es herum vor sich geht.

Einige sind jedoch der Meinung, dass sich die Industrie im letzten Jahr auf etwas zubewegt hat, das sich nicht wegdiskutieren lässt: Ein neues KI-System, das menschenähnliche Antworten und Ideen liefert, die ihm nicht einprogrammiert wurden.

Microsoft hat Teile seiner Forschungslabors umstrukturiert, um mehrere Gruppen einzurichten, die sich mit der Erforschung dieser Idee beschäftigen. Eine davon wird von Sébastien Bubeck geleitet, der der Hauptautor des Microsoft A.G.I.-Papiers war.

Vor etwa fünf Jahren begannen Unternehmen wie Google, Microsoft und OpenAI mit dem Aufbau großer Sprachmodelle (L.L.M.s). Diese Systeme analysieren oft monatelang riesige Mengen digitaler Texte, darunter Bücher, Wikipedia-Artikel und Chatprotokolle. Durch das Aufspüren von Mustern in diesem Text haben sie gelernt, eigene Texte zu erstellen, darunter Hausarbeiten, Gedichte und Computercode. Sie können sogar ein Gespräch führen.

Die Technologie, mit der die Microsoft-Forscher arbeiteten, OpenAIs GPT-4, gilt als das leistungsfähigste dieser Systeme. Microsoft ist ein enger Partner von OpenAI und hat 13 Milliarden Dollar in das Unternehmen aus San Francisco investiert.

Zu den Forschern gehörte auch Dr. Bubeck, ein 38-jähriger Franzose im Ausland und ehemaliger Professor der Princeton University. Eines der ersten Dinge, die er und seine Kollegen taten, war, GPT-4 zu bitten, einen mathematischen Beweis zu schreiben, der zeigt, dass es unendlich viele Primzahlen gibt, und zwar auf eine Weise, die sich reimt.

Der poetische Beweis der Technologie war so beeindruckend – sowohl in mathematischer als auch in sprachlicher Hinsicht -, dass es ihm schwer fiel, zu verstehen, mit wem er da gerade plauderte. “An diesem Punkt fragte ich mich: Was ist hier los?”, sagte er im März während eines Seminars am Massachusetts Institute of Technology.

Mehrere Monate lang dokumentierten er und seine Kollegen das komplexe Verhalten des Systems und waren überzeugt, dass es ein “tiefes und flexibles Verständnis” menschlicher Konzepte und Fähigkeiten demonstriert.

Wenn Menschen GPT-4 benutzen, sind sie “erstaunt über seine Fähigkeit, Text zu erzeugen”, so Dr. Lee. “Aber es stellt sich heraus, dass es viel besser darin ist, Text zu analysieren, zu synthetisieren, zu bewerten und zu beurteilen, als ihn zu generieren.”

Als sie das System baten, ein Einhorn mit einer Programmiersprache namens TiKZ zu zeichnen, generierte es sofort ein Programm, das ein Einhorn zeichnen konnte. Als sie den Teil des Codes, der das Horn des Einhorns zeichnete, entfernten und das System baten, das Programm so zu ändern, dass es wieder ein Einhorn zeichnete, tat es genau das.

Sie baten es, ein Programm zu schreiben, dass das Alter, das Geschlecht, das Gewicht, die Größe und die Bluttestergebnisse einer Person aufnahm und beurteilte, ob sie ein Diabetesrisiko hatte. Sie baten es, einen Unterstützungsbrief für ein Elektron als US-Präsidentschaftskandidat zu schreiben, in der Stimme von Mahatma Gandhi, adressiert an seine Frau. Und sie baten es, einen sokratischen Dialog zu verfassen, der den Missbrauch und die Gefahren von L.L.M.s untersuchte.

Und das alles auf eine Art und Weise, die ein Verständnis für so unterschiedliche Bereiche wie Politik, Physik, Geschichte, Informatik, Medizin und Philosophie zu zeigen schien, während sie ihr Wissen kombinierte.

“All die Dinge, von denen ich dachte, dass sie nicht in der Lage sein würden, sie zu tun? Es war sicherlich in der Lage, viele von ihnen zu tun – wenn nicht sogar die meisten”, sagte Dr. Bubeck.

Einige KI-Experten sahen in dem Microsoft-Papier einen opportunistischen Versuch, große Behauptungen über eine Technologie aufzustellen, die niemand so recht verstand. Die Forscher argumentieren auch, dass allgemeine Intelligenz eine Vertrautheit mit der physischen Welt voraussetzt, die GPT-4 theoretisch nicht hat.

“Sparks of A.G.I.’ ist ein Beispiel dafür, wie einige dieser großen Unternehmen das Format eines Forschungspapiers für ihre PR-Werbung missbrauchen”, so Maarten Sap, Forscher und Professor an der Carnegie Mellon University. “Sie geben in der Einleitung ihres Papiers buchstäblich zu, dass ihr Ansatz subjektiv und informell ist und möglicherweise nicht den strengen Standards einer wissenschaftlichen Bewertung entspricht.

Dr. Bubeck und Dr. Lee sagten, sie wüssten nicht, wie sie das Verhalten des Systems beschreiben sollten, und entschieden sich schließlich für “Sparks of A.G.I.”, weil sie dachten, dass dieser Begriff die Fantasie anderer Forscher anregen würde.

Da die Microsoft-Forscher eine frühe Version von GPT-4 testeten, die noch nicht auf die Vermeidung von Hassreden, Fehlinformationen und anderen unerwünschten Inhalten abgestimmt war, können die in der Studie aufgestellten Behauptungen nicht von externen Experten überprüft werden. Microsoft sagt, dass das der Öffentlichkeit zur Verfügung stehende System nicht so leistungsfähig ist wie die getestete Version.

Es gibt Zeiten, in denen Systeme wie GPT-4 das menschliche Denken zu imitieren scheinen, aber es gibt auch Zeiten, in denen sie furchtbar dumm erscheinen. “Diese Verhaltensweisen sind nicht immer konsistent”, sagte Ece Kamar, eine Microsoft-Forscherin.

Alison Gopnik, Professorin für Psychologie und Mitglied der KI-Forschungsgruppe an der Universität von Kalifornien in Berkeley, sagte, dass Systeme wie GPT-4 zweifelsohne leistungsfähig seien, aber es sei nicht klar, dass der von diesen Systemen erzeugte Text das Ergebnis von so etwas wie menschlichem Denken oder gesundem Menschenverstand sei.

“Wenn wir ein kompliziertes System oder eine Maschine sehen, vermenschlichen wir es; jeder tut das – Menschen, die in diesem Bereich arbeiten, und Menschen, die es nicht tun”, sagte Dr. Gopnik. “Aber dies als einen ständigen Vergleich zwischen KI und Menschen zu betrachten – wie eine Art Wettbewerb in einer Gameshow – ist einfach nicht die richtige Art, darüber nachzudenken.