Unabhängige Analysen und Informationen zu Geopolitik, Wirtschaft, Gesundheit, Technologie

person wearing silver framed eyeglasses
pexels.com

OpenAI ändert seine Position und kündigt Zusammenarbeit mit dem Pentagon an

Der Erfinder von ChatGPT hat seine Richtlinien aktualisiert und kann nun mit dem Verteidigungsministerium zusammenarbeiten.

Weniger als eine Woche, nachdem OpenAI den Einsatz seiner Chatbot-Technologie in militärischen Anwendungen erleichtert hat, indem es Formulierungen aus seinen Nutzungsrichtlinien gestrichen hat, hat der Erfinder von ChatGPT seine erste Partnerschaft mit dem Pentagon bekannt gegeben.

Die vorherige Nutzungsrichtlinie verbot ChatGPT-Nutzern Aktivitäten wie “Waffenentwicklung” und “Militär und Kriegsführung”. Am 10. Januar aktualisierte OpenAI die Seite, an die sich die Nutzer halten müssen. Sie besagt jetzt, dass die Chatbot-Technologie nicht verwendet werden darf, um “sich selbst oder anderen Schaden zuzufügen”. Als Beispiel dafür, dass ChatGPT nicht verwendet werden darf, wird die “Entwicklung oder der Einsatz von Waffen” genannt. Militärische Anwendungen und Kriegsführung sind nicht mehr aufgelistet.

Anna Makanju, Vizepräsidentin für globale Angelegenheiten bei OpenAI, sagte am Dienstag auf dem Weltwirtschaftsforum in Davos, Schweiz, dass das Unternehmen bereits mit dem Pentagon an einer Open-Source-Cybersicherheitssoftware arbeitet und Gespräche darüber führt, wie diese dabei helfen könnte, Selbstmorde von Veteranen zu verhindern,

Diese Änderung, über die zuerst von The Intercept berichtet wurde, ermöglicht es dem Pionier der künstlichen Intelligenz, sich um lukrative Militärverträge zu bewerben. Microsoft, das mit OpenAI eine Partnerschaft im Wert von 13 Milliarden Dollar eingegangen ist, arbeitet bei mehreren Projekten eng mit dem Pentagon zusammen, darunter ein mehrjähriger Cloud-Vertrag im Wert von 9 Milliarden Dollar, den sich Microsoft, Google, Amazon und Oracle teilen.

Die Politik von OpenAI erlaubt es weiterhin nicht, dass ihre Werkzeuge verwendet werden, um Menschen zu schaden oder Waffen zu entwickeln. Es gebe jedoch potenzielle “Anwendungsfälle für die nationale Sicherheit”, die im Einklang mit der Mission des Unternehmens stünden, wie Open-Source-Cybersicherheitssoftware, so OpenAI.

“Es war nicht klar, ob diese nützlichen Anwendungsfälle in unseren früheren Richtlinien unter “militärisch” erlaubt gewesen wären”, sagte ein Sprecher von OpenAI in einer Stellungnahme gegenüber The Messenger. “Das Ziel unserer aktualisierten Richtlinie ist es, Klarheit zu schaffen und die Möglichkeit zu bieten, diese Diskussionen zu führen.”

Im Mai unterzeichnete Sam Altman als einer von 350 führenden Vertretern der Technologiebranche eine einseitige Erklärung, in der es heißt: “Die Eindämmung des Risikos des Aussterbens durch KI sollte neben anderen gesellschaftlichen Risiken wie Pandemien und Atomkrieg eine globale Priorität sein.

Die Mitarbeiter von OpenAI könnten das Unternehmen bei der Entscheidung beeinflussen, welche Art von militärischen Projekten es übernimmt. Technologiemitarbeiter von Google, Amazon und Microsoft haben sich in der Vergangenheit der Arbeit an KI-Projekten für das Militär widersetzt. Im Jahr 2018 zwangen Mitarbeiter von Google das Unternehmen schließlich, einen Vertrag zur Entwicklung von maschineller Bildverarbeitung für Drohnenangriffe zu kündigen.