Unabhängige News und Infos

IARPA will, dass KI „wichtige, übersehene Informationen identifiziert und automatisch Kommentare“ für die Geheimdienste erstellt

IARPA will, dass KI „wichtige, übersehene Informationen identifiziert und automatisch Kommentare“ für die Geheimdienste erstellt

Ein ChatGPT-ähnlicher Chatbot für US-Spionagebehörden?

Die IARPA stellt ihr REASON-Programm zusammen, das Analysten dabei helfen soll, wichtige, übersehene Informationen zu identifizieren und gleichzeitig automatisch Kommentare zu erstellen, um ihre Geheimdienstberichte zu unterstützen.

Im Rahmen des REASON-Programms (Rapid Explanation, Analysis and Sourcing ONline) will die US Intelligence Advanced Research Projects Activity (IARPA) ein KI-System entwickeln, das „Geheimdienstanalysten bei der Lösung von Rätseln der nationalen Sicherheit helfen kann, indem es wichtige, übersehene Informationen identifiziert und aufzeigt, wie sie zusammenpassen.“

REASON wird die Arbeit der Analysten unterstützen und verbessern, indem es sie auf wichtige Beweise hinweist, die über das hinausgehen, was sie bereits in Betracht gezogen haben, und indem es ihnen hilft, festzustellen, welche alternativen Erklärungen die stärkste Unterstützung haben“ – IARPA REASON Programm

In der Programmbeschreibung heißt es: „REASON wird eine Technologie entwickeln, mit der Analysten zusätzliche relevante Beweise (einschließlich gegenteiliger Beweise) entdecken und Stärken und Schwächen in der Argumentation erkennen können.“ 

Darüber hinaus zielt REASON darauf ab, neuartige Systeme zu entwickeln, die automatisch Kommentare generieren, mit denen Geheimdienstanalysten die Beweise und Argumente in ihren Analyseberichten wesentlich verbessern können.

Die Leistungsbewertung wird darauf basieren, wie effektiv die Teams in der Lage sind, Technologien zu entwickeln, die den Analysten helfen, „wertvolle Beweise zu entdecken, Stärken und Schwächen in der Argumentation zu erkennen und qualitativ hochwertigere Berichte zu erstellen.“ 

REASON zielt darauf ab, neuartige Systeme zu entwickeln, die automatisch Kommentare generieren, die es Geheimdienstanalysten ermöglichen, die Beweise und Argumente in ihren Analyseberichten wesentlich zu verbessern“ – IARPA REASON Programm

Obwohl die Beschreibung des REASON-Programms keinen Bezug auf den Chatbot ChatGPT von OpenAI nimmt, gibt es einige Ähnlichkeiten mit dem, was die IARPA zu erreichen versucht.

Man kann ChatGPT zum Beispiel bitten, ein beliebiges Thema zusammenzufassen oder Schlussfolgerungen zu ziehen, und er kann seine Datenbank durchforsten, um eine überzeugend klingende Erklärung zu liefern.

Allerdings können diese Erklärungen auch völlig falsch sein.

Wie OpenAI es beschreibt, „schreibt ChatGPT manchmal plausibel klingende, aber falsche oder unsinnige Antworten“.

Dennoch besteht eines der Ziele des REASON-Programms der IARPA darin, Analysten „auf wichtige Beweise hinzuweisen, die über das hinausgehen, was sie bereits in Betracht gezogen haben“, und ein Chatbot, der ChatGPT ähnelt, wäre in der Lage, dieses spezielle Ziel zu erreichen.

REASON „wird auf die gleiche Weise funktionieren wie eine automatische Grammatikprüfung, jedoch mit dem Schwerpunkt auf Beweisen und Argumenten“ – IARPA REASON Programm

In den Händen der Nachrichtendienste und mit einer Menge zusätzlicher Schulungen und Optimierungen könnte diese Art von KI Analysten in Richtungen weisen, die sie vielleicht nicht in Betracht gezogen haben, und von dort aus wären sie in der Lage, die Gültigkeit der „Argumentation“ der KI manuell zu bewerten.

Letztlich sucht die IARPA nach einem Werkzeug, das die Ermittlungen unterstützt, nicht aber den Analysten ersetzt oder selbstständig automatisch erstellte Berichte verfasst.

Wie IARPA es ausdrückt: „REASON ist nicht dazu gedacht, Analysten zu ersetzen, vollständige Berichte zu schreiben oder deren Arbeitsbelastung zu erhöhen. Die Technologie wird im Rahmen des derzeitigen Arbeitsablaufs des Analysten arbeiten. 

„Sie wird auf die gleiche Weise funktionieren wie eine automatische Grammatikprüfung, jedoch mit dem Schwerpunkt auf Beweisen und Argumenten.“

Das REASON-Programm wird von Dr. Steven Rieber geleitet, der 2014 als Programmmanager zur IARPA kam.

Dr. Rieber konzentriert sich auf Bereiche der wissenschaftlichen Forschung, die Vorhersagen und rationales Urteilsvermögen und Entscheidungsfindung umfassen.

Er hat mehrere IARPA-Programme geleitet, darunter:

  • ACE (AGGREGATIVE CONTINGENT ESTIMATION)
  • CREATE (CROWDSOURCING VON BEWEISEN, ARGUMENTATION, DENKEN UND BEWERTUNG)
  • FOCUS (VORHERSAGE VON KONTRAFAKTISCHEN EREIGNISSEN IN UNKONTROLLIERTEN UMGEBUNGEN)
  • MOSAIC (MULTIMODALE OBJEKTIVE ERFASSUNG ZUR BEWERTUNG VON PERSONEN MIT KONTEXT)
  • HFC (HYBRIDER PROGNOSEWETTBEWERB)

Bevor er zu IARPA kam, arbeitete Dr. Rieber im Office of the Director of National Intelligence (ODNI) Office of Analytic Integrity and Standards, wo er als analytischer Methodiker neue Methoden und Schulungen für die analytischen Mitarbeiter des IC einführte. 

Am 11. Januar 2023 findet ein Proposers‘ Day statt, um potenziellen Antragstellern das REASON-Programm vorzustellen und Informationen über die technischen Anforderungen und Programmziele zu geben.

Um daran teilzunehmen, müssen sich die Teilnehmer bis zum 6. Januar 2023 anmelden.