Unabhängige Analysen und Informationen zu Geopolitik, Wirtschaft, Gesundheit, Technologie

Alle führenden großen Sprachmodelle sind politisch links orientiert

Große Sprachmodelle (Large Language Models, LLMs) halten zunehmend Einzug in unseren Alltag – zum Beispiel in Form von Chatbots, digitalen Assistenten und Internet-Suchhilfen. Diese mit künstlicher Intelligenz (KI) ausgestatteten Systeme, die große Mengen von Textdaten verarbeiten, um Assoziationen zu lernen, können auf Anfrage alle Arten von Schriftmaterial erstellen und sich geschickt mit ihren Nutzern unterhalten. Die wachsende Macht und Allgegenwart von LLM bedeutet, dass sie einen immer größeren Einfluss auf Gesellschaft und Kultur ausüben.

Daher ist es wichtig, dass diese KI-Systeme in komplexen politischen Fragen neutral bleiben. Laut einer neuen Analyse, die kürzlich in PLoS ONE veröffentlicht wurde, scheint dies leider nicht der Fall zu sein.

Der KI-Forscher David Rozado von der Otago Polytechnic and Heterodox Academy unterzog 24 der führenden LLMs 11 verschiedenen Tests zur politischen Orientierung, darunter OpenAIs GPT 3.5, GPT-4, Googles Gemini, Anthropics Claude und Twitters Grok. Er fand heraus, dass sie alle politisch leicht nach links tendierten.

„Die Homogenität der Testergebnisse bei LLMs, die von einer Vielzahl von Organisationen entwickelt wurden, ist bemerkenswert“, kommentiert Rozado.

Dies wirft eine wichtige Frage auf: Warum sind LLMs so konsistent zugunsten linker politischer Positionen voreingenommen? Können die Schöpfer der Modelle ihre KI in diese Richtung verfeinern, oder sind die umfangreichen Datensätze, mit denen sie trainiert werden, von Natur aus voreingenommen? Diese Frage konnte Rozado nicht schlüssig beantworten.

„Die Ergebnisse dieser Studie sollten nicht als Beweis dafür interpretiert werden, dass Organisationen, die LLMs produzieren, absichtlich die Feinabstimmungs- oder Verstärkungslernphasen des konversationellen LLM-Trainings nutzen, um politische Präferenzen in LLMs einzuführen. Wenn politische Voreingenommenheiten in LLMs nach dem Training eingeführt werden, könnten die konsistenten politischen Neigungen, die in unserer Analyse für konversationelle LLMs beobachtet wurden, ein unbeabsichtigtes Nebenprodukt der Anweisungen der Annotatoren oder der vorherrschenden kulturellen Normen und Verhaltensweisen sein“.

Es sei dringend notwendig, die Neutralität von LLMs sicherzustellen, schreibt Rozado.

„LLM können die öffentliche Meinung prägen, das Wahlverhalten beeinflussen und den allgemeinen Diskurs in der Gesellschaft beeinflussen. Daher ist es von entscheidender Bedeutung, die potenziellen politischen Voreingenommenheiten, die in LLMs eingebettet sind, kritisch zu untersuchen und anzugehen, um eine ausgewogene, faire und genaue Darstellung von Informationen in ihren Antworten auf Nutzeranfragen zu gewährleisten.“