Von Tyler Durden
Verfasst von Paul Lancefield über Off-Guardian.org,
Facebook verdient an einem durchschnittlichen Kunden in Großbritannien nur etwa 34 Pfund pro Jahr – etwas weniger als 3 Pfund pro Monat (und das ist vor den Kosten) , so dass es eindeutig keinen Spielraum oder keine Motivation für einen menschlichen Kundenservice oder Aufmerksamkeit gibt. Der Nutzer ist nicht der Kunde, er ist vielmehr das Produkt, dessen Daten an Werbetreibende verkauft werden.
Die Nutzer haben also keine direkte Kundenbeziehung zur Plattform. Für das Netzwerk besteht kein direkter Anreiz, sich mehr um den Nutzer als um den Werbetreibenden zu „kümmern“. Und ganz gleich, wo man sich auf der Skala zwischen „Meinungsfreiheit absolut“ und „Privatunternehmen haben das Recht, jeden Nutzer zu zensieren“ befindet, bei so geringen Gewinnspannen ist es unvermeidlich, dass maschinelle Verarbeitung eingesetzt werden muss, um Beiträge zu moderieren und die Kundenschnittstelle zu bearbeiten.
Es ist jedoch eine Tatsache, dass die Kundenbearbeitungs- und -verwaltungsfunktionen, die soziale Netzwerke derzeit entwickeln, auf vielfältige Weise über die bloße Moderation hinaus genutzt werden. Und es stimmt auch, dass diese automatisierte Verarbeitung in großem Umfang erfolgt und jetzt auf jeden Beitrag jedes Mitglieds angewendet wird. 68 % der US-Wähler sind auf Facebook. Im Vereinigten Königreich sind es 66 % und in Frankreich 73,2 %. Die Zahlen sind in allen demokratischen Ländern des Westens ähnlich. Daher ist es von entscheidender Bedeutung, dass die angewandten Regeln politisch neutral sind.
Die Macht, die in der Fähigkeit der maschinellen Verarbeitung der Beiträge jedes Nutzers liegt, ist weitaus tiefer und tiefgreifender, als vielen vielleicht bewusst ist. Und obwohl sie nicht direkt diktieren kann, was die Nutzer in ihren Nachrichten schreiben, hat sie doch die Fähigkeit, grundlegend zu beeinflussen, welche Nachrichten ankommen.
Social-Media-Dienste sind de facto zu Stadtplätzen geworden, und die meisten sind sich einig, dass ihre Unternehmenseigentümer es vermeiden sollten, die Hand in die Waagschale zu legen und die Politik zu beeinflussen.
Darüber hinaus weiß jeder, der Facebook nutzt, dass das System die Reichweite einer Person einschränkt, insbesondere bei politisch sensiblen Themen, und zwar manchmal bis zu einem extremen Grad. Oder der betreffende Nutzer wird einfach für eine bestimmte Zeit gesperrt oder ganz aus dem Netzwerk verbannt.
Es stellt sich also die Frage: Woher wissen wir, dass die Unternehmen der sozialen Medien nicht in unethischer Weise in die Politik eingreifen, wenn sie so viel Macht über die Zensur haben? Kann man ihnen die Verantwortung anvertrauen?
Ich werde auf diese Frage zurückkommen, aber es ist klar, dass das Vertrauen in diese Unternehmen völlig unangebracht ist.
Die Pandemie hat viele Menschen wachgerüttelt und ihnen vor Augen geführt, wie viel Kontrolle die Verantwortlichen unserer Social-Media-Netzwerke ausüben. Sie schreiben die Regeln, um das Engagement für die von ihnen bevorzugten Beiträge zu erhöhen und die Anzahl der Follower bestimmter Personen zu steigern. Umgekehrt wird das Engagement von Nutzern, die gegen den Strom schwimmen (oder gegen das Establishment-Narrativ), subtil reduziert oder sogar abgeschafft, oder sie können ganz aus dem Dienst verbannt werden. Und es gibt Anzeichen dafür, dass bei Facebook, Twitter und YouTube entgegen den Grundsätzen der Demokratie das Zünglein an der Waage fest im Griff ist.
Als Elon Musk Twitter kaufte, lud er die unabhängigen Journalisten Matt Taibbi, Bari Weiss und Michael Schellenburger in die Twitter-Büros ein, um die interne Kommunikation des Unternehmens zu recherchieren und herauszufinden, inwieweit die vorherigen Eigentümer die Tweets der Nutzer zensiert hatten.
Die Twitter Files sind das Ergebnis, und sie zeigen deutlich, dass es Eingriffe in großem Umfang gegeben hat und dass diese in vielen Fällen auch politisch motiviert waren. Das Team von Twitter Files hat festgestellt, dass Regierungsbehörden fest im Unternehmen verankert waren und US-Bürger und Bürger anderer Nationen überwacht und zensiert haben, und dass Regierungsbehörden regelmäßig (nachdrücklich) Zensurmaßnahmen gefordert haben. Darüber hinaus haben sie aber auch aufgedeckt, dass ähnliche Eingriffe in anderen Social Media Netzwerken wie Facebook stattgefunden haben.
Doch seit den Twitter-Akten, die eine Einmischung belegen, ist eine neue und potenziell noch größere Bedrohung aufgetaucht.
KI.
Es gab eine Zeit, da schienen Algorithmen das einzige Gesprächsthema zu sein, über das digitale Vermarkter diskutieren konnten. Und da es auf der Ebene der einzelnen Beiträge keinen Spielraum für menschliche Eingriffe gibt, wurden Algorithmen verwendet.
Anfangs waren sie recht einfach, wie die Gleichungen, die wir in der Schule im Matheunterricht geübt haben, und daher relativ leicht zu berechnen. Der Aufstieg von Google beruhte auf einer einfachen, aber genialen Idee: dem Zählen externer Links zu einer Webseite als Indikator für Relevanz.
Inzwischen sind die Algorithmen jedoch komplexeren Modellen des maschinellen Lernens gewichen, die im Kern immer noch auf Algorithmen beruhen, aber jetzt werden sie automatisch generiert und sind so umfangreich, dass jeder menschliche Versuch, sie zu entwirren, ein Fehlschlag ist. Daher beschränken wir unsere Überlegungen darauf, was sie erreichen können, welche wichtigen Dinge sie erkennen können, und nicht darauf, wie der Code genau funktioniert.
Und nun sind wir in die dritte Generation der Technologie eingetreten. Das maschinelle Lernen hat sich in die Entwicklung von Large Language Models (LLMs) oder, allgemeiner ausgedrückt, KI verwandelt. Und mit dieser jüngsten Entwicklung haben die Konzerne immense und erschreckende neue Möglichkeiten für Macht und Kontrolle gefunden.
Die Erstellung von LLMs erfordert Training. Durch die Ausbildung werden sie mit bestimmten Fähigkeiten und Vorurteilen ausgestattet. Der Zweck der Ausbildung ist es, Lücken zu füllen, so dass es keine offensichtlichen Löcher in der Fähigkeit der LLMs gibt, mit den Bausteinen der menschlichen Begriffsbildung und Sprache umzugehen. Und das ist das Unterscheidungsmerkmal von LLMs; dass wir uns mit ihnen unterhalten können und die Konversation fließt, und die Grammatik und der Inhalt fühlen sich normal fließend und vollständig an. Im Idealfall verhält sich ein LLM wie ein kultivierter englischer Butler – höflich, informativ und korrekt, ohne unhöflich zu sein. Aber auch die Ausbildung verleiht dem LLM Spezialisierungen.
Im Zusammenhang mit den sozialen Medien – und hier werden die erschreckenden Ausmaße der Macht deutlich – werden LLMs eingesetzt, um als Flurwächter zu fungieren und die „Inhaltsmoderation“ durchzusetzen.
Metas Llama Guard ist ein Paradebeispiel, das nicht nur für die Moderation, sondern auch für die Meldung von Nutzern ausgebildet ist. Und diese Meldefunktion beinhaltet nicht nur die Möglichkeit, Meldungen zu machen, sondern auch durch diese Meldedaten Möglichkeiten zur Beeinflussung und zur Unterbreitung von Vorschlägen in Bezug auf den Nutzer und für den Nutzer zu finden. Und wenn ich von Vorschlägen spreche, kann ein LLM nicht nur die offensichtliche Art von Vorschlägen machen, die der Nutzer vielleicht begrüßt und gerne annimmt, sondern auch eine hinterhältigere, unbewusste Art, die manipulativ sein kann und auf Kontrolle abzielt.
Es gibt noch keine gesammelten Beweise (soweit mir bekannt ist), dass LLMs auf diese Weise benutzt werden; noch nicht. Aber die Fähigkeit ist mit Sicherheit vorhanden, und wenn das Verhalten in der Vergangenheit auf künftige Entwicklungen hindeutet, wird sie wahrscheinlich auch genutzt werden.
Sie brauchen sich nur die 2006 ausgestrahlte Folge der Fernsehshow von Derren Brown „Derren Brown: The Heist“ ansehen, in der er eine Gruppe von Fremden davon überzeugt, dass sie einen Bankraub begehen müssen, um zu erkennen, wie tiefgreifend und mächtig der Einsatz von Suggestion sein kann. Für diejenigen, die Derren Brown nicht kennen: Er ist ein Bühnenhypnotiseur und Mentalist, der die Macht der Suggestion gegenüber der Hypnose hervorhebt (die meisten seiner Shows enthalten überhaupt keine Hypnose). Allein durch die Kraft der Suggestion bringt er Menschen dazu, die außergewöhnlichsten Dinge zu tun.
„Derren-Brown-ähnliche“ Suggestionen funktionieren, weil das menschliche Gehirn in Wirklichkeit viel weniger beweglich und viel linearer ist, als wir glauben. Das Bewusstsein ist eine kostbare Ressource, und viele Handlungen, die wir häufig ausführen, werden zur Gewohnheit, so dass wir sie tun können, ohne nachzudenken, und so können wir das Bewusstsein für die Bereiche bewahren, in denen es am meisten gebraucht wird.
Durch Gewohnheit schalten wir in einem Auto mit Knüppelschaltung den Gang, ohne darüber nachzudenken. Und wir alle kennen das Spiel, bei dem man eine bestimmte Zeit Zeit hat, um sich eine Liste von Dingen auszudenken, z. B. Länder, die mit dem Buchstaben A enden. Wenn man vor einer Menschenmenge auf die Probe gestellt wird, kann es manchmal schwierig sein, überhaupt etwas zu finden. Das Gehirn ist oft nicht so gut darin, kreativ zu denken oder sich schnell und bewusst an etwas zu erinnern.
Aber wenn Ihnen jemand, mit dem Sie ein paar Minuten vor dem Spiel gesprochen haben, von seinem Urlaub in Kenia erzählt hat, dann ist Kenia sicher die erste Antwort, die Ihnen in den Sinn kommt. Mehr noch, die Assoziation erfolgt automatisch, ob wir es wollen oder nicht!
Das ist einfach die Funktionsweise des Gehirns. Wenn Informationen zum richtigen Zeitpunkt und auf die richtige Art und Weise vermittelt werden, ist es fast eine todsichere Sache, dass ein bestimmter Vorschlag befolgt wird.
Derren Brown weiß das und ist ein Meister im Ausnutzen dieser Tatsache.
Suchmaschinen und Social-Media-Plattformen verfügen über eine enorme Macht, um das Verhalten durch subtile Vorschläge zu beeinflussen. Und tatsächlich gibt es Beweise dafür, dass Facebook und Google dies getan haben.
Professor und Forscher Dr. Robert Epstein hat Google bei der Manipulation des Feldes für Suchvorschläge, das unter dem Textfeld erscheint, in das die Nutzer eine Suchanfrage eingeben, sozusagen „erwischt“. Die ganze Episode wurde noch unangenehmer, als klar wurde, dass Google betrügt und sich bewusst ist, dass seine Experimente unethisch sind. Ich werde nicht alle Einzelheiten wiedergeben, aber sehen Sie sich die Links dazu an – es ist eine interessante Geschichte für sich.
Die Nutzer befinden sich in einem besonders vertrauensvollen und empfänglichen mentalen Zustand, wenn sie die Funktion der vorgeschlagenen Links von Google nutzen, und bemerken nicht, wenn die Ergebnisse Handlungs- und zwingende Vorschläge enthalten, die keineswegs die beste Antwort auf ihre Suchanfrage sind, sondern dazu dienen, die nachfolgenden Handlungen des Nutzers zu manipulieren.
In Bezug auf Beiträge in sozialen Medien ist die Verwendung von Vorschlägen oft viel subtiler, so dass es schwieriger ist, sie zu erkennen und sich dagegen zu wehren. Die LLM-Analyse der Datenbank der Nutzerbeiträge kann verwandte Beiträge aufdecken, die Handlungen vorschlagen. Hier kann sich das Netzwerk die Tatsache zunutze machen, dass ihm viele Millionen von Nutzernachrichten zur Verfügung stehen, darunter auch Nachrichten, die bevorzugte Ergebnisse vorschlagen. Solche Nachrichten können ausgewählt und in den Nutzer-Feeds bevorzugt angezeigt werden.
Die Moderation von Inhalten ist natürlich notwendig, um mit inakzeptabler Sprache und asozialem Verhalten umzugehen. Es gibt jedoch eine große Grauzone, in der unliebsame Meinungen als „Hassrede“ bezeichnet werden können, und da es sich um eine Grauzone handelt, gibt es für das soziale Netzwerk viel Spielraum, um in den Bereich der persönlichen Politik und der freien Meinungsäußerung einzudringen.
Der Begriff „Hassrede“ war ein sehr effektives Mittel, um den Einsatz des Verbots-Hammers zu rechtfertigen, aber die Hauptsorge ist jetzt, dass mit dem Einsatz von LLMs ein wichtiger historischer Meilenstein mit kaum einem Flüstern überschritten wurde, der eine ganz neue Ebene solcher Beschränkungen und Bedrohungen der Kommunikationsfreiheit der Nutzer impliziert.
Und dieser Meilenstein besteht darin, dass LLM nun dazu benutzt werden, menschliches Verhalten zu steuern und nicht mehr umgekehrt. Die Überschreitung dieses Meilensteins wurde kaum bemerkt, da wir bereits zuvor einfachere Algorithmen hatten, die diese Aufgabe erfüllten, und dies ohnehin im Dunkeln geschah.
Die Nutzer bemerken es erst, wenn sie in offensichtlicher Weise davon betroffen sind. Dennoch gibt es reichlich Grund zu der Annahme, dass wir in der Zukunft zurückblicken und erkennen werden, dass dieser Meilenstein so etwas wie ein kritischer Punkt war, nach dem eine Art „Sky-Net“-ähnliche Zukunft unausweichlich wurde.
Erst letzte Woche hat der britische Premierminister Keir Starmer eine Initiative der Polizei angekündigt, soziale Medien zu nutzen, um diejenigen zu identifizieren, die an der Unterdrückung öffentlicher Unruhen beteiligt sind, was zeigt, wie die automatisierte LLM-Berichterstattung über die sozialen Medien hinaus und im Rahmen der Strafverfolgung genutzt werden kann.
Es gibt noch keine Details darüber, wie diese Überwachung durchgeführt werden soll, aber aufgrund der Erfahrung mit Tech Project Pitching können Sie sicher sein, dass die Regierung eine Reihe von Technologiefirmen hat, die Lösungen vorschlagen. Und Sie können sicher sein, dass LLMs als integraler Bestandteil fast aller dieser Projekte angepriesen werden!
Wir haben also festgestellt, dass Social Media geschlossen und proprietär ist und die Etablierung neuer Medienmachtstrukturen ermöglicht hat. Wir haben gesehen, dass die Eigentümer sozialer Medien die Macht haben, die Viralität eines Beitrags zu unterdrücken oder zu steigern, und dass LLM (KI) nun eine Überwachung und Berichterstattung eingeführt haben, die sich auf die reale Welt ausweiten dürfte. Anhand der Twitter-Akten haben wir gesehen, dass Social-Media-Unternehmen während der Pandemie das Gesetz gebrochen und ihre Bereitschaft gezeigt haben, mit Regierungsbehörden zusammenzuarbeiten, um missliebige Nachrichten zu zensieren und zu unterdrücken.