Unabhängige Analysen und Informationen zu Geopolitik, Wirtschaft, Gesundheit, Technologie

Googles neues Patent: Maschinelles Lernen zur Erkennung von „Falschinformationen“ in sozialen Medien

Googles neues Patent: Maschinelles Lernen zur Erkennung von “Falschinformationen” in sozialen Medien

Neue Techniken zur Überwachung sozialer Medien.

Google hat beim US-Patent- und Markenamt einen Antrag für ein Tool eingereicht, das maschinelles Lernen (ML, eine Untergruppe der KI) nutzt, um zu erkennen, was Google als “Fehlinformationen” in sozialen Medien ansieht.

Google verwendet bereits KI-Elemente in seinen Algorithmen, die zur Automatisierung der Zensur auf seinen riesigen Plattformen programmiert sind, und dieses Dokument zeigt einen konkreten Weg auf, den das Unternehmen in Zukunft einschlagen will.

Der allgemeine Zweck des Patents besteht darin, Informationsoperationen (IO) zu identifizieren und dann “vorherzusagen”, ob es sich dabei um “Falschinformationen” handelt.

Nach der Erklärung zu urteilen, die Google der Anmeldung beigefügt hat, sieht es zunächst so aus, als würde das Unternehmen seine eigene Existenz für die Verbreitung von “Fehlinformationen” verantwortlich machen – im Text heißt es, dass Kampagnen für Informationsoperationen billig und weitverbreitet sind, weil ihre Botschaften dank der “Verstärkung durch Social-Media-Plattformen” leicht zu verbreiten sind.

Es scheint jedoch, dass Google das Tool mit Blick auf andere Plattformen entwickelt.

Der Technologiegigant weist ausdrücklich darauf hin, dass andere Plattformen (im Antrag werden X, Facebook und LinkedIn namentlich erwähnt) das System nutzen könnten, um ihre eigenen “unterschiedlichen Vorhersagemodelle” zu trainieren.

Das maschinelle Lernen selbst hängt davon ab, dass die Algorithmen mit großen Datenmengen gefüttert werden, und es gibt zwei Arten von maschinellem Lernen – “überwachtes” und “unbeaufsichtigtes” Lernen, bei dem ein Algorithmus mit großen Datenmengen (wie Bildern oder in diesem Fall Sprache) gefüttert wird und “lernt”, zu erkennen, was er “sieht”.

(Reinforcement Learning ist ein Teil dieses Prozesses – im Wesentlichen wird der Algorithmus darauf trainiert, immer besser zu erkennen, wonach die Menschen, die das System entwickeln, suchen.)

Das ultimative Ziel in diesem Fall wäre höchstwahrscheinlich, dass Google seine “Fehlinformationserkennung”, d.h. die Zensur, effizienter gestaltet, indem es sich auf eine bestimmte Art von Daten konzentriert.

Das Patent besagt, dass es neuronale Netze als Sprachmodelle verwendet (wobei neuronale Netze die “Infrastruktur” von ML darstellen).

Das Google-Tool klassifiziert die Daten als IO oder gutartig und zielt auch darauf ab, sie als von einer Person, einer Organisation oder einem Land stammend zu kennzeichnen.

Anschließend prognostiziert das Modell die Wahrscheinlichkeit, dass es sich bei dem Inhalt um eine “Desinformationskampagne” handelt, indem es ihm eine Punktzahl zuweist.