Unabhängige Analysen und Informationen zu Geopolitik, Wirtschaft, Gesundheit, Technologie

Shutterstock

Aufgedeckt: Instagram ermöglicht ein »riesiges Pädophilen-Netzwerk« auf seiner Plattform

Instagram verbindet Pädophile und führt sie über Empfehlungssysteme, die sich durch die Verknüpfung von Personen mit gleichen Nischeninteressen auszeichnen, zu Anbietern von Inhalten“, heißt es in einem Bericht des Wall Street Journal.

Laut einem bahnbrechenden Bericht des Wall Street Journal (WSJ), der am 7. Juni veröffentlicht wurde, fördert Instagram große Netzwerke von Pädophilen und Kinderhändlern.

Forscher der Stanford University und der University of Massachusetts Amherst untersuchten zusammen mit dem WSJ pädophile Aktivitäten auf Instagram und fanden heraus, dass „Instagram nicht nur Gastgeber dieser Aktivitäten ist. Seine Algorithmen fördern sie.“

„Instagram verbindet Pädophile und führt sie zu Anbietern von Inhalten über Empfehlungssysteme, die sich dadurch auszeichnen, dass sie diejenigen, die Nischeninteressen teilen, miteinander verbinden,“ so der Bericht des WSJ und der akademischen Forscher.

Instagram ermöglicht es den Nutzern, nach Hashtags zu suchen, die von Pädophilen verwendet werden, um sich mit Konten zu verbinden, die für kindersexuelles Material werben und dieses verkaufen, einschließlich Bilder, Videos und persönliche „Treffen“.

Alex Stamos, der bis 2018 Chief Security Officer von Meta (der Muttergesellschaft von Instagram) war und jetzt Direktor des Stanford Internet Observatory (SIO) ist, bemerkte: „Dass ein Team von drei Akademikern mit begrenztem Zugang ein so großes Netzwerk finden konnte, sollte bei Meta Alarm auslösen.“

„Ich hoffe, dass das Unternehmen wieder in menschliche Ermittler investiert“, fügte Stamos hinzu.

Nach Angaben des WSJ richteten die Forscher Testkonten ein, die nach dem Aufrufen eines einzigen Kontos aus einem pädophilen Netzwerk sofort Empfehlungen von Käufern und Verkäufern von „Kindersex-Inhalten“ erhielten.

„Nur eine Handvoll dieser Empfehlungen reichte aus, um ein Testkonto mit Inhalten zu überfluten, die Kinder sexualisieren“, heißt es in dem Bericht.

Die SIO-Forscher fanden 405 Verkäufer von sogenanntem „selbst erstelltem Kindersex-Material“, d. h. Konten, die angeblich von den Kindern selbst betrieben werden, von denen einige behaupten, sie seien erst 12 Jahre alt.

Das WSJ schrieb, dass viele dieser Berichte „Nutzer mit Schnittnarben auf der Innenseite ihrer Arme oder Oberschenkel zeigen, und eine Reihe von ihnen geben an, in der Vergangenheit sexuell missbraucht worden zu sein“.

„Laut den Daten, die über Maltego, eine Software zur Netzwerkabbildung, gesammelt wurden, hatten 112 dieser Verkäuferkonten zusammen 22.000 eindeutige Abonnenten“, berichtete das WSJ.

Neben den Konten, die aktiv Kindersex-Inhalte kaufen und verkaufen, teilen viele Nutzer in der „pädophilen Community“ pro-pädophile Memes oder sprechen über Möglichkeiten, Zugang zu Minderjährigen zu bekommen.

„Aktuelle und ehemalige Meta-Mitarbeiter, die an Initiativen zur Kindersicherheit auf Instagram gearbeitet haben, schätzen, dass die Zahl der Konten, die in erster Linie existieren, um solchen Inhalten zu folgen, in die Hunderttausende, wenn nicht sogar in die Millionen geht“, schreibt das WSJ.

Meta hat wiederholt betont, dass sie daran arbeiten, diese Nutzer zu entfernen. Ein Sprecher erklärte, dass allein im Januar fast 500.000 solcher Konten wegen Verstoßes gegen die Kindersicherheitsrichtlinien entfernt wurden.

Die Stanford-Forscher fanden heraus, dass Meta mehr Mühe hatte, kindersexuelle Inhalte zu entfernen als andere Social-Media-Plattformen, „sowohl wegen der schwachen Durchsetzung als auch wegen der Designmerkmale, die die Entdeckung von legalen und illegalen Inhalten fördern“.

Die Algorithmen von Instagram, die bestimmen, welche Inhalte den Nutzern angezeigt werden, funktionieren so, dass „schon ein flüchtiger Kontakt mit einem Konto in der pädophilen Community von Instagram dazu führen kann, dass die Plattform den Nutzern empfiehlt, ihr beizutreten“.

Diese Algorithmen haben es den Nutzern auch ermöglicht, nach pädophilen Begriffen zu suchen, obwohl sie wissen, dass diese Suchbegriffe mit illegalem Material in Verbindung gebracht werden können.

In solchen Fällen warnte ein Pop-up-Fenster die Nutzer, dass „diese Ergebnisse Bilder von sexuellem Kindesmissbrauch enthalten könnten“, und wies darauf hin, dass die Produktion und der Konsum von solchem Material Kindern „extremen Schaden“ zufügt“, berichtete das WSJ.

Das Pop-up-Fenster ermöglichte es dem Benutzer, die Suchergebnisse trotzdem anzusehen, indem es die beiden Optionen „Ressourcen erhalten“ oder „Ergebnisse trotzdem ansehen“ anbot.

In dem WSJ-Bericht wird darauf hingewiesen, dass Meta schon früher solche Account-Netzwerke unterdrückt hat, wie z. B. diejenigen, die mit dem angeblichen „Aufstand“ nach den Ereignissen vom 6. Januar 2021 in Verbindung stehen. Es sollte daher für den Social-Media-Riesen nicht allzu schwierig sein, pädophile Inhalte zu unterdrücken, wenn Meta genauso viel Wert auf den Kinderschutz legen würde wie auf die Zensur kontroverser politischer Meinungen.

Ein Meta-Sprecher sagte, dass derzeit Systeme zur Verhinderung von Empfehlungen für Kindersex-Inhalte entwickelt werden.

Der Leiter des UMass Resue Lab, einer Forschungsorganisation, die die Viktimisierung von Kindern im Internet verhindern will, Brian Levine, nannte die Rolle von Instagram bei der Förderung von pädophilen Accounts und Inhalten „inakzeptabel“.

„Ziehen Sie die Notbremse“, forderte Levin Meta auf. „Sind die wirtschaftlichen Vorteile den Schaden für diese Kinder wert?“