Unabhängige Analysen und Informationen zu Geopolitik, Wirtschaft, Gesundheit, Technologie

woman with text projected on her face
pexels.com

Bilder von sexuellem Kindesmissbrauch in einer Datenbank gefunden, die zum Training von KI-Bildgeneratoren verwendet wird

  • Eine Studie hat ergeben, dass ein Datensatz, der zum Trainieren von KI-Bildgeneratoren verwendet wird, Bilder von sexuellem Kindesmissbrauch enthält.
  • Die Ergebnisse verstärken die Befürchtung, dass KI-Tools eine Welle von KI-generierten Inhalten über sexuellen Kindesmissbrauch auslösen könnten.
  • Die LAION-Datenbank wurde inzwischen vom Netz genommen, während ihre Ersteller die Bilder entfernen.

Einem neuen Bericht zufolge enthält ein Datensatz, mit dem KI-Bildgeneratoren trainiert wurden, Tausende Bilder, die mutmaßlich den sexuellen Missbrauch von Kindern zeigen.

Eine Untersuchung des Stanford University Cyber Policy Center ergab, dass die LAION-5B-Datenbank, die zum Training mehrerer KI-Bildgeneratoren verwendet wurde, darunter Stable Diffusion 1.5, eine frühere Version eines KI-Modells von Stability AI, mehr als 3.200 Bilder von mutmaßlichem Kindesmissbrauch enthielt.

Bei etwas mehr als 1.000 dieser Bilder wurde bestätigt, dass es sich um Material über sexuellen Kindesmissbrauch handelte. In dem Bericht wird davor gewarnt, dass diese Bilder in dem Datensatz es generativen KI-Tools ermöglichen könnten, auf der Grundlage dieser Daten neue Inhalte über Kindesmissbrauch zu erstellen.

LAION-5B ist ein umfangreiches öffentliches Archiv mit etwa fünf Milliarden Bildern aus dem offenen Internet.

Es wird von einer Reihe von KI-Unternehmen genutzt, die riesige Datenmengen benötigen, um generative KI-Modelle zu trainieren, die in Sekundenschnelle neue Bilder erzeugen können.

Experten warnen seit Langem davor, dass KI-Bildgeneratoren einen Tsunami ultrarealistischer KI-generierter Bilder von sexuellem Kindesmissbrauch auslösen könnten. Die Internet Watch Foundation (IWF) warnt, dass solche Bilder im Dark Web bereits weitverbreitet sind.

Unterdessen haben britische Organisationen für Online-Sicherheit zu “dringendem Handeln” aufgerufen, weil Kinder in der Schule KI-Bildgeneratoren nutzen, um anstößige Inhalte von ihren Mitschülern zu erstellen.

KI-Anwendungen, die eine ähnliche Technologie verwenden, um Frauen auf Fotos zu “entkleiden”, indem gefälschte Nacktbilder von ihnen erstellt werden, erfreuen sich laut Daten von Grafika ebenfalls wachsender Beliebtheit.

Stable Diffusion ist das bekannteste Modell, das in der LAION-Datenbank verwendet wird. Das von der britischen Firma Stability AI entwickelte Tool hat sich seit seiner Einführung im Jahr 2022 zu einem der am weitesten verbreiteten und beliebtesten Bildgeneratoren entwickelt.

Ein Sprecher der deutschen Non-Profit-Organisation LAION, die hinter dem Datensatz steht, erklärte gegenüber Bloomberg, dass die Gruppe ihre Datensätze vorübergehend aus dem Internet entferne, um sie von illegalen Inhalten zu säubern.

Ein Sprecher von Stability AI erklärte gegenüber Business Insider, dass das Unternehmen Filter eingeführt habe, um zu verhindern, dass Nutzer illegale Inhalte mit Stable Diffusion erstellen, und die Modelle von Stability AI nur auf einer gefilterten Teilmenge von LAION-5B trainiert worden seien.

Im vergangenen Jahr veröffentlichte das Unternehmen Stable Diffusion 2.0, das ebenfalls auf einer Untermenge der LAION-5B-Daten trainiert wurde, aber strengere Kontrollen für sexuell explizite Inhalte enthält. Die Version 1.5, die ebenfalls explizite Inhalte generiert, ist jedoch weiterhin im Internet verfügbar.

Der Sprecher sagte, dass Stable Diffusion 1.5 von dem KI-Video-Startup RunwayML und nicht von Stability AI veröffentlicht wurde. Runway erklärte jedoch gegenüber Bloomberg, dass es sich um eine Zusammenarbeit zwischen den beiden Unternehmen handele.

LAION-400M, eine frühere Version der 5B-Datenbank, die den Stanford-Forschern zufolge “pornografische Bilder, rassistische Beleidigungen und schädliche soziale Stereotypen” enthielt, wurde von Google verwendet, um eine frühe Version seines Text-Bild-Generators Imagen zu trainieren. Google hat die Verwendung von LAION-Datensätzen inzwischen eingestellt.

BI hat LAION um weitere Kommentare gebeten, aber keine unmittelbare Antwort erhalten.