Unabhängige News und Infos

Google führt verhaltensbezogene „Interventionen“ ein. Die nächste dystopische Idee, einschließlich Vorschlägen wie dem „Pre-Bunking“.

Google führt verhaltensbezogene „Interventionen“ ein. Die nächste dystopische Idee, einschließlich Vorschlägen wie dem „Pre-Bunking“.

Google hat sein Projekt mit dem Namen „Info Interventions“ vorgestellt, das auf einer Verhaltenswissenschaft basiert, die, wenn diese „Interventionen“ gezielt eingesetzt werden, die Nutzer/innen so weit „erziehen“ könnte, dass sie widerstandsfähiger gegen Online-Schäden werden.

Ein weiteres Versprechen ist, dass die Nutzer/innen durch das „Vorbunkern von Fehlinformationen“ „immunisiert“ werden können.

Wie soll das funktionieren? Google hat eine Website eingerichtet, auf der erklärt wird, dass das Ziel darin besteht, die Aufmerksamkeit der Nutzer/innen auf die Informationen zu lenken, die Google als korrekt einstuft.

Und um das zu erreichen, scheint die „Hypothese“ derzeit zu sein, dass „die Erinnerung an die Richtigkeit von Informationen, wenn sie im Begriff sind, sich mit falschen Informationen zu befassen, das bereits vorhandene Ziel der Richtigkeit von Informationen verstärken kann.“

Diese Methode, mit der Nutzerinnen und Nutzer effektiv auf ein bestimmtes Verhalten trainiert werden sollen, basiert auf verhaltenswissenschaftlichen Erkenntnissen und ist laut Google durch digitale Experimente bestätigt worden.

Dieses „Geschenk an die Welt“ stammt von Googles Abteilung Jigsaw, die gegründet wurde, um „Bedrohungen für offene Gesellschaften zu erforschen und Technologien zu entwickeln, die zu skalierbaren Lösungen inspirieren“.

In einem Medium-Beitrag von Jigsaw aus dem März 2021 heißt es, dass Forschungsergebnisse darauf hindeuten, dass es einen wirksamen Weg geben könnte, um „Fehlinformationen“ zu reduzieren, indem man Internetnutzer/innen daran erinnert, über die Korrektheit nachzudenken – mit anderen Worten, indem man sie so lange antreibt, bis sie sich dorthin bewegen, wo man sie haben will.

Es wird sogar versucht, den Nutzerinnen und Nutzern ein schlechtes Gewissen einzureden, damit sie denken, dass sie zur Verbreitung von „Fehlinformationen beitragen, weil sie zu Ablenkungen neigen“ – wohingegen die von Google definierte Korrektheit deines Textes dies verringern könnte.

Derzeit erklärt Google auf seiner Seite „Interventionen“, dass Nutzer/innen beim Scrollen durch einen Feed auf „potenzielle Fehlinformationen“ stoßen können.

Das würde dann eine „Genauigkeitsabfrage“ auslösen, die die bereits als Fehlinformationen gekennzeichneten Informationen teilweise abdeckt.

Die Eingabeaufforderung enthält eine kurze Erklärung, warum der Nutzer sie sieht, aber im Allgemeinen soll sich die Aufmerksamkeit des Nutzers nun von dem Inhalt, den er sehen wollte, auf die Eingabeaufforderung verlagern, was bedeutet, dass er stattdessen auf die „Genauigkeit“ hingewiesen wird.

Außerdem werden sie mit Tipps zur Informationskompetenz konfrontiert.

Auf diese Weise wird die Aufmerksamkeit des Nutzers auf die „Erinnerung“ gelenkt, während der Inhalt in den Hintergrund rückt – und was noch wichtiger ist: Google hofft, dass der Nutzer beim nächsten Mal, wenn er auf ähnliche Inhalte stößt, „zweimal darüber nachdenkt“ (vermutlich, ob er sich darauf einlässt).

Nun zu den Ergebnissen der Experimente, die Google (Jigsaw) laut eigenen Angaben zusammen mit dem MIT und der Universität von Regina durchgeführt hat:

„Diejenigen, die Genauigkeitstipps erhalten haben, waren 50 % kritischer in ihren Sharing-Gewohnheiten als die Nutzer, die keine Tipps erhalten haben“ – und: „Pre-Roll-Videos auf YouTube führten zu einer Steigerung des Vertrauens um bis zu 11 %, drei Wochen nach der Präsentation.“

Mehr detaillierte Information in Englisch sind hier zu finden