Unabhängige Analysen und Informationen zu Geopolitik, Wirtschaft, Gesundheit, Technologie

selective focus photography of turned on macbook air
pexels.com

Das Gesetz über digitale Dienstleistungen sollte Ihnen große Sorgen bereiten

Von David Thunder

Artikel 11 der EU-Grundrechtecharta, der einen Teil von Artikel 10 der Europäischen Menschenrechtskonvention aufgreift, schützt das Recht der europäischen Bürgerinnen und Bürger, „ohne behördliche Eingriffe und ohne Rücksicht auf Grenzen Meinungen zu vertreten sowie Informationen und Gedankengut zu empfangen und weiterzugeben“, und bekräftigt, dass „die Freiheit und der Pluralismus der Medien geachtet werden“. Leider steht das Schicksal der freien Meinungsäußerung in Europa auf der Kippe, denn die Europäische Union hat gerade ein Gesetz erlassen, das die Kommission ermächtigt, die Möglichkeiten der Bürgerinnen und Bürger, digitale Plattformen zu nutzen, um einen soliden und aufrichtigen demokratischen Diskurs zu führen, erheblich einzuschränken.

Nach dem kürzlich verabschiedeten Digital Services Act kann die Europäische Kommission erheblichen Druck auf digitale Plattformen ausüben, um „Hassrede“, „Desinformation“ und Bedrohungen des „zivilen Diskurses“ einzudämmen – allesamt notorisch vage und schlüpfrige Kategorien, die in der Vergangenheit dazu benutzt wurden, das Narrativ der herrschenden Klasse zu stärken. Indem der Europäischen Kommission ein breiter Ermessensspielraum bei der Überwachung von Big-Tech-Inhaltsmoderationsmaßnahmen eingeräumt wird, macht dieser Rechtsakt die Redefreiheit zur Geisel der ideologischen Neigungen nicht gewählter europäischer Beamter und ihrer Armeen von „vertrauenswürdigen Flaggenhütern“.

Zweck des Gesetzes über digitale Dienstleistungen

Erklärtes Ziel des Gesetzes über digitale Dienste (Digital Services Act, DSA), das gerade in Europa in Kraft getreten ist, ist es, eine stärkere „Harmonisierung“ der Bedingungen für die Bereitstellung von „intermediären“ digitalen Diensten zu gewährleisten, insbesondere von Online-Plattformen, die von ihren Kunden geteilte Inhalte hosten. Das Gesetz deckt eine verwirrende Reihe von Themen ab, vom Verbraucherschutz und der Regulierung von Werbealgorithmen bis hin zu Kinderpornografie und der Moderation von Inhalten. Zu den weiteren Zielen des Gesetzes gehören die Förderung eines „sicheren, berechenbaren und vertrauenswürdigen Online-Umfelds“, der Schutz der Meinungsfreiheit der Bürger und die Harmonisierung der EU-Vorschriften für digitale Online-Plattformen, die derzeit von den Gesetzen der einzelnen Mitgliedstaaten abhängen.

Das DSA ist nicht so unschuldig wie es scheint

Auf den ersten Blick mag der Digital Services Act (DSA) recht harmlos aussehen. Er verpflichtet „sehr große Online-Plattformen“ wie Google, Twitter/X, Facebook und TikTok zu klaren Einspruchsverfahren und zur Transparenz bei der Regulierung schädlicher und illegaler Inhalte. Abschnitt 45 des Gesetzes liest sich zum Beispiel als eine ziemlich einfache Anforderung, dass Anbieter digitaler Online-Dienste („Vermittlungsdienste“) ihre Kunden über die Geschäftsbedingungen und die Unternehmensrichtlinien informieren müssen:

Die Anbieter von Vermittlungsdiensten sollten in ihren Geschäftsbedingungen die Gründe, aus denen sie die Erbringung ihrer Dienste einschränken können, klar angeben und auf dem neuesten Stand halten. Insbesondere sollten sie Informationen über alle Strategien, Verfahren, Maßnahmen und Instrumente, die zum Zweck der Inhaltsmoderation eingesetzt werden, einschließlich der algorithmischen Entscheidungsfindung und der menschlichen Überprüfung, sowie über die Verfahrensregeln ihres internen Systems zur Bearbeitung von Beschwerden enthalten. Sie sollten auch leicht zugängliche Informationen über das Recht auf Beendigung der Nutzung des Dienstes bereitstellen.

Aber wenn man sich mit dem Gesetz befasst, stellt man sehr schnell fest, dass es Gift für die Meinungsfreiheit ist und nicht dem Geist von Artikel 11 der EU-Grundrechtecharta entspricht, der den Bürgern die „Freiheit der Meinungsäußerung sowie die Freiheit, Informationen und Gedankengut ohne behördliche Eingriffe und ohne Rücksicht auf Grenzen zu empfangen und weiterzugeben“ garantiert. Im Folgenden gehe ich auf bestimmte Aspekte des Gesetzes ein, die in ihrer Gesamtheit eine noch nie dagewesene Bedrohung für die Meinungsfreiheit in Europa darstellen:

  1. Der DSA (Digital Services Act) schafft Einrichtungen, die als „Trusted Flaggers“ bezeichnet werden, um „illegale Inhalte“ zu melden, die sie auf großen Online-Plattformen identifizieren. Die Online-Plattformen sind nach dem Gesetz verpflichtet, unverzüglich auf Meldungen illegaler Inhalte zu reagieren, die von diesen „vertrauenswürdigen Flaggenstellern“, die von den vom Staat ernannten „Koordinatoren für digitale Dienste“ benannt werden, übermittelt werden. Das Gesetz verlangt von großen Online-Plattformen, „die notwendigen Maßnahmen zu ergreifen, um sicherzustellen, dass Meldungen, die von vertrauenswürdigen Flaggenführern, die in ihrem ausgewiesenen Fachgebiet handeln, über die in dieser Verordnung vorgeschriebenen Melde- und Aktionsmechanismen eingereicht werden, vorrangig behandelt werden.“
  2. Streng genommen sind digitale Plattformen zwar verpflichtet, auf Meldungen illegaler Inhalte zu reagieren, die von „vertrauenswürdigen Kennzeichnern“ eingereicht werden, doch aus dem Wortlaut des Gesetzes geht hervor, dass die Plattformen nach eigenem Ermessen entscheiden können, wie genau sie auf solche Meldungen reagieren. Sie könnten beispielsweise mit der Rechtsauffassung eines „vertrauenswürdigen Flaggers“ nicht einverstanden sein und beschließen, die gemeldeten Inhalte nicht zu entfernen. Sie werden jedoch regelmäßig von Prüfern, die im Auftrag der Europäischen Kommission arbeiten, auf die Einhaltung des Gesetzes hin überprüft, und diese Überprüfungen werden ein Muster der Untätigkeit gegenüber gekennzeichneten Inhalten kaum wohlwollend betrachten.
  3. Der Digital Services Act verpflichtet auch „sehr große Online-Plattformen“ (Plattformen wie Google, YouTube, Facebook und Twitter) zu regelmäßigen „Risikominderungs“-Bewertungen, in denen sie sich mit „systemischen Risiken“ im Zusammenhang mit ihren Plattformen befassen, einschließlich, aber nicht beschränkt auf Kinderpornografie, „geschlechtsspezifische Gewalt“ (was auch immer das bedeutet), „Desinformation“ im Bereich der öffentlichen Gesundheit und „tatsächliche oder vorhersehbare negative Auswirkungen auf demokratische Prozesse, den zivilen Diskurs und Wahlprozesse sowie die öffentliche Sicherheit“. Die Plattformen sind nach dem Gesetz verpflichtet, geeignete Maßnahmen zur Bewältigung dieser Risiken zu ergreifen. Anders als bei einem freiwilligen Verhaltenskodex ist ein Ausstieg keine Option, und die Nichteinhaltung dieser „Sorgfaltspflichten“ wird mit hohen Strafen belegt.
  4. Die Sanktionen, die bei Nichteinhaltung des Gesetzes verhängt werden, sind bemerkenswert. Wenn die Kommission der Ansicht ist, dass eine große Online-Plattform wie X/Twitter das DSA nicht eingehalten hat, kann sie gegen diese Plattform eine Geldstrafe von bis zu 6 Prozent ihres weltweiten Jahresumsatzes verhängen. Da der Begriff der Nichteinhaltung schwer zu quantifizieren und ziemlich vage ist (was genau ist erforderlich, um die „Sorgfaltspflichten“ des systemischen Risikomanagements zu erfüllen?), scheint es wahrscheinlich, dass Unternehmen, die rechtliche und finanzielle Kopfschmerzen vermeiden wollen, lieber auf Nummer sicher gehen und eine „Compliance“-Show veranstalten, um eine Geldstrafe zu vermeiden.
  5. Die in diesem Gesetz vorgesehenen regelmäßigen Prüfungen werden der Kommission als Instrument dienen, um große Online-Plattformen unter Druck zu setzen, damit sie Maßnahmen zur „Bewältigung“ der „Risiken“ der Desinformation und der Bedrohung des „zivilen Diskurses und der Wahlprozesse“ ergreifen – Risiken, die notorisch vage sind und wahrscheinlich unmöglich politisch unparteiisch definiert werden können. Die Gefahr, die im Hintergrund dieser Prüfungen und der damit verbundenen „Empfehlungen“ lauert, besteht darin, dass die Kommission Online-Plattformen bei Nichteinhaltung milliardenschwere Geldstrafen auferlegen könnte. Aufgrund des eher vagen Begriffs der Nichteinhaltung von „Sorgfaltspflichten“ und des Ermessensspielraums der im DSA angedrohten finanziellen Sanktionen wird dieses Gesetz eine Atmosphäre der Rechtsunsicherheit sowohl für Online-Plattformen als auch für ihre Nutzer schaffen. Es schafft einen starken Anreiz für Online-Plattformen, Sprache in einer Weise zu überwachen, die bei der EU-Kommission auf Zustimmung stößt, und zwar in Bezug auf vage Kategorien wie „Desinformation“ und „Hassrede“, was sich natürlich auf die Endnutzer auswirken wird.
  6. Am 9. Dezember 2021 nahm die Europäische Kommission eine Mitteilung an, in der sie einen Beschluss des Rates anregt, die derzeitige Liste der „EU-Verbrechen“ in Artikel 83 Absatz 1 AEUV auf Hassverbrechen und Hassreden auszuweiten. Wenn dieser Ratsbeschluss angenommen wird, könnte die Europäische Kommission in einem zweiten Schritt sekundäre Rechtsvorschriften vorschlagen, die es der EU ermöglichen, neben rassistischen oder fremdenfeindlichen Motiven auch andere Formen von Hassreden und Hassverbrechen unter Strafe zu stellen.“Nach Angaben der Europäischen Kommission sind „hassmotivierte Straftaten und Äußerungen nach EU-Recht illegal. Der Rahmenbeschluss zur Bekämpfung bestimmter Formen rassistischer und fremdenfeindlicher Äußerungen aus dem Jahr 2008 verlangt die Kriminalisierung der öffentlichen Aufstachelung zu Gewalt oder Hass aufgrund von Rasse, Hautfarbe, Religion, Abstammung oder nationaler oder ethnischer Herkunft.“ Es ist wichtig, darauf hinzuweisen, dass die EU-Kommission eine Ausweitung der Kategorien illegaler Hassreden auf europäischer Ebene befürwortet, um nicht nur „Rasse, Hautfarbe, Religion, Abstammung oder nationale oder ethnische Herkunft“ zu erfassen, sondern auch neue Kategorien (vermutlich einschließlich Dingen wie Geschlechtsidentität). Illegale Hassreden sind also ein „bewegliches Ziel“ und werden im Laufe der Zeit wahrscheinlich immer breiter und politisch aufgeladener werden. Auf der Website der Europäischen Kommission heißt es dazu, „Nach Angaben der Europäischen Kommission sind „hassmotivierte Straftaten und Äußerungen nach EU-Recht illegal. Der Rahmenbeschluss zur Bekämpfung bestimmter Formen rassistischer und fremdenfeindlicher Äußerungen aus dem Jahr 2008 verlangt die Kriminalisierung der öffentlichen Aufstachelung zu Gewalt oder Hass aufgrund von Rasse, Hautfarbe, Religion, Abstammung oder nationaler oder ethnischer Herkunft.“ Es ist wichtig, darauf hinzuweisen, dass die EU-Kommission eine Ausweitung der Kategorien illegaler Hassreden auf europäischer Ebene befürwortet, um nicht nur „Rasse, Hautfarbe, Religion, Abstammung oder nationale oder ethnische Herkunft“ zu erfassen, sondern auch neue Kategorien (vermutlich einschließlich Dingen wie Geschlechtsidentität). Illegale Hassreden sind also ein „bewegliches Ziel“ und werden im Laufe der Zeit wahrscheinlich immer breiter und politisch aufgeladener werden. Auf der Website der Europäischen Kommission heißt es dazu,

Am 9. Dezember 2021 nahm die Europäische Kommission eine Mitteilung an, in der sie einen Beschluss des Rates anregt, die derzeitige Liste der „EU-Verbrechen“ in Artikel 83 Absatz 1 AEUV auf Hassverbrechen und Hassreden auszuweiten. Wenn dieser Ratsbeschluss angenommen wird, könnte die Europäische Kommission in einem zweiten Schritt sekundäre Rechtsvorschriften vorschlagen, die es der EU ermöglichen, neben rassistischen oder fremdenfeindlichen Motiven auch andere Formen von Hassreden und Hassverbrechen unter Strafe zu stellen.

  1. Der beunruhigendste Aspekt des DSA ist die enorme Macht und der Ermessensspielraum, die er der Europäischen Kommission – insbesondere einer nicht gewählten Kommission – einräumt, um die Einhaltung des DSA zu überwachen und zu entscheiden, wann Online-Plattformen ihre „Sorgfaltspflichten“ zur Bewältigung von Risiken nicht erfüllen, deren Bedeutung bekanntermaßen vage und manipulierbar ist, wie z. B. Hassreden, Desinformation und staatsfeindliche Äußerungen. Die Europäische Kommission gibt sich außerdem die Befugnis, einen europaweiten Notstand auszurufen, der es ihr ermöglicht, von digitalen Plattformen zusätzliche Maßnahmen zur Abwehr einer öffentlichen Bedrohung zu verlangen. Es wird keine Rechtssicherheit darüber geben, wann die EU-Kommission einen „Notfall“ ausrufen kann. Es gibt auch keine Rechtssicherheit darüber, wie die Europäische Kommission und ihre Prüfer „systemische Risiken“ wie Desinformation und Hassrede interpretieren oder die Bemühungen von Dienstanbietern zur Abschwächung solcher Risiken bewerten werden, da dies Ermessensspielräume sind.
  2. Es ist auch nicht klar, wie die Kommission eine Prüfung der „systemischen Risiken“ der Desinformation und der Risiken für den zivilen Diskurs und die Wahlprozesse durchführen könnte, ohne eine bestimmte Auffassung darüber zu haben, was wahr und unwahr, was heilsam und was schädlich ist, und damit dem demokratischen Prozess vorzugreifen, durch den die Bürger diese Fragen selbst beurteilen.
  3. Es ist auch nicht klar, welche Kontrollmechanismen verhindern sollen, dass der DSA zu einer Waffe für die Lieblingsanliegen der EU-Kommission wird, sei es der Krieg in der Ukraine, die Einführung von Impfstoffen, die Klimapolitik oder ein „Krieg gegen den Terror“. Die weitreichende Befugnis, einen öffentlichen Notstand auszurufen und von den Plattformen zu verlangen, dass sie als Reaktion darauf „Bewertungen“ ihrer Politik vornehmen, in Kombination mit der weitreichenden Ermessensbefugnis, Online-Plattformen wegen „Nichteinhaltung“ der inhärent vagen „Sorgfaltspflichten“ mit Geldbußen zu belegen, geben der Kommission viel Spielraum, um über Online-Plattformen zu herrschen und sie unter Druck zu setzen, damit sie ihre bevorzugte politische Darstellung vorantreiben.
  4. Ein besonders hinterhältiger Aspekt dieses Gesetzes besteht darin, dass die Kommission Desinformation sozusagen durch die Hintertür illegalisiert. Anstatt klar zu definieren, was sie mit „Desinformation“ meint, und diese illegal zu machen – was wahrscheinlich einen Aufruhr auslösen würde – verlangt sie von großen Online-Plattformen wie Twitter und Facebook eine „gebührende Sorgfalt“, um diskretionäre Maßnahmen gegen Desinformation zu ergreifen und „systemische Risiken“ auf ihren Plattformen zu mindern (zu denen auch das Risiko der „Desinformation der öffentlichen Gesundheit“ gehört). Vermutlich würden die regelmäßigen Prüfungen der Einhaltung des Gesetzes durch diese Unternehmen unfreundliche Blicke auf Maßnahmen werfen, die die Desinformationsregeln kaum durchsetzen.

Der Nettoeffekt des Gesetzes wäre also, dass ein fast unwiderstehlicher Druck auf soziale Medienplattformen ausgeübt würde, das Spiel der „Gegendesinformation“ so zu spielen, dass es den Prüfern der Kommission genügt, und so zu vermeiden, dass sie mit saftigen Geldstrafen belegt werden. Es herrscht große Ungewissheit darüber, wie streng oder lasch solche Prüfungen ausfallen würden und welche Arten der Nichteinhaltung die Anwendung finanzieller Sanktionen auslösen könnten. Es ist schon seltsam, dass eine gesetzliche Regelung, die vorgibt, die freie Meinungsäußerung zu schützen, das Schicksal der freien Meinungsäußerung dem weitreichenden Ermessen und der inhärenten Unberechenbarkeit nicht gewählter Beamter überlässt.

Es bleibt nur zu hoffen, dass dieses hässliche, komplizierte und regressive Gesetz vor einem Richter landet, der versteht, dass die freie Meinungsäußerung nichts bedeutet, wenn sie von den Ansichten der Europäischen Kommission über die Pandemievorsorge, den Krieg zwischen Russland und der Ukraine oder darüber, was als „beleidigende“ oder „hasserfüllte“ Rede gilt, abhängig gemacht wird.

P.S. Betrachten Sie diese Analyse als einen vorläufigen Versuch von jemandem, der nicht auf europäisches Recht spezialisiert ist, sich mit den beunruhigenden Auswirkungen des Gesetzes über digitale Dienste auf die freie Meinungsäußerung auseinanderzusetzen, basierend auf einer ersten Lesung. Ich freue mich über Korrekturen und Kommentare von Rechtsexperten und all jenen, die die Geduld hatten, sich selbst durch das Gesetz zu wühlen. Dies ist die detaillierteste und rigoroseste Auslegung des DSA, die ich bisher erarbeitet habe. Sie enthält wichtige Nuancen, die in meinen früheren Auslegungen nicht enthalten waren, und korrigiert bestimmte Fehlinterpretationen – insbesondere sind die Plattformen nicht gesetzlich verpflichtet, alle gekennzeichneten Inhalte zu entfernen, und die Personen, die illegale Inhalte kennzeichnen, werden als „vertrauenswürdige Kennzeichner“ und nicht als „Faktenprüfer“ bezeichnet).