Hallo zu einer neuen Ausgabe. Monothematisch, dieses Mal.
Trusted Flaggers
Die Idee - und die Ausgestaltung - der im Digital Services Act (DSA) vorgesehenen “Trusted Flaggers” in Deutschland steht in der Kritik. Hauptsächlich von den üblichen Aufgeregten aus dem reaktionären Spektrum, aber auch von ein paar Leuten, die differenzieren wollen. Weil leider ziemlich viel Halbwissen bis hin zu Verschwörungstheorien im Umlauf ist, hier ein kleiner Aufriss.
“Trusted Flaggers” (deutsch: “vertrauenswürdige Hinweisgeber”) sind in Artikel 22 des DSA definiert: Kurz gesagt handelt es sich um Organisationen, deren Meldungen über illegale Inhalte Plattformen priorisiert und zeitnah behandeln müssen. Die Flagger-Organisationen können sich für diese Rolle bewerben, die Benennung erfolgt durch den Digital Services Coordiator (Digitale-Dienste-Koordinator) im jeweiligen EU-Land. In Deutschland die Stelle bei der Bundesnetzagentur angesiedelt, mehr dazu weiter unten. Voraussetzung für die Zulassung als Trusted Flagger ist, dass die Organisationen finanziell unabhängig von Plattformen agieren, Expertise vorweisen und über ihre Finanzierung transparent Auskunft geben.
Anfang Oktober wurde mit “REspect!” der erste “Trusted Flagger” für Deutschland benannt. Weitere Organisationen werden folgen, es gibt ja mit “Hate Aid” oder der “Amadeu Antonio Stiftung” bereits aktive Einrichtungen in diesem Bereich. Das inzwischen abgeschaffte Netzwerkdurchsetzungsgesetz hat gerade im Kontext “Hate Speech” hier die Grundlage gelegt. Der Rahmen für die Zulassung ist übrigens äußerst breit gefasst, zum Beispiel können sich auch Strafverfolgungsbehörden mit Schwerpunkt Internet-Ermittlung oder andere Regulierungsbehörden als Trusted Flagger akkreditieren lassen.
Bislang, das zeigt zumindest diese Liste der EU, haben außer Deutschland allerdings nur Österreich, Finnland und Schweden Trusted Flagger benannt. Dass viele davon aus dem Bereich Urheberrecht stammen, zeigt, wie breit der Anwendungsbereich des DSA ist - und was das Gesetz ersetzt. Denn eine ähnliche Infrastruktur gab es bereits - zum Beispiel konnten sich Film- oder Sportrechte-Inhaber an Plattformen wie YouTube wenden, wenn ihre Inhalte illegal gestreamt wurden (bzw. YouTube die “Wasserzeichen” dieser Inhalte automatisiert übermitteln). Solche informellen Vereinbarungen werden durch den DSA institutionalisiert. Beziehungsweise wird die Auswahl, anders als bei bisherigen “Trusted-Flagger”-Programmen, nicht mehr den Plattformen selbst überlassen (Update: Julian Jaursch weist zurecht darauf hin, dass die bestehenden privaten Trusted-Flagging-Programme bestehen bleiben können).
Ein weiterer Punkt: Welche Inhalte illegal sind, richtet sich nach nationalen Gesetzen im jeweiligen EU-Land.
Eine Gruppe nationaler Digitaldienste-Koordinatoren unter Führung Irlands haben eine Liste von Inhalten zusammengestellt, die betroffen sein könnten (hier auf deutsch). Eine kleine Auswahl von mir, um die Bandbreite zu illustrieren:
Vergehen an Tieren (Verletzungen oder illegaler Verkauf/Schmuggel): Das können also Tierquälerei-Videos auf TikTok sein oder Anzeigen bei Kleinanzeigen-Portalen, in der exotische Wildtiere angeboten werden, die gar nicht eingeführt werden dürfen.
Verstöße gegen den Datenschutz und die Privatsphäre: Hier fallen zum Beispiel DSGVO-Verstöße, Doxing (sofern im EU-Land illegal), unerlaubt gepostete biometrische Daten oder Verstöße gegen das Recht auf Vergessenwerden darunter.
Unerlaubte Äußerungen: Das kann Verleumdung, Diskriminierung oder “Hate Speech”, aber zum Beispiel in Deutschland auch die Holocaust-Leugnung sein.
Eigentumsverstöße: Das können Urheberrechtsverletzungen, “Verletzung der Rechte an Sportveranstaltungen” sein, aber auch Produktfälschungen und die Verletzung der Markenrechte. Es geht also auch hier wieder um Soziale Netzwerke / Videoplattformen mit nutzergenerierten Inhalten sowie Hosting-Anbieter der entsprechenden Seiten, aber eben auch um Marktplätze und damit um nicht-digitale Waren.
Der entscheidende Punkt aber ist: Die Meldungen der “Trusted Flagger” sind eben keine Löschverpflichtung, sondern führen nur zu einer bevorzugten Prüfung. Die dann bei den Plattformen mittels KI oder händisch stattfindet.
Außerdem muss, wer von einer Löschung oder Sperrung betroffen ist, informiert werden (inklusive der Begründung). Mehr noch: Wer glaubt, dass seine Inhalte unberechtigterweise gelöscht wurden, kann dagegen bei der Plattform Beschwerde einlegen (der Weg dafür muss in der Lösch-Info dargelegt sein). Und muss, falls das nicht erfolgreich war, im Zweifelsfall nicht kostspielig vor Gericht ziehen, sondern kann künftig auch eine außergerichtliche Schlichtungsstelle (Artikel 21 DSA) anrufen. Hierfür ist in Deutschland derzeit die User Rights GmbH ernannt. Der Rechtsweg steht natürlich grundsätzlich weiterhin offen. Ein weiterer Mechanismus: Die “vertrauenswürdigen Hinweisgeber” müssen einmal pro Jahr einen Bericht über ihre Arbeit vorlegen.
Um an dieser Stelle die geäußerte Kritik mal abzuschichten: Irgendwo zwischen “Quatsch aus Unkenntnis”, Propaganda und Verschwörungstheorie liegen Aussagen wie “Die Bundesnetzagentur legt Zensur-Organisatoren fest, die zudem noch von grünen Ministerien gefördert werden” oder “Bundesnetzagentur-Chef Klaus-Müller ist ein Grüner und implementiert jetzt eine quasi-staatliches Wahrheitsministerium”.
Leider passen solche Erzählungen gut in die gängigen Wutbait-Narrative (beim Nuis-Bericht über den REspect!-Chef als problematische Figur warte ich die Nachrecherche in seriösen Medien ab). Aber es gibt zwei Punkte, die diese Narrative begünstigen: Kommunikation und Struktur.
So ließ sich der derzeitige kommissarische Digitale-Dienste-Koordinator, Bundesnetzagentur-Chef Klaus Müller, in der Pressemitteilung zur ersten Flagger-Ernennung hiermit zitieren:
“Illegale Inhalte, Hass und Fake News können sehr schnell und ohne bürokratische Hürde entfernt werden. Das hilft, das Internet sicherer zu machen.”
Woraufhin ihm vom Zeit-Meinungsjournalisten Jochen Bittner vorgeworfen wurde, freie Meinungsäußerung zu kriminalisieren. Denn tatsächlich sind Hasspostings nur unter bestimmten Voraussetzungen illegal, “Fake News” nur im Kontext von Ehrdelikten.
Müller reagierte daraufhin so:
“Da wir “illegal” auf “Inhalte, Hass & Fake News” bezogen habe, sehen wir keine Verfassungswidrigkeit. Bei einer anderen Lesart, kann man den Satz auch missverstehen & manch einer will das womöglich auch.”
Eine ziemlich schwache Antwort (so wie Christian Bartels im Altpapier zurecht anmerkt, dass Begriffe wie Trusted Flaggers und das ganze Konzept einfach nicht ordentlich erklärt wurden).
Den zweiten Teil der Angriffsfläche bietet die Struktur: Denn der DSA sieht ausdrücklich die Unabhängigkeit der nationalen Digitalen-Dienste-Koordinatoren vor. Die ist zwar auch in Deutschland gegeben, aber die Stelle an die Bundesnetzagentur anzudocken, vermittelt den gegenteiligen Eindruck. Zumal, wenn dann der Koordinator noch nicht benannt ist und der Bundesnetzagentur-Chef die Leitung kommissarisch selbst übernimmt. Angesichts der aufgeheizten Stimmung lässt sich zwar bezweifeln, dass eine solche Stelle unter irgendwelchen anderen Umständen unumstritten gewesen wäre - aber etwas weniger heikel wäre die Angelegenheit schon gewesen.
Reden wir aber auch über den Teil der Kritik, der mit weniger Schaum vorm Mund vorgetragen wird und grundsätzliche Relevanz hat. Im Zentrum steht hier vor allem die fehlende Abgrenzung zwischen “illegaler Inhalt im Sinne der nationalen Gesetze” und “unerlaubter Inhalt im Sinne des Hausrechts einer Plattform”.
Diese Schwammigkeit spiegelt sich auch im Design der Melde-Menüs von Social-Media-Seiten wider: Bei den Meta-Diensten Instagram und Facebook, bei YouTube und bei TikTok kann ich gar nicht auswählen, ob ich etwas nach Haus- oder nach EU-Recht flaggen möchte. Was aus Nutzersperspektive völlig nachvollziehbar ist - niemand kennt den DSA, und niemand möchte sich über derlei Fragen Gedanken machen. Bei X/Twitter wiederum wird diese Unterscheidung gemacht, wobei sich auch illegale Inhalte nach dem DSA in den hauseigenen Meldekanälen finden.
Die Logik des DSA ist: Die gemeldeten Inhalte laufen im Backend der Plattformen ein. Dort werden sie geprüft, ob sie legal oder illegal sind, oder ob sie das Hausrecht (den Geschäfts- oder Nutzungsbedingungen) betreffen und diesem entsprechen oder widersprechen. Die Entscheidung darüber, was “illegal und löschenswert” oder was “schädlich und Teil der freien Meinungsäußerung” oder was “legal, aber löschenswert” ist, wird also (zunächst) von den Plattformen in ihrem Backend getroffen. Oder, um aus dem Handout der Digitalen-Dienste-Koordinatoren zu zitieren (Fettungen meine):
“Online-Plattformen und -Dienste treffen die Entscheidung über die Behandlung der gemeldeten Inhalte auf Grundlage des jeweils geltenden nationalen Rechts. Die Online-Plattformen sind nach Art. 16 Abs. 6 DSA verpflichtet, zeitnah, sorgfältig, frei von Willkür und objektiv über die gemeldeten Informationen zu entscheiden. Kommen Online-Plattformen und -Dienste zu dem Schluss, dass es sich um illegale Inhalte handelt, ergreifen sie entsprechende Maßnahmen (z.B. Löschung des Posts, Beschränkung der Sichtbarkeit). Hate Speech kann je nach Inhalt strafbar sein (z.B. Beleidigung/üble Nachrede, Volksverhetzung). Bei Fake News handelt sich in der Regel nicht um illegale Inhalte. Allerdings verbieten viele Online-Plattformen in ihren Nutzungsbedingungen die Verbreitung von Falschinformationen oder die Nutzung von Fake-Accounts.”
Tatsächlich gab es bereits beim NetzDG Diskussionen über das Verhältnis von Recht und Nutzungsbedingungen bzw. darüber, ob man nicht die Anwendung des Rechts priorisieren sollte. Denn teilweise verbergen sich hinter einzelnen Fragen komplexe Sachverhalte: Welche KI, welcher Moderator kann schon entscheiden, ob zum Beispiel eine Produktbewertung a) gefälscht oder irreführend ist und b) dies gegen Paragraph 5 des Gesetzes gegen den unlauteren Wettbewerb (UWG) verstößt? Dort heißt es in Absatz 1:
“Unlauter handelt, wer eine irreführende geschäftliche Handlung vornimmt, die geeignet ist, den Verbraucher oder sonstigen Marktteilnehmer zu einer geschäftlichen Entscheidung zu veranlassen, die er andernfalls nicht getroffen hätte.”
Schon alleine die Feststellung, ob es sich hier wirklich um einen “illegalen Inhalt” handelt, ist also alles andere als trivial.
Eine weitere Frage, die Kritiker stellen: Verändern die “vertrauenswürdigen Hinweisgeber” als Absender das Löschverhalten der Plattformen? Im Sinne des Gedankengangs “von der Aufsichtsbehörde akkreditiert = ich lösche im Zweifel lieber”?
Eine Untersuchung des dänisch-amerikanischen Thinktanks “Future Free Speech” (pdf) hat dazu Ergebnisse geliefert, die aussagekräftig sind - aber leider nicht im Bezug auf diese Frage. Die Forscher hatten die Kommentare in den 60 größten Facebook-Gruppen und YouTube-Kanäle in Frankreich, Deutschland und Schweden untersucht. Übersetztes Zitat:
“Die Analyse ergab, dass legale Online-Aussagen den größten Teil der entfernten Inhalte auf Facebook und YouTube in Frankreich, Deutschland und Schweden ausmachte. Von den gelöschten Kommentaren, die plattform- und länderübergreifend untersucht wurden, waren je nach Stichprobe zwischen 87,5 % und 99,7 % rechtlich zulässig.”
Das deutet darauf hin, dass Overblocking schon heute existiert. Allerdings konnte nicht unterschieden werden, ob die Plattformen die Kommentare selbst entfernt hatten oder sie von Nutzern oder gar “Trusted Flaggers” geflaggt wurden. Vor allem aber klammert der Unterschied zwischen “legal” und “illegal” die Dimension der Nutzungsbedingungen/Community-Guidelines aus.
Womit wir beim Kern des “Moderationsproblems” sind: Letztlich baut eine Architektur wie der DSA weitestgehend auf dem Status Quo auf (anders, als die Kritiker mit ihrem Vorwurf der “Zensurarchitektur” suggerieren).
Es gibt keine neue “Behörde”, die die Moderation von Inhalten übernimmt - das wäre nämlich wirklich die Grundlage für eine Zensurinfrastruktur. Vielmehr verbleibt die Moderationsentscheidung bei den Plattformen selbst, inklusive Einspruchsmöglichkeiten der Betroffenen. Mehr noch: Die EU definiert “illegale Inhalte” nicht einmal, sondern überlässt dies (zurecht) den nationalen Gesetzgebern.
Zugleich gibt es Inhalte, die nicht illegal, aber schädlich für den Diskurs sind. Auch hier belässt man die Verantwortung bei den Plattformen und bildet das Ganze bei den “sehr großen Online-Plattformen” (VLOPs) in der jährlichen Selbsteinschätzungen zu den Risiken ab. Das ist eigentlich ziemlich schlau, aber eben auch furchtbar vage.
Was wäre eine Alternative? Theoretisch gibt es zwei Möglichkeiten: Am klarsten wäre es geregelt, wenn die “Trusted Flaggers” wirklich nur bei illegalen Inhalten aktiv werden. Das ließe sich auch über ein gesondertes (aber aufwändiges, da je nach EU-Land unterschiedliches) Backend bei den Plattformen lösen. Allerdings wäre die Rolle als Trusted Flagger dann deutlich unattraktiver, zumal man ja wirklich de facto staatliche Aufgaben übernehmen würde (ohne dafür vom Staat Geld zu erhalten).
Eine weitere Möglichkeit: Wirklich alles, was gelöscht werden muss, auch konkret in Gesetze zu schreiben. Dann gäbe es keinen Umweg über das Hausrecht mehr, sondern das Hausrecht würde den Plattformen sogar entzogen. Letztlich würde das dem entsprechen, was Libertäre/Konservative gerade in den USA fordern: Keine Moderationseingriffe mehr für die Hausherren, es sei denn, Gesetze werden gebrochen.
Die dritte Möglichkeit ist die bestehende. Sie ist nicht perfekt, weil sie eine Plattform zur Erst- und Schnellinstanz bei den Entscheidungen über Gesetzesverstöße macht. Abgefedert wird das Ganze durch diverse Einspruchsmöglichkeiten und die Möglichkeit außergerichtlicher Schiedsgerichtentscheidungen. Und durch das Ausklammern des größten Teils der Fragen rund um “Hate Speech” mittels der Verlagerung auf die systemische Ebene (= Nachweis der Plattform, solche gesellschaftlichen Risiken zu erkennen und sie zu adressieren).
Das ist meiner Meinung nach eine akzeptable Lösung. Die Sorge über Trusted Flagger artikuliert zwar ein im Prinzip nicht unberechtigtes Misstrauen gegenüber staatlichen Eingriffen, wird aber von nicht wenigen Akteuren schlicht instrumentalisiert - unter anderem, um das Gesamtkonstrukt staatlich koordinierter Moderationsarchitektur zu diskreditieren.
Meine eigene Sorge gilt zwei anderen Aspekten: Der Möglichkeit, dass die angewendeten “nationalen Gesetze” mittelfristig so verändert werden, dass sie die Meinungsfreiheit wirklich einschränken und nun eine Infrastruktur existiert, die das durchsetzen kann - und bei der Missbrauch nur verhindert werden kann, wenn wirklich alle Institutionen funktionieren (vgl. Unabhängigkeit von Gerichten oder der Akzeptanz von EuGH-Urteilen). Kurz: Der DSA, unkontrolliert ungarisiert.
Und, Leserinnen und Leser kennen mein Lamento, die internationale Signalwirkung von NetzDG und DSA - prinzipielle Eingriffe, die eben von denjenigen, die Gewaltenteilung und checks & balances für überflüssig halten, als Rechtfertigung für autoritäre Plattform-Politiken missbraucht werden können.
Links
US-Überwachungssystem offenbar von China gehackt. ($)
Geoffrey Hinton nach dem Nobelpreis im Interview. ($)
BKA: Telegram liefert wieder mehr angeforderte Daten.
6,6 Milliarden Euro: OpenAIs Rekord-Investmentrunde. (€)
US-Bundesstaaten verklagen TikTok wegen psychischer Folgen für Kinder.
Silicon Valley, das neue Lobbyismus-Monster.
Indiens Rekord: 771 Internet-Blockaden seit 2016.
Telekom vs. Meta in Sachen Datentransport.
Europäische Investitionsbank soll Startups beim Börsengang unter die Arme greifen. ($)
Einmal mehr: Wer ist/war Satoshi?
Roblox: Gefälschte Reichweiten-Metriken?
Die aus der Zeit gefallene Gesellschaft für Informatik.
Eine Suchmaschine für Text in Google Maps (in New York City).
Bis zur nächsten Ausgabe!
Johannes