Liebe Internet-Beobachtende,
auch wenn Trumps Twitter-Sperre jetzt bereits zwei Wochen her ist: Die sich daraus ergebenden Debatten sind höchst relevant und knifflig. Ich will deshalb hier in einer Spezial-Ausgabe noch ein paar Gedanken zum Thema Plattform-Moderation (und Deplatforming) sammeln. Ich kann hier keine Rezepte liefern, sondern erst einmal nur die Komplexität beschreiben.
[A] Moderation: Was bisher geschah
Wer moderiert? Die Plattformen. Sie löschen einerseits nach ihrem Hausrecht, zugleich auch nach nationalen Gesetzen. Das waren lange Zeit keine Social-Media-Gesetze, sondern Gesetze und Rechtsnormen aus anderen Bereichen, die zur Anwendung kamen. Zum Beispiel das Gesetz, das in Thailand die Beleidigung des Königs verbietet. Oder die Iran-Sanktionen, wegen derer Facebook und Twitter Tausende Konten gelöscht haben. Oder in Deutschland Strafgesetzbuch §130, speziell Absatz 3 (Holocaust-Leugnung, Verherrlichung des Nationalsozialismus etc.).
Oft spiegeln sich die geltenden Gesetze in den Hausregeln/Geschäftsbedingungen zu Löschungen wieder (Kinderpornografie, Terror-Inhalte). Auf einer weiteren Ebene speisen sich die Hausregeln aus Firmen-”Werten” (Nacktbilder) oder wurden als Reaktion auf problematische Entwicklungen (koordinierte Desinformation, Schusswaffen-Glorifizierung) entwickelt.
Diese Kontexte sind wichtig, weil sie den Plattformen häufig Interpretationsspielraum geben. Allerdings verbergen sich hier aber auch die kniffligsten Fälle - letztlich solche Grenzfälle, die dann Schlagzeilen machen oder verdeckte Community-Entwicklungen begünstigen. Und Kontext ist eben immer stärker das Geschehen in der fleischlichen Welt: Trump Sperre folgte nicht aus den vorangegangenen Ermahnungen, sondern aus der tatsächliche Erstürmung des Kapitols und der Sorge, dies könnte sich wiederholen. In Myanmar wiederum ignorierte Facebook damals den Kontext, nämlich die tatsächlichen Folgen der Hetze durch Militärs in Form von ethnischen Säuberungen.
Neben solchen Regeln gibt es auch noch Formen der kodifizierten Selbstregulierung: In der EU zum Beispiel der “Code of Conduct on countering illegal hate speech online”, den seit 2016 alle relevanten Plattformen unterzeichneten, zuletzt TikTok. In Brüssel gilt diese Selbstregulierung, die es auch für Desinformation gibt, aber als schwaches Instrument. Der im Dezember vorgestellte “Digital Services Act” wird hier einen konkreten EU-Rahmen für Plattform-Pflichten schaffen, der aber erst in einigen Jahren umgesetzt wird.
Einiges, was dann EU-weit Realität wird, ist heute schon im deutschen Netzwerkdurchsetzungsgesetz enthalten: Die Löschpflicht für gemeldete Kommentare, die “offensichtlich rechtswidrig” sind. In einer Ausweitung des NetzDG müssen Kommentare sogar samt IP-Adresse dem BKA gemeldet werden, wenn sie strafrechtlich relevant sind - für Kritiker eine Vorverlagerung staatlicher Hoheitsaufgaben auf Privatunternehmen (Befürworter verweisen als analoges Beispiel auf das Bankenwesen und die Pflicht zur Meldung von Geldwäscheverdacht).
In einem anderen Strang erhält das NetzDG auch eine Einspruchsmöglichkeit gegen Plattform-Löschungen, und das nicht nur, wenn nach dem NetzDG gelöscht wurde (was weiterhin die Minderheit der Fälle ist), sondern auch bei Löschungen nach dem Hausrecht. Das NetzDG wäre aber für einen Fall wie bei Trump insofern nicht geeignet gewesen, als es hier nur um Content geht, nicht um Konten. Eine Lücke, die bei der konkreten Ausgestaltung des “Digital Services Act” von der EU geschlossen werden könnte - zumindest für institutionelle Konten und Amtsträger.
[B] Das Dilemma von Social-Media-Gesetzen
Das NetzDG war und ist der Versuch, Social-Media-Plattformen mit spezifischen Vorgaben zum gründlicheren und schnelleren Löschen von “Hass und Hetze” zu verpflichten. Die Sorge des Overblocking hat sich in der ersten Version offenbar nicht bestätigt; in der zweiten Version droht aber durch die Weitergabepflicht an Ermittlungsbehörden eine Meldeflut, womöglich sogar Melde-Exzesse, weil die Plattformen auf Nummer sicher gehen möchten.
Dass die Plattformen selber stärker tätig werden müssen, sendet unterschiedliche Signale. Auf der einen Seite gilt das NetzDG als Beispiel dafür, wie sich Social-Media-Unternehmen in die Pflicht nehmen lassen. Auf der anderen Seite wurde es in Ländern wie Singapur, Russland und der Türkei als Vorbild genannt, um weit einschneidendere Gesetze zu verabschieden - beziehungsweise “Hass und Hetze” (und Desinformation) nach den Vorstellungen der Regierung auszulegen. Um zum Beispiel dieses Wochenende Nawalny-Hashtags zu verbieten (Proteste als “illegale Massenveranstaltungen”) Oder wie in der Türkei nun endlich den langgehegten Wunsch nach einer weltweiten Blockade von Content durchzusetzen (durch Löschverpflichtung).
Auch hier ist also Kontext relevant: Bei den Hausregeln haben die Plattformen Spielraum, bei der Auslegung von “Hass und Hetze” autoritär geneigte Regierungen - sie können “Hetze” oder “illegales Verhalten” nun relativ einfach auf Kritik oder nicht genehme Situationen anwenden. Und auch die im NetzDG verankerte Pflicht zur Benennung eines nationalen Ansprechpartners ist auf den ersten Blick sinnvoll; auf der anderen Seite ermöglicht sie Ländern, dies in ihrem Sinne auszulegen: bei Nicht-Benennung zum Beispiel Apps zu sperren oder ihre Geschwindigkeit zu drosseln (siehe Türkei). Oder die Zustellungsmöglichkeit zu nutzen, um Nichtbefolgung von Zensur mit heftigen Strafzahlungen oder Mitarbeiter-Verhaftungen zu sanktionieren.
Unter dem Strich gilt: Social-Media-Gesetze existieren nicht im luftleeren Raum, und dass Deutschland seine internationale Feigenblatt-Rolle überhaupt nicht auf dem Schirm hat, ist absolut bedauerlich.
[C] Internationalität, neue Institutionen und Regierungen als Nutzer
Am Donnerstag hat Facebook angekündigt, dass sich das eigene Aufsichtsgremium (im Volksmund “Oberstes Facebook-Gericht”) mit der Trump-Sperre beschäftigt. Kaum einen Tag aus dem Amt, kann Trump als 0815-Nutzer ein Argument vorlegen, warum die Accounts reaktiviert werden sollen. Wie diese Prozedur abspielen wird, kann sehr entscheidend sein - im Kontext der versprochenen Transparenz, aber auch bei der Frage, inwiefern Facebook als Unternehmen eigene (Haus-)Rechtsinstanzen und -normen schafft. Wer sich hier für Details interessiert, sollte dieses Paper lesen.
Der Fall Trump ist ein Extrem-Fall, der aber die bekannte Frage aufwirft: Wer soll über Sperren von Regierungsmitgliedern oder Institutionen entscheiden? Zuletzt kam die Forderung auf, dies in unabhängigen internationalen Gremien zu regeln. Nehmen wir an, dass sich dafür Konsens finden würde: Über was genau sollte so ein Schnellgericht entscheiden? Über die Sperre von Regierungsangehörigen? Über die Abschaltung von sozialen Medien, wenn in einem Land… ja was genau passiert? Ein Genozid? Oder ein Umsturz? Damit würde dieses Gremium auch darüber entscheiden, welche Umstürze “gut” und welche “böse” sind. Was es handlungsfähiger und in gewisser Weise mächtiger als den UN-Sicherheitsrat machen würde. Kann das Gremium auch entscheiden, wann soziale Median angeschaltet bleiben? Und wer setzt das vor Ort durch? Blauhelme in den Internetknoten der örtlichen Telekom-Provider?
Ich sage nicht, dass man über ein solches unabhängiges Gremium nicht nachdenken kann. Aber es wäre naiv zu glauben, dass es einem “Rat der Gerechten” ähneln würde, das gemäß der UN-Menschenrechtskommission über alle Landesgrenzen hinweg Social-Media reguliert.
Andererseits könnte mit dem Obersten Facebook-Gerichtshof der Nukleus für eine “Instanz der dritten Art” sein, die genau diese Aufgabe privatwirtschaftlich übernimmt. Ob sie dabei entgegen der Unternehmensinteressen handelt, darf bezweifelt werden. Ich glaube allerdings, dass letztlich die Plattformen für jede Regulierung zu haben sind, solange sie nicht zu teuer ist oder das eigene Geschäftsmodell gefährdet.
In der Praxis werden viele Länder jetzt Gesetze erlassen, die das Sperren von Regierungskonten verbieten. Die Sanktionen könnten von Geldstrafen bis zur landesweiten Abschaltung reichen.
[D] Moderation: Mehr als Kommentare
Hier will ich noch einmal ganz kurz die Parler-Debatte a.k.a Deplatforming streifen. Denn hier zeigt sich, dass Moderation eben nicht nur eine Frage von Content und Konten ist. Joan Donovan hat die verschiedenen Ebenen der Moderation in der Technologie-Infrastruktur so definiert (es gibt auch noch andere Varianten, siehe z.B. Mike Masnick)
Für mich deutlich sichtbar: Je tiefer wir nach unten gehen, desto folgenreicher ist ein Eingriff. Parler kann vielleicht auf App-Stores verzichten, aber mit eigenen Servern zu operieren, ist kostspielig. Auf Ebene der Domain-Registrierung oder von Internet-Providern blockiert zu werden, wäre noch einmal problematischer.
Am Ende gibt es immer Untergrund-Alternativen, aber ich glaube, es lassen sich drei Schlüsse ziehen:
1. Je tiefer ein Anbieter in der Infrastruktur-Ebene liegt, desto weniger sollte er für den Inhalt verantwortlich gemacht werden, der durch seine Instanz fließt. Und desto seltener sollten moderative Eingriffe sein, bis hin zum Verbot. De facto aber gibt es hier rund um den Globus schon lange Eingriffe auf Provider-Ebene, zum Beispiel rund um Kriege oder Wahlen.
2. Die Moderation auf jeder Ebene muss sich auf Verstöße auf exakt dieser Ebene beziehen.
3. Vertikale Integration sollte hier kartellrechtlich möglichst verhindert werden (Google ist zum Beispiel bereits in den vier oberen Ebenen aktiv, versuchsweise aber zum Beispiel auch als Internet-Provider). Und auf jeder Ebene sollte versucht werden, in Richtung ausreichender Konkurrenz (de)reguliert zu werden (Ebene 7 fällt als Infrastruktur etwas aus diesem Raster raus).
[E] Moderation in unterschiedlichen Realitäten
Zum Abschluss noch eine Feststellung: Das Moderationsproblem verschärft sich auf verschiedenen Ebenen.
Einmal durch neue Formen wie Audio (siehe Clubhouse). Vor allem aber dadurch, dass Social Media nicht nur verschiedene Subkulturen erschafft, sondern verschiedene Welten/Realitäten. Denn digital vermittelte Subkulturen sind, wie L.M. Sacaras schreibt, keine Ausdifferenzierungen nach Geschmack - sondern werden zu starken Kulturen, die “unterschiedliche Perspektiven auf die Wahrheit, moralische Fragen und Normen haben”. Aus ihnen folgt: endloser digital ausgetragener Kulturkampf.
Ein Beispiel ist (ein leider in den letzten Tagen gelöschter) Tweet der NYT-Reporterin Taylor Lorenz: Er zeigt einen Screenshot von einer Clubhouse-Diskussion über ein Verbot von Prostitution, im Subtweet prangert sie das als “Anti-Sexarbeiterinnen-Diskussion” an. Anti-Prostitutions-Diskussion oder Anti-Sexarbeiterinnen-Diskussion? Die Antwort auf diese Frage macht nicht nur unterschiedliche Haltungen sichtbar, sondern aus ihr entstehen ganz andere Ausdrucks- oder eben Moderationswünsche, die in aller Unerbittlichkeit verfolgt werden. Die Plattformen können ihnen nicht gerecht werden und die staatlichen Instanzen sollten es gar nicht erst versuchen.
Ich bin auf dem deutschen Clubhouse bislang nur spärlich aktiv, weil ich schlicht zu wenig Zeit habe. Ich freue mich aber über Hinweise auf gute netzpolitische/Digitalisierungs-Diskussionsrunden.
Vielen Dank für die Aufmerksamkeit und den Platz in der Inbox. Mit “Seltsame Jahre” habe ich auch einen Newsletter über alles jenseits von Tech.
Johannes