Aus dem Internet-Observatorium #50
TikTok, Meta und die Daten-Deglobalisierung / Bye Bye, Twitter / Es gibt kein "Ich" in KI
Hallo zu einer neuen Ausgabe! Ich gebe es zu, #50 hätte eigentlich ein längeres Essay verdient gehabt. Aber mir fehlt die Zeit und im politischen Berlin brennt mal wieder die Hütte, wie man so schön sagt.
TikTok, Meta und die Daten-Deglobalisierung
Zwei Ereignisse der vergangenen Tage: Montana verbietet ab Januar 2023 TikTok (und seine Nutzung) auf dem eigenen Gebiet. Und die irische Datenschutzbehörde verhängt eine EU-Strafe in Höhe von 1,2 Milliarden Euro gegen den Meta-Konzern, weil Facebook europäische Nutzerdaten ohne ausreichende Rechtsgrundlage in den USA speichert (meinen DLF-Kommentar dazu gibt es hier).
Die beiden Fälle haben gemeinsam, dass sie ein Signal senden: Die politisch-regulatorische Frage des physischen Speicherplatzes nimmt weiterhin an Relevanz zu. Obwohl das Internet doch so funktionieren sollte, das die Daten fließen - und die Cloud angeblich überall sein kann.
Okay, obiger Satz ist etwas naiv: Diskussionen über einheimische Server-Standorte, hybride Cloud oder Standardvertragsklauseln sind auch in deutschen Firmen nichts Neues. Und die Meta-Strafe ist direkt aus der Snowden’schen Enthüllung abgeleitet, dass in den USA gespeicherte Daten nicht sicher vor Geheimdienstzugriffen sind.
Dennoch hat sich zuletzt etwas im Zuge der geopolitischen Kontroversen verändert: Datenörtlichkeit wird inzwischen zu einem Faktor, der technische Fragen wie Latenzzeiten oder Kosten mindestens gleichgestellt ist.
Da wäre das Beispiel transatlantische Datenspeicherung: Wir wissen nicht, welche Daten Facebook in den USA sichert und verarbeitet, ob es wirklich Nutzerdaten oder Cold Data sind. Aber um der EU-Regulierung gerecht zu werden, müsste Meta technisch dafür sorgen, dass kein Datenpaket mit identifizierenden Informationen europäischer Bürger seinen Weg in die USA findet. Wie übrigens alle anderen transnationalen Firmen, die in den beiden Ländern aktiv sind, ebenfalls.
Der Aufwand wäre groß. Deshalb verlässt man sich auf Datenabkommen zwischen Brüssel und Washington, die allerdings bereits zweimal gekippt wurden. Und auch das neue Datenabkommen - ich hatte vergangenen Oktober darüber geschrieben - erfüllt die Kriterien echter durchsetzbarer Datensicherheit nicht. Und dürfte vom EuGH ebenfalls kassiert werden.
Wie Datenverarbeitung unter diesen unsicheren Bedingungen aussehen könnte, versucht TikTok gerade zu beweisen. “Project Texas” soll Datensicherung, Quellcode-Überprüfung und Zugriffsmonitoring in die Hände einer Drittfirma legen: Oracle. Ähnliches ist für Europa geplant, wo der Partner von “Project Clover” bald bekanntgegeben werden soll (dazu und mehr zur Debatte über das TikTok-Verbot in meinem DLF-Hintergrund, zu finden in der Mediathek).
Das System soll den Beweis erbringen, dass sensible Daten nicht nach China abfließen. Was ebenfalls ziemlich aufwändig ist und im Sinne eines “Beweises” fast unmöglich ist. Und der US-Regierung und Montana offenbar ohnehin nicht genügt - obwohl klar ist, dass eine App-Store-Blockade für einen einzelnen Bundesstaat ziemlich schwer durchzuführen ist.
Kurz: Denken wir die Folgen der Daten-Deglobalisierung noch ein bisschen weiter, sind wir bei Auflagen und technischen Voraussetzungen für regionale Märkte, die nur Internet-Großkonzerne erfüllen können. Und selbst die - siehe Googles Zurückhaltung, Bard in Europa einzuführen - zögern inzwischen.
Mal ganz abgesehen davon, dass lokale Server-Vorgaben kein Zeichen von Datenschutz sein müssen. Sondern, siehe China und Russland, genau das Gegenteil bedeuten können.
Hype und Anti-Hype einer Clickwork-Firma
Ich war am Montag in der Deutschlandfunk-Kultur-Sendung Kompressor, um etwas über die Diskussion rund um afrikanische Clickworker zu erzählen. Kurz gesagt: Die Firma Sama sitzt im Silicon Valley, betreibt in Kenia ein Outsourcing-Center für Content-Moderation. Und sie ist gerade ziemlich umstritten.
Vergangenes Jahr gab es Ärger wegen der schlechten Bezahlung und Traumatisierung von Facebook-Moderatoren; vor kurzem, weil man dort per “Reinforcement Learning from Human Feedback” Chat-GPT die Schmutzeleien abtrainieren sollte - was offenbar ebenfalls mit unangenehmen Erfahrungen verbunden war. Im Hintergrund steht der Versuch der afrikanischen Mitarbeiter, einen Betriebsrat zu gründen. Ich empfehle den Artikel und Podcast von Alexa Kantrowitz für einen besseren Überblick.
Worum mir es geht, ist die Wahrnehmung: Denn als Sama (damals: Samasource) zwischen 2015 und 2019 bekannter wurde, wurde die Firma als vorbildliches Non-Profit-Startup gefeiert (auch in deutschsprachigen Medien). Tenor damals: Die (inzwischen leider verstorbene) Gründerin Leila Janah schafft 2000 gutbezahlte Jobs in Afrika, bei denen Mitarbeiter Daten aufbereiten und mehr als den örtlichen Mindestlohn verdienen. 2020 schaffte man es mit einem Projekt zum Wildreservat-Schutz mittels KI auf eine Award-Shortlist der Postille Fast Company.
Das angebliche Wildreservat-Projekt ist inzwischen von der Firmen-Homepage verschwunden. Und auch sonst läuft es nicht gut: Stand heute hat Sama das Outsourcing für Meta abgeben müssen, muss aber weiter die Gehälter von 184 flugs entlassenen Mitarbeitern zahlen. Auch die Zusammenarbeit mit OpenAI wurde offenbar beendet - vielleicht weil die KI-Firma herausfand, dass Sama seinen Mitarbeitern nicht wie versprochen umgerechnet 12, sondern zwei Dollar pro Stunde zahlt.
Warum ich das so detailliert aufschreibe? Irgendwo in dieser Geschichte verbirgt sich eine Parabel. Vielleicht so: Irgendwann verwandelt sich eine freundliche Gemeinwohl-Organisation ein gieriges Unternehmen, dessen Clickwork-Ausbeutung die Gewinnmargen von Großkonzernen erhöht. Vielleicht war es aber nie ein freundliches Gemeinwohl-Unternehmen.
Was ungefähr die Desillusion beschreibt, die ich mit dem Social Web verbinde.
Bye Bye, my Twitter
Und weil wir gerade beim Social Web sind: Ich bin raus bei Twitter. Für den Rest des Jahres, wahrscheinlich länger. Ich hatte vergangene Woche in Ausgabe #49 beschrieben, in welche Richtung sich die Plattform entwickelt. Und mir war klar, dass auch ich persönlich daraus Konsequenzen ziehen muss. Hier die Abwesenheitsnotiz, die ich an mein Twitter-Profil angeheftet habe:
“Der Prozess wird noch länger dauern, aber die Richtung ist klar: Twitter ist auf dem Weg, StudiVZ oder Yahoo zu werden. Niemand will die Flamewars der Neunziger nachspielen (oder anderen dabei zugucken). Aber das ist weitestgehend der Modus hier.
Ich habe daran kein Interesse. Und ich möchte keiner Plattform Content liefern, deren Besitzer die antisemitische und rassistische Hundepfeife bedient.
Die Republikaner finden seit Jahren immer neue Begründungen, warum sie Trump treu blieben. Egal was er sagt und tut. Die Parallelen zwischen Trump und Musk sind offensichtlich. Genau wie mir die Ausreden bekannt vorkommen, #MuskTwitter treu zu bleiben. Das verschafft dieser Plattform eine Legitimität, die sie nicht haben sollte.
Für mich bedeutet das: Dieser Account schläft erst einmal bis mindestens Ende des Jahres 2023. Meine anderen Kanäle - Newsletter, Blog, Social-Media-Präsenzen - sind ebenso wie die Kontaktmöglichkeit in meiner Bio verlinkt. #LinkInBio.
Und ich kann andere Medienschaffende nur dazu aufrufen, trotz aller (und oft einzig echter) Reichweite hier Twitter keine Legitimität zu verschaffen. Nicht durch Postings, nicht durch hervorgehobene Wahrnehmung.
Ich kenne das Argument, dass es hier auch vernünftige Stimmen braucht. Aber Twitter2023™ ist kein Marktplatz der Meinungen. Sondern ein totes Pferd.
Zeit, abzusteigen.”
Es gibt kein “Ich” in “KI”
Kevin Munger hat einen Vorschlag: Text-Output von LLMs sollte deutlich von menschgemachtem Text unterscheidbar sein. Eine Forderung deshalb: KI-Systeme sollten sich selbst nicht mehr mit “ich” oder “wir” bezeichnen dürfen. Zitat:
“My proposal involves changing how text is encoded, re-thinking the basic technology of a string of characters. If we can differentiate human- and machine-generated text — if we can render the output of LLMs as intuitively non-human as a Google search result — we are in a better position to reap the benefits of this technology with fewer downside risks. Forcing LLMs to refer to themselves without saying “I,” and perhaps even coming up with a novel, intentionally stilted grammatical construction that drags the human user out of the realm of parasocial relationship, is a promising first step.”
Links
Ein Economist-Schwerpunkt zu digitalen Bezahlsystemen. (€)
Facebook, Regierungstrolle in Vietnam und die alten Versäumnisse.
GPT-4: Immer mit der Ruhe, sagt Rodney Brooks
Onlinezugangsgesetz 2.0 - der Entwurf ist da (und ich nenne es weiterhin OZG 2.0)
Falk mit einem DLF-Hintergrund zu fünf Jahren DSGVO.
Social Media und die geistiges Gesundheit junger Menschen: Eine weitere Warnung.
Eine kleine Geschichte der Computer-Kunst
1 Tweet
Bis nächste Woche!
Johannes