Aus dem Internet-Observatorium #149
"Very-online-Nihilismus" / Ende des Lesens, Ende des Denkens? / Halluzinationen und KI-Benchmarks
Hallo zu einer neuen Ausgabe! Programmhinweis: Die Ausgabe #150 erscheint wahrscheinlich erst in vier Wochen.
Appetizer: Aus dem Tagesspiegel Background
Die Modernisierungsagenda: Viola Heeger und ich mit einem Blick auf den ersten Entwurf zur Modernisierungsagenda, die am Mittwoch im Rahmen der Kabinettsklausur verabschiedet werden soll. Interessante Konzepte wie “Law as Code” und ein Bekenntnis zur Messbarkeit einerseits, Frage nach echten Zielen andererseits. Mal sehen, wie die finale Strategie aussieht und ob sie wirklich eine Grundlage für die Staatsmodernisierung bietet.
Vorschläge für die “Apply AI Strategy”: EU-Strategiepapiere, naja, wir wissen alle, wie geduldig pdfs sind. Allerdings ist die Überlegung, wie man von Fertigung bis Energiesektor KI in die Fläche bringt strategisch sehr relevant. Alexandra Ketterer mit den Vorschlägen, die umher schwirren.
Digitalthemen bei der UN-Vollversammlung: Der deutsche Governance-Papst Wolfgang Kleinwächter führt für den Cybersecurity-Background die verschiedenen Fäden rund um Cybersicherheits-Themen und geopolitische Gemengelage der UN-Vollversammlung zusammen.
Pilotländer (und Kommunen) für die Verwaltungsdigitalisierung: Der Bund hat die ersten Pilotpartner für die neuen Lösungen in der Verwaltungsdigitalisierung benannt, auf Länderebene sind das Bayern und Hessen. Das Ganze verlief etwas chaotisch und man kann sich schon fragen, warum man kein SPD-Land im ersten Aufschlag einbezogen hat. Wie dem auch sei: Benjamin Hilbricht und Elena Metz mit allen Details, inklusive dem Blick auf die kommunalen Partner. Aus dem mir sehr wichtigen Background Smart City.
KI & Klima: Die EU muss sich entscheiden. Gewusst? Die Standpunkte (Op-Eds) aus den Backgrounds sind kostenlos im Web zugänglich. José van Dijck und Rianne Riemens von der Universität Utrecht argumentieren in ihrem Gastbeitrag, dass die Europäische Union im Bereich Künstliche Intelligenz im Widerspruch zwischen Wettbewerbsambitionen und Nachhaltigkeitsrhetorik gefangen ist. Und sich endlich entscheiden sollte.
Der Mord an Charlie Kirk & Very-Online-Nihilismus
Es gäbe noch eine Menge zu schreiben rund um die Folgen der Ermordung Charlie Kirks (siehe auch Ausgabe #148), aber ich möchte mich auf ein paar Punkte beschränken. Einer davon ist die Frage, ob wir es mit einem “Very-Online-Nihilismus” zu tun haben und ob dieses Konzept hilfreich ist, die Taten zu erklären.
Monia Ali und Katherine Dee machen sich den Begriff Nihilismus zu eigen, betonen aber auch, dass man drei verschiedene Phänomene unterscheiden muss. Übersetztes Zitat:
Es gibt Menschen, die glauben, dass das Leben Leid ist, und deshalb mit Gewalt handeln müssen.
Es gibt Menschen, die glauben, dass das Leben sinnlos ist, und deshalb das einsetzen, was ich (…) als „Slop-Gewalt” bezeichnet habe.
Es gibt die “revolutionären Normies”: gewöhnliche Menschen mit Jobs, Freunden und Familien, die dennoch zu der Überzeugung gelangen, dass nur extreme Spektakel den Lärm durchbrechen können, den sie als echte moralische Notfälle empfinden, die selbst das Produkt einer übertriebenen Medienberichterstattung sind.
Wenn wir Nihilismus in seinem ursprünglichen Sinne aus dem 19. Jahrhundert verwenden, beinhaltet der Begriff mehr als Sinnlosigkeit, nämlich eine im Kern dann doch sehr zielgerichtete Denkbewegung gegen bestehende Institutionen und Konstrukte wie Religion oder Staatsform. Die Morde des “Very-Online-Nihilismus” haben zwar politische Komponenten (siehe 3.), aber sind eben oft nicht viel mehr als die Externalisierung von Auto-Aggression - also das, was euphemistisch gerne als “erweiterter Suizid” beschrieben wird.
Bei näherer Betrachtung wird auch klar, dass jegliche Form von Kritik, die in solchen Taten stecken könnte, selbst erst einmal im Verdacht stehen sollte, Marketing zu sein. Ich habe spätestens seit dem Massenmord auf Utøya die Theorie, dass es den Tätern in Wahrheit schlicht darum geht, als Hinterlassenschaft einen Wikipedia-Eintrag zu erhalten, also blutige Geschichte zu schreiben. Max Read hat ein Interview mit Ettingermentum (Verfasser/in des gleichnamigen Newsletters) geführt, in dem diese These eine aktuelle Note erhält (übersetzt, gefettet):
“Ein Freund von mir, QuoProQuid auf Twitter, hat einen wirklich guten Punkt angesprochen, nämlich dass Schießereien an Schulen mittlerweile zur Routine geworden sind und nicht mehr so berichtenswert sind wie früher. Die Art von Menschen, die einfach nur Geschichte schreiben oder ihren Namen bekannt machen wollen, haben sich mehr auf Persönlichkeiten des öffentlichen Lebens verlegt, weil die Sicherheitsvorkehrungen dort weniger streng sind als an Schulen. Und wie wir bei Trump und Luigi [Mangione] gesehen haben, bekommen sie viel mehr Aufmerksamkeit als eine Schießerei an einer Schule.”
Wir sind also wieder mitten in der Aufmerksamkeitsökonomie, unterfüttert von den Strukturen der Entmenschlichung, die wir an vielen Stellen unseres Miteinanders sehen. John Herrman schrieb dazu (übersetzt und gefettet):
“Als allgemeine Theorie zur Erklärung der Übel dieser Welt ist die „Online-Radikalisierung“ eine tröstliche Fiktion ohne Vorhersagekraft, eine Möglichkeit, schockierende Ereignisse mit komplexen, sich überschneidenden Motiven innerhalb willkürlicher digitaler Grenzen einzudämmen, eine verlockende Methode, um tiefere und finstere Probleme als bloße Symptome einer vagen und externen Online-Bedrohung abzutun, und ein Instrument für politische Schuldzuweisungen oder Rechtfertigungen.
“Das Internet” kann uns in der Regel ebenso wenig die vollständige Geschichte darüber liefern, warum jemand beschlossen hat, einen anderen Menschen zu töten, wie seine isolierten Erfahrungen bei der Arbeit, in der Schule oder zu Hause, die wir kaum als miteinander verflochten und untrennbar betrachten können. Aber die düsteren Anreize und zynischen Prioritäten der kommerziellen Plattformen (…) könnten helfen zu erklären, wie wir dazu kommen, einander als unrettbar anzusehen.”
“Nihilismus” ist ein Platzhalter wie “Das Internet” - der Versuch der Reduzierung komplexer Phänomene auf eine für uns verstehbare Ebene. Was in Ordnung ist, aber eben auch schablonenhaft.
Ende des Lesens, Ende des Denkens?
Die Rückkehr der Kultur der Mündlichkeit und Post-Alphabetisierung sind hier regelmäßig Thema (siehe z.B. Ausgabe #87, #119 oder die Jahresvorschau 2025 in #121). Gerade gibt es da draußen in der großen Welt der Internet-Essays zwei Aufschläge dazu: James Marriotts lange Wegbeschreibung von der Gutenberg-Galaxis in die jetzige, bereits in Ansätzen post-alphabetisierte Gegenwart und die Folgen für unsere Gesellschaften (politisch noch einmal verdichtet von Andrew Sullivan angesichts aktueller politischer Entwicklungen in den USA).
Derek Thompson wiederum ergänzt in seinem Essay Überlegungen über eine Zivilisation, die Maschinen das Denken überlässt. Während Marriott ein Zeitalter der Barbarei anbrechen sieht, sind für Thompson die Folgen viel banaler (übersetztes Zitat):
“Die Freizeit wird zunehmen, das Privatleben wird einen größeren Teil unserer Freizeit einnehmen, die Bildschirmzeit wird einen größeren Teil unseres Privatlebens einnehmen und KI-Inhalte werden einen größeren Teil unserer Bildschirmzeit einnehmen. „Wenn Sie sich ein Bild von der Zukunft machen wollen“, wie Orwell fast geschrieben hätte, „stellen Sie sich einen Bildschirm vor, der für immer auf einem menschlichen Gesicht leuchtet.“ Für die meisten Menschen wird sich diese Tragödie nicht einmal wie eine Tragödie anfühlen. Wir werden die Weisheit verloren haben, Nostalgie für das zu empfinden, was verloren gegangen ist.”
KI-Ökonomie: Zwei Signale
Zwei Auffälligkeiten: Nvidia will im Laufe der Zeit 100 Milliarden US-Dollar in OpenAI investieren. Was nichts anderes als eine Finanzschleife ist, denn OpenAI wird ja einen Teil des Geldes wieder für Nvidia-Chips ausgeben. Der Nvidia-Skeptiker Jay Goldberg von Seaport Global Securities formuliert es so (übersetzt und gefettet):
“In guten Zeiten wird dies die Lage verbessern. Wir werden schneller wachsen, die Zahlen werden viel schneller steigen. Aber wenn sich der Zyklus dreht, und das wird er, verschlechtert sich die Lage auf dem Weg nach unten.”
Passend dazu für die AGI-Skeptiker: Der Unternehmensberatung Bain& Company zufolge sind bis 2030 jährlich 500 Milliarden US-Dollar an globalen Investitionen in Rechenzentren nötig, um den steigenden Rechenbedarf zu decken. Um diese Ausgaben wirtschaftlich tragbar zu machen, wären rund zwei Billionen US-Dollar an jährlichen Einnahmen erforderlich. Selbst bei optimistischen Annahmen rechnet Bain jedoch mit einer Finanzierungslücke von 800 Milliarden US-Dollar pro Jahr.
Dass das Ganze wie eine riesige Blase aussieht (siehe Ausgabe #146), lässt sich nicht bestreiten. Die Frage ist nur, wie stark es knallt, wenn die Luft entweicht.
Halluzinationen und KI-Benchmarks
OpenAI-Forscher jüngst eine Studie veröffentlicht, die mathematisch erklärt, warum KI-Modelle halluzinieren. Es liegt demnach nicht unbedingt am Trainingsmaterial. Die Forscher zeigen vielmehr, dass die Gesamtfehlerquote beim Generieren ganzer Sätze mindestens doppelt so hoch ist wie die Fehlerquote derselben KI bei einer einfachen Ja/Nein-Frage.
Der Grund dafür ist, dass beim Satzbau mehrere aufeinanderfolgende Vorhersagen getroffen werden müssen – und dabei können sich logischerweise Fehler aufsummieren. Jeder kleine Fehler kann den nächsten beeinflussen, was die Wahrscheinlichkeit für einen insgesamt fehlerhaften Satz erhöht.
Noch interessanter ist die Frage der Rolle von Benchmarks, die das Paper aufwirft: Denn neun von zehn gängigen KI-Bewertungen basieren auf einem binären System. Das bedeutet: Derzeit erhalten KI-Modelle bei „Ich weiß es nicht“ dieselbe Punktzahl wie bei falschen Antworten – null. Deshalb “raten” sie lieber, als Unsicherheit zu zeigen. In der Studie ist entsprechend von einer “Epidemie” die Rede, in der ehrliche Antworten bestraft werden.
Eine mögliche Lösung wäre, bei Evaluationstest ehrliche Unwissenheit besser zu bewerten als falsche Antworten. Doch laut Wei Xing (University of Sheffield) würde dies mehr Rechenaufwand und somit höhere Kosten verursachen, da Modelle ihre Antwortsicherheit einschätzen müssten. Zudem könnten Nutzer abspringen, wenn KIs öfter Unsicherheit zeigen, statt wie gewohnt selbstbewusst zu antworten.
Das Problem wird also weiter existieren. Zumindest, solange LLMs nicht für wirklich kritische Aufgaben genutzt werden sollen, bei denen absolute Genauigkeit zentral ist. Denn rein aus geschäftlicher Sicht mag “liefert regelmäßig falsche Antworten” vielleicht epistemisch fatal sein, aber offenbar für die Kundschaft “gut genug”.
Workslop
“Workslop” ist ein Begriff, der in den vergangenen Tagen Karriere machte. Original stammt er aus der Harvard Business Review, wo ihn das Team von BetterUp Labs wie folgt definiert (übersetzt und gefettet):
“Mitarbeiter verwenden KI-Tools, um mit geringem Aufwand passabel aussehende Arbeiten zu erstellen, die letztendlich mehr Arbeit für ihre Kollegen bedeuten. In den sozialen Medien, die zunehmend mit minderwertigen, KI-generierten Beiträgen überflutet werden, werden diese Inhalte oft als “AI-Slop” bezeichnet. Im Arbeitskontext bezeichnen wir dieses Phänomen als „Workslop“. Wir definieren Workslop als KI-generierte Arbeitsinhalte, die sich als gute Arbeit tarnen, aber nicht die Substanz haben, um eine bestimmte Aufgabe sinnvoll voranzubringen.”
Dadurch eröffnen sich einige Fragen rund um den zu erwartenden Produktivitätsgewinn durch LLMs, aber auch zur Zukunft der Arbeit selbst. Erstellen wir irgendwann alle KI-generierte Mittelmäßigkeit, die dann Kollegen und Kolleginnen ihrerseits mit KIs weiterverarbeiten, woraus zwar Zeitgewinn, aber… genau welcher Erkenntnisgewinn entsteht?
Chinas neue App-Politik
Unterschätztes Thema - Chinas Regierung will größere Tech-Firmen zur Einführung von “Aufsichtsausschüssen für den Schutz personenbezogener Daten” verpflichten und die Staatsmedien geben dem Ganzen den - sehr europäischen - Spin von “Maßnahmen gegen Big Tech”, inklusive ähnlicher Messgrößen (50 Millionen registrierte oder 10 Millionen monatlich aktive Nutzer).
Meine Laien-Einschätzung: Damit nähert man sich einerseits auf dem Papier europäischen Datenschutzstandards an, signalisiert damit aber zugleich auch wieder einen stärkeren Eingriff in die Tech-Branche. Mal abwarten, wie das in der Praxis aussieht, im Moment ist das alles noch in einer Konsultationsphase.
Hype als Fachgebiet
Mitte September fand in Barcelona die erste Hype-Studies-Konferenz statt. Die Organisatoren machen in einem hier für Jacobin übersetzten Artikel klar, warum sie es für die politische und gesellschaftliche Linke relevant halten, sich mit diesem Thema zu beschäftigen:
“Um den aktuellen Aufstieg des Tech-Autoritarismus zu verstehen und zu bekämpfen, brauchen resiliente Demokratien und linke Bewegungen Hype-Kompetenz. Sie müssen verstehen und lesen lernen, wie der Tech-Hype als ein politisches Instrument rechter neo-reaktionärer Politik fungiert.”
Wer sich auf diesem Pfad der Technologie-Interpretation befindet (ich persönlich halte ihn für etwas unterkomplex), findet in diesem Strang sicherlich Material für die Schärfung des kritischen Bewusstseins.
Zwischenmenschliches (als Graph)
Die Grafik aus diesem Artikel (€) zeigt: Erstmals verbringen in den USA Menschen über 50 mehr Zeit mit zwischenmenschlichem Kontakt (also Treffen, gemeinsame Aktivitäten) als die 15- bis 25-Jährigen. Im Vergleich zu 2003 verbringen die Jugendlichen/jungen Erwachsenen heute jeden Tag rund 26 Minuten weniger in direktem persönlichen Austausch. Monatlich summiert sich das auf 13 Stunden. Ich habe gesucht, ob es ähnliche Statistiken für Deutschland gibt, aber auf die Schnelle nichts Vergleichbares gefunden, da viele Befragungen entweder a) Online-Aktivitäten einsammeln oder nur abfragen, wie wichtig dieser Kontakt jungen Menschen ist.
1 Meme
Links
Tiktok-Deal geht bald über die Bühne und der Preis ist dämlich.
Die Familie Ellison und ihr Medien-Imperium. ($)
Petition gegen Online-Hass: Wichtiges Anliegen, bedenkliche Forderung. (€)
Die Rekrutierung von Teen-Hackern durch Cyberkriminelle funktioniert (leider) sehr gut. ($)
OpenAI richtet ChatGPT am Feed-Modell aus.
Metas neue Smart-Glasses scheinen beeindruckend zu sein.
Prompt-Experiment: DeepSeek liefert schlechtere Ergebnisse für Regimekritiker.
Bevorzugen KI-Modelle ihre Heimatländer?
Was KI in der Medizin bereits kann - und was nicht. ($)
HSBC verkündet Durchbruch im quantenbasierten Trading. (€)
“The AI alignment alignment crisis”.
In ihren eigenen Worten: Warum chinesische Tech-Talente aus den USA zurückkehren.
Deepfakes als faschistische Traum-Maschine.
Vernetzung: Das moderne Subjekt existiert nicht mehr.
Youtube, KI und die strategische Dimension.
Warum Netflix keine guten Filme macht.
WhatsApp führt Übersetzungen ein.
Wir treffen uns an der Blogroll.
Apple: Die Seele hat die Maschine verlassen.
Dear Tim: your presentation is pedantic and boring.
Bis zur nächsten Ausgabe!
Johannes





