Aus dem Internet-Observatorium #111
Erkenntnisse aus KI-Müll / Logiksimulierende Papageien? / Hürden gegen Gesichtserkennung
Hallo zu einer neuen Ausgabe! Einige Sachen wegen Sitzungswoche nur angerissen. Sehen wir uns auf dem Digitalgipfel?
Zwei Erkenntnisse aus dem KI-Müll rund die Wirbelstürme
“AI Slop”, also sinngemäß übersetzt ungefähr “KI-generierter Content-Müll”, ist vielleicht das Tech-Wort des Jahres: Nicht nur, weil diese Form von Müll-Inhalten weiterhin wachsende Verbreitung findet, sondern auch, weil das Wort dieses Phänomen perfekt beschreibt.
Jason Koebler von 404 Media beschäftigt sich wohl von allen Journalisten am intensivsten mit AI Slop. In seiner Analyse der jüngsten Fake-Memes zu den Wirbelstürmen in den USA kommt er zu einem ziemlich ernüchternden Fazit (übersetzt und gefettet):
“Dies ist die “Scheiß drauf”-Ära des KI-Mülls und der politischen Nachrichtenübermittlung, in der KI-generierte Bilder verwendet werden, um eine beliebige parteiische Botschaft zu vermitteln, unabhängig von der Wahrheit. Trotz aller Panikmache über das Potenzial von Deepfake-gesteuerten Desinformationen haben wir immer wieder erlebt, dass die Botschaft, die vermittelt werden soll, nicht mit echten - oder sogar realistischen - Fotos oder Videos untermauert werden muss, um sie zu vermitteln.”
Gelernt: Es geht nicht mehr darum, überhaupt echt zu wirken. Es geht darum, die Botschaft zu untermauern. Eine republikanische Funktionärin aus Georgia teilte das obige KI-Bild eines Mädchens samt Hund im Rettungsboot und gab zu, dass das Ganze KI sei. Aber in Wahrheit ergehe es den Leuten vor Ort ja noch sehr viel schlechter. Wie soll man so einem Argument rational beikommen?
In eine ähnliche Richtung geht das, was Charlie Warzel in seiner Kolumne beschreibt. Der Titel seines Artikels zur Desinformation rund um die Wirbelstürme (inklusive “die US-Regierung manipuliert das Wetter”) fasst seine Position zusammen: “I’m Running Out of Ways to Explain How Bad This Is”. Er fordert darin, das Konzept von “Falschinformation” hinter sich zu lassen. Denn es geht nicht darum, irgendwelche naiven Menschen zu überzeugen. Übersetztes und gefettetes Zitat:
“Viele Diskussionen über Falschinformation legen nahe, dass ihre Hauptaufgabe darin besteht, zu überzeugen. Doch Michael Caulfield, Informationsforscher an der University of Washington, hat argumentiert: “Der Hauptzweck von ‘Falschinformationen‘ besteht nicht darin, die Überzeugungen anderer Menschen zu ändern. Stattdessen wird die überwiegende Mehrheit der Falschinformationen als Dienstleistung angeboten, damit die Menschen trotz überwältigender Gegenbeweise an ihren Überzeugungen festhalten.””
Gelernt: Absichtliche Des- und Falschinformation ist inzwischen nicht mehr unbedingt Manipulationswerkzeug, sondern wird von den Nutzern aktiv zur Stärkung des eigenen Überzeugungsfundaments gesucht.
Diese Perspektive ändert einiges.
Logiksimulierende Papageien?
Apple-Forscher haben ein Paper vorgelegt, in denen sie das analytische Denken (“Reasoning”) von KI-Modellen untersucht haben (Stichwort: OpenAI o1). Das Ergebnis: Nicht so wirklich überzeugend. Gelinde gesagt. Übersetztes und gefettetes Fazit:
“Insgesamt stellen wir fest, dass die Modelle dazu neigen, Aussagen in Operationen umzuwandeln, ohne deren Bedeutung wirklich zu verstehen. Ein häufiger Fall, den wir beobachten, ist zum Beispiel, dass Modelle Aussagen über “Rabatt” als “Multiplikation” interpretieren, unabhängig vom Kontext.”
Ein weiteres Argument also für die These “KI ist ein stochastischer Papagei” (der ich prinzipiell auch anhänge, was aber nicht bedeutet, dass solche Systeme völlig unnütz sind, siehe Ausgabe #40).
Ich stelle hier mal zwei Interpretationen gegeneinander. Die eine stammt vom ausgewiesenen generativen-KI-Skeptiker Michael Seeemann, der in seinem empfehlenswerten Newsletter schreibt (Fettungen von mir):
“Auch wenn OpenAI sich mit Reinforcement-Learning eine vollständige Datenbank aller Lösungspfade zu allen vorstellbaren entscheidbaren Fragen kreiert und o1 und ihre Nachfolger alle noch zu schaffenden Benchmarks nach oben klettern, wird das keine Intelligenz in die Maschine bimsen. So lange sich die KI nicht ausdrückt, und das ist Voraussetzungsreich [sic!]: so lange sie nicht mit der Fuzzy Welt in Beziehung tritt und das Unentscheidbare entscheidet, um die Erfahrung anschlussfähig zu machen, kann sie immer nur das längst Entschiedene slopen.”
Das ist nicht nur ein Argument gegen “Allgemeine Künstliche Intelligenz”, sondern letztlich auch gegen OpenAI - “Reasoning” oder auch “Emotionalisierung der Antworten” (vgl. Chat-GPT 4o). Die sind nur Bühnendekoration für ein eigentlich ziemlich träges Schauspiel stochastischer oder besser logiksimulierender Papageien.
Demgegenüber schreibt Anthropic-Mitgründer Jack Clark zu den Ergebnissen (übersetzt, gefettet):
“Während Kritiker von LLMs dieses Papier nutzen werden, um darauf hinzuweisen, dass LLMs oft überangepasst sind und nicht wirklich “schlussfolgern”, sondern eher Dinge auswendig lernen, denke ich, dass es tatsächlich etwas Subtileres zeigt: kleine und daher relativ dumme Modelle passen sich absolut übermäßig an, aber je größer und intelligenter Ihr Modell ist, desto weniger ist es anfällig für Überanpassung. Ja, es gibt immer noch eine gewisse Verschlechterung, was darauf hindeutet, dass große Modelle einige Verzerrungen aus ihren Trainingssätzen aufgesaugt haben, die die Leistung verschlechtern, aber die Tatsache, dass sie viel besser damit zurechtkommen, ist für mich ein sehr optimistisches Zeichen, das darauf hindeutet, dass die größten und ausgefeiltesten Modelle der Welt tatsächlich eine grobe Logik aufweisen können - zumindest genug, um über absichtlich verwirrende Benchmarks hinwegzukommen!”
Logiksimulierende Papageien vs. Systeme für grobe Logik - bitte wählen Sie Ihren Favoriten.
Hürden gegen Gesichtserkennung
Beim Thema nachträglicher polizeilichter Gesichtserkennung hat die Expertenanhörung rund um das Sicherheitspaket Wirkung gezeigt. Den Gesichtsabgleich über das Internet (vgl. Ausgabe #107) muss jetzt der BKA-Präsident oder ein Vertreter vor Gericht beantragen, der Einsatz ist auf schwere Straftaten beschränkt und vor allem: das BMI muss ein Konzept vorlegen, wie das Ganze technisch aussehen soll. Zitat aus der SZ:
“Geregelt werden sollen die technischen Details auch in einer Rechtsverordnung des Bundeskabinetts. Somit muss auch das traditionell überwachungsskeptische Justizministerium zustimmen. Auch die Bundesdatenschutzbeauftragte wäre involviert und könnte intervenieren, wenn die KI-Vorgaben zu übergriffig angelegt wären. Gegen eine Verordnung könnten zudem Bürgerrechtsorganisationen klagen und sie gerichtlich prüfen lassen.”
Das ist natürlich nicht die breite und ausführliche gesellschaftliche Debatte, die ich mir gewünscht hätte (siehe Ausgabe #104) - insofern kann ich die Fundamentalkritik von Netzpolitik und anderen nachvollziehen. Aber man hat zumindest Mechanismen eingeführt, die eigentlich gleich an drei Stellen dafür sorgen müssten, dass das in dieser Form nicht Realität wird. Oder zumindest so funktioniert, dass zumindest keine Datenbank entsteht (wie auch immer das technisch vonstatten gehen soll).
Ergänzung 17. Oktober: Es könnte natürlich sein, dass das Sicherheitspaket in den Vermittlungsausschuss wandert und dann gemeinsam mit der Forderung nach Vorratsdatenspeicherung aus den Ländern verhandelt werden muss. Auch deshalb wurde jetzt der Quick Freeze vom BMJ (mit der Freigabe der Mietpreisbremsen-Verlängerung) auf den Weg gebracht. Teil der Verhandlungen wiederum könnte sein, dass oben genannte Hürden abgebaut oder stark gesenkt werden.
OpenAI: Weitere Zahlen
Nach der XXL-Investitionsrunde hat The Information ($) weitere Zahlen zu den firmeninternen Prognosen von OpenAI:
Demnach rechnet OpenAI damit, frühestens im Jahr 2029 bei einem Umsatz von 100 Milliarden und Gesamtverlusten von 44 Milliarden US-Dollar erstmals Gewinne zu schreiben.
Microsoft erhält durch die Investitionsbedingungen (Stichwort Cloud-Credits) einen Anteil von 20 % an den Einnahmen von OpenAI.
Was für eine absurde Wette. Die Frage ist: Wird OpenAI im Jahr 2029 eine derartige Marktmacht haben, dass man mehr oder weniger alle relevanten Branchen über seine API bedient? Dafür müsste man mehr oder weniger Monopolist oder zumindest Teil eines sehr lukrativen Oligopols sein. Angesichts der technischen Probleme im Kontext Verlässlichkeit scheint das derzeit nicht realistisch. Genauer gesagt: Chat-GPT 5 wird ganz eindeutig die Richtung vorgeben, und danach könnte es schnell gehen. Im Moment aus meiner Sicht eher: schnell nach unten mit der Bewertung.
Lesenswertes aus den vergangenen Wochen: Silicon Valleys erfolgreichster Lobbyist
Der Name Chris Lehane sagte mir nichts. Und doch, so beschreibt es Charles Duhigg im New Yorker, ist er maßgeblich für die “Politisierung” des Silicon Valley verantwortlich. Politisierung im Sinne der Erkenntnis, dass politische Lobby- und PR-Arbeit dabei hilft, den technologiefreundlichen Status Quo in den USA zu erhalten. Trotz aller negativer Nebenwirkungen.
Beginnend mit dem Kampf von Airbnb gegen ein Volksbegehren in San Francisco (den ich damals miterlebt habe), orchestriert er inzwischen die politischen Kampagnen der Crypto-Branche. Mit Erfolg - Donald Trump präsentiert sich nach Millionenspenden als Crypto-Fan und auch Kamala Harris zeigt sich nicht als Gegnerin. Aber, übersetztes Zitat aus dem Artikel:
“Unabhängig davon, ob Lehanes Koalition Bestand hat oder nicht, ist eines klar: Das Silicon Valley ist Teil einer Tradition geworden, die bis zu Boss Tweed zurückreicht. Die Technologiebranche hat gelernt, wie man Politik macht. Um Ronald Reagan zu paraphrasieren, beherrscht die Branche den zweitältesten Beruf der Welt, indem sie die Techniken des ersten studiert. Das Geld der Tech-Branche und ihr wachsender politischer Sachverstand bedeuten, dass ihre Interessen - Kryptowährungen, die Sharing Economy, unkontrollierte soziale Medien - nicht verschwinden werden. Bei die S.E.C. hat die Wende des Silicon Valley fast so etwas wie Terror ausgelöst. “Wenn Krypto gewinnt, werden Sie sehen, dass Finanzunternehmen plötzlich sagen, dass ihre Produkte auf der Blockchain sind, und sie werden Milliarden durch dieses Schlupfloch schieben“, sagte mir der Beamte, der mit den Überlegungen der S.E.C. vertraut ist. “Wir haben gesehen, wie das mit Sparkassen und Krediten, mit Hypothekenderivaten und mit regionalen Banken passiert ist, und es endet immer schlecht. Irgendetwas wird in die Luft gehen, und eine Menge Leute werden betroffen sein.”“
Lesenswertes aus den vergangenen Wochen: Kathleen Dee über Adam Lanza Fan Art
Katherine Dee ist eine der unterschätzten Beobachterinnen der Internet-Subkultur. Vielleicht ist sie sogar die Beste. Zumindest ist ihr Stück in Tablet Magazine das Erhellendste, was ich in diesem Jahr über Außenseiter-Kulturen im Internet gelesen habe.
Worum geht es? Adam Lanza war der 20-Jährige, der 2012 das Sandy-Hook-Massaker verübte und 28 Menschen, darunter 20 Kinder, ermordete. Und über alle Plattformen inklusive Nischen wie der “True Crime Community” hinweg gibt es eine Subkultur, die ihn und andere Amokläufer nicht unbedingt feiert, aber mythologisiert. Diese Subkultur wiederum ist vor allem von Teenagern oder jungen Twentysomethings bevölkert, von denen nicht wenige gemobbt wurden. Zitat (übersetzt)
“Vorfälle mit Massenopfern sind ein Beispiel für die emotionale Realität eines Teenagers. Wenn wir Teenager sind, sind unsere Gefühle so groß und die Realität unseres Lebens ist im Vergleich dazu oft so klein. Die Gewalt einer Schießerei an einer Schule verleiht den Ängsten von Teenagern die Ernsthaftigkeit, die sie zu verdienen scheinen: Sie bietet Katharsis. Und wenn eine Schießerei an einer Schule „nur“ eine Geschichte ist, ein Stück moderner Folklore, warum sollte man sie nicht nutzen?
Mit anderen Worten: Der extreme Charakter dieser Ereignisse spiegelt die Intensität jugendlicher Emotionen wider und bietet einen Rahmen, um überwältigende Gefühle zu verstehen und auszudrücken, die im Vergleich zu alltäglichen Erfahrungen unverhältnismäßig erscheinen mögen.
Es handelt sich auch um eine Fantasie, die von unserem Medienumfeld geprägt ist.”
Dieses Medienumfeld nimmt sie ebenso unter die Lupe wie die Meme-fizierung solcher Mörder. Und auch wenn der Auszug den Eindruck vermitteln könnte: Sie schont dabei weder die Subkultur, noch sich selbst. Es ist komplex. Und deprimierend.
1 Zitat zur Wordpress-Kontroverse
David Heinemeier Hannson, CTO von 37 Signals und Miterfinder von Ruby on the Rails, über die aggressive Strategie von Automattic und dessen Chef Matt Mullenweg gegenüber WP Engine (Kontext hier). Übersetzt, Original hier.
“Das ist der Deal. Das ist Open Source. Ich schenke Ihnen den Code, Sie akzeptieren die Lizenzbedingungen. Es kann nicht sein, dass plötzlich eine zweite Ebene von Schattenverpflichtungen gilt, wenn Sie mit der Software reich werden. Dann ist die Lizenz bedeutungslos, die Klarheit verschwindet und die Sicherheit geht verloren.
Sehen Sie, Automattic kann seine Lizenz jederzeit von der GPL abändern. Die neue Lizenz gilt aber nur für neuen Code, und WP Engine oder jeder andere kann das Projekt forken. So geschah es auch mit Redis, nachdem Redis Labs seine BSD-Lizenz aufgab und sich für eine kommerzielle, quelloffene Alternative entschied. Valkey wurde von der letzten freien Redis-Version geforkt, und jetzt ist der Ort, an der jeder,an den alle, die an einer Open-Source-Redis-Implementierung interessiert sind, wahrscheinlich hingehen werden.
Aber ich vermute, dass Automattic den Kuchen nicht nur haben, sondern auch essen möchte. Sie wollen den Open-Source-Glanz von WordPress beibehalten, aber auch in der Lage sein, ihr Pfund Fleisch von jedem Konkurrenten zu nehmen, der auftauchen könnte, wann immer sie es für nötig halten. Scheiß auf sowas.”
Links
EU-Kommission: X fällt nicht unter den DMA.
USA: Weitere Exportbeschränkungen für KI-Chips? ($)
Intel und AMD vereinbaren Zusammenarbeit bei x86-Architektur.
Ein KI-Manifest von Anthropic-Gründer Danrio Amodei und eine Antwort darauf.
Technische Probleme beim Internet Archive.
Niederlande müssen Ampeln wegen Sicherheitslücke austauschen.
Warum es bei KI-Wasserzeichen nur zögerlich voran geht. (€)
Eine Liste von Halbleiter-Startups.
Tech, KI, Kriegsführung und der neue militärisch-industrielle Komplex.
Deepfake-Pornographie als wachsendes Problem in Südkorea.
Big-Brother-Award für Lauterbach und Polizei Sachsen.
Was passierte, nachdem Elon Musk gesperrte Twitter-Nutzer zurückholte. ($)
Chinas Quantencomputer vs. Verschlüsslung auf Militärniveau.
Toxisches Fandom ohne Rückfahrkarte.
30 Jahre seit Mosaic Netscape 0.9.
Was wir über das Online-Leben unseres Sohnes lernten, nachdem er gestorben war. (€)
Ein Thread mit seltsamen KI-Videos.
Bis zur nächsten Ausgabe!
Johannes