Aus dem Internet-Observatorium #148
Welches System formt KI? Die Debatte macht Fortschritte / Parasozialer Terror / Proteste in Nepal
Hallo zu einer neuen Ausgabe! Gar nicht so wenig los :-/.
Appetizer: Aus dem Tagesspiegel Background
Wem hilft Jupiter? Anfang September wurde in Jülich der erste Exascale-Computer Europas eingeweiht. Neben Forschungsprojekten sollen sich auch KMU und Start-ups Rechenkapazitäten sichern können. Warum das bisher schief ging und wie sich das ändern soll, haben Lisa Oder und Oliver Voß aufgeschrieben.
Wer treibt wirklich Innovationen für die Bundeswehr? Cyber Innovation Hub, Cyberagentur, Sprind, BWI GmbH - an Akteuren, die (digitale) Innovationen in die Bundeswehr bringen sollen, mangelt es nicht. Doch in der Realität scheitert vieles an den bestehenden Strukturen. Theresa Locker mit einer ausführlichen Analyse.
Online-Fortbildungen und das Nadelöhr: 17 Mitarbeiter einer kleinen Kölner Behörde müssen digitale Weiterbildungskurse zertifizieren - von denen es inzwischen geschätzt 250.000 gibt. Weil das bestehende Fernunterrichtsschutzgesetz veraltet ist und nicht zur digitalen Realität passt, müssen Anbieter mit Rechtsunsicherheiten leben. Christian Füller berichtet.
Seit Freitag gilt der “Data Act” der EU: Was das in der Praxis bedeutet - Stichwort Datenherausgabe, Datenteilen - hat Alexandra Ketterer aufgeschrieben.
EuroStack zwischen Bewegung und Stillstand: Von mir stammt unter anderem eine längere Bestandsaufnahme zu Stand und Chancen der EuroStack-Idee.
Fortschritte in der KI-Großdebatte
Die intellektuelle Großdebatte über das Wesen Künstlicher Intelligenz findet - publizistisch angeschoben von Akteuren wie Ezra Klein - im Kontext zweier Papers statt: “AI as A Normal Technology” von Arvind Narayanan und Sayash Kapoor (vgl. Ausgabe #133) und “AI 2027” von Daniel Kokotajlo und Scott Alexander.
Ich gebe zu: “AI 2027” hatte ich seinerzeit hier einzig verlinkt und nicht näher besprochen, weil es mir ein bisschen zu Science-Fiction-artig vorkam. Ich halte es auch trotz der Expertise der Autoren weiterhin für ein unwahrscheinliches Szenario, dass wir bis 2027 Artificial General Intelligence (AGI) erleben werden. Allerdings ist das Szenario - besonders bei Mitarbeitenden von US-Techfirmen - mit voller Wucht eingeschlagen. Was insofern nicht verwundert, als dieses AGI-Ziel ja implizit die Expansionsstrategien ihrer Arbeitgeber begründet.
Doch zurück zur Debatte: Ob Künstliche Intelligenz in einen “rekursiven Selbstverbesserungszyklus” eintreten kann und innerhalb kürzester Zeit alles umwälzt (AI 2027) oder erst innerhalb eines Zeitraums von Jahrzehnten diffundiert, weil es auf eine sehr komplexe Realität trifft (“AI as A Normal Technology”, oder auch AIANT), ist im Kern auch die Frage, wenn wir über Policy oder die gesellschaftlichen Auswirkungen der möglichen Veränderungen blicken.
Es entbehrt daher nicht einer gewissen Ironie, dass die “AI 2027”-Leute an ihrem Extremszenario festhalten und Scott Alexander einen AIANT-Takedown produzieren lässt, während Narayanan und Kapoor sich in einem neuen Text rechtfertigen, dass sie alles andere als KI-Skeptiker sind (und nebenbei ihr Substack von “AI Snakeoil” in “AI as A Normal Technology” umbenennen).
Eine Schlüsselpassage zum Normalitätsdiskurs ist dabei diese hier (übersetzt und gefettet):
“Bemerkenswert am KI-Diskurs im Allgemeinen und an „Wir gegen AI 2027” im Besonderen ist die große Bandbreite an Meinungen, nicht nur über die Zukunft, sondern auch über Dinge, die wir beobachten können, wie beispielsweise die Geschwindigkeit der Verbreitung.
Wenn wir als Community nicht viel besser darin werden, die Gegenwart zu messen und konkurrierende kausale Erklärungen für den Fortschritt zu überprüfen, wird die Energie, die in Vorhersagen gesteckt wird, fehlgeleitet sein - weil uns die Mittel fehlen, diese Vorhersagen zu überprüfen.
Wir haben beispielsweise argumentiert, dass wir selbst im Nachhinein nicht unbedingt wissen werden, ob „AGI” entwickelt wurde. Bis zu einem gewissen Grad sind diese Einschränkungen aufgrund der mangelnden konzeptionellen Präzision von Ideen wie AGI unvermeidlich, aber gleichzeitig ist es wahr, dass wir bei der Messung noch viel besser werden können.”
Das Ganze spielt in die Debatte über Sinnhaftigkeit von Benchmarks hinein, zeigt aber auch das Bemühen, das Ganze faktenbasiert und weniger apodiktisch anzugehen als ich die gewagten Prognosen von “AI 2027” wahrnehme. Es soll nun wohl eine gemeinsame Erklärung der beiden Gruppen geben, in dem man nochmal die Gemeinsamkeiten und Differenzen trennscharf markiert.
Wohltuend an der Diskussion ist, dass sich um die beiden Gegensätze herum eigene Ansätze gebildet haben beziehungsweise durch den entstandenen Diskurs in das Wahrnehmungsfeld geraten.
Zum einen haben wir die Kritik, wie sie der Informatik-Professor Ben Recht formuliert: Er wirft den AIANT-Vertretern vor, die “Normalität” der Technologie nur deshalb zu proklamieren, weil Normalität klassische Regulierung ermöglichen würde. Recht selbst aber sieht den aktuellen Weg von KI in Anlehnung an Max Read eher in Richtung einer “nachteiligen Technologie” verlaufen - also “Schlangenöl”-Produkte, die keinen gesellschaftlichen Mehrwert schaffen, sich aber dennoch durchsetzen. Als aktuelle Parallele nennt er Kryptowährungen, historisch sieht er Netzwerk-Marketing oder die Einführung von Werbung als Beispiele für Phänomene, die trotz eindeutiger Betrugsmerkmale irgendwann gesellschaftlich akzeptiert wurden.
Ähnlich, aber doch anders und grundsätzlicher angelegt, ist der Ansatz von Henry Farrell: Der hat seine These von “KI als Kulturtechnologie” (siehe Ausgabe #95) etwas modifiziert, hin zu “KI als soziale Technologie”. Heißt: KI als sich gerade ausbildende Superstruktur, respektive Suprastruktur, wie wir sie in der Entwicklung von Märkten oder Bürokratien erlebt haben - also eine Grundstruktur, die wir gar nicht mehr als solche erkennen, aber eben nicht im technischen Sinne (wie “Strom” oder “das Internet”), sondern auf dem organisierenden Betriebssystem-Level unserer Zivilisation.
Dieses langsame Verschmelzen ist für Farrell eine “langsame Singularität”, in der wir uns gerade inmitten “monströser und oft treuloser Diener” niedergelassen haben. Und was wir nicht mehr sehen, können wir auch nicht mehr bestimmen. Der Technologiebegriff von Ivan Illich oder Jacques Ellul kommt mir dabei in den Sinn, genau wie meine (wenig originelle) private Hypothese, dass wir es bereits mit dem Kapitalismus als erster und eigentlicher Künstlichen Intelligenz zu tun haben, von der sich die Entwicklung der jetzigen KI letztlich nur ableitet.
Recht und Farrell argumentieren also im Kern gegen einen Techno-Determinismus, der sowohl “AI in 2027”, als auch AIANT inhärent ist. Und öffnen damit die Debatte für Strukturfragen, die wir angesichts der geopolitischen und technologischen Entwicklungen eigentlich auch in vielen anderen Bereichen stellen müssten.
Dass dieser wichtige Diskurs in Deutschland und Europa bislang keine Rolle spielt und wir uns offenbar damit begnügen, diese Fragen technokratisch oder auf dem Niveau von “Wir müssen uns im KI-Zeitalter unseres Menschseins besinnen” zu verhandeln, zeigt die ganze Malaise, in der sich unser Kontinent befindet.
Parasozialer Terror
(Anmerkung: Dieser Teil stammt weitestgehend von Freitagfrüh, beinhaltet also nur einen Teil des Komplexes, nichts zu Groyper-Wars oder Ähnlichem, was gerade im Kontext des mutmaßlichen Täters diskutiert wird)
Ich gehöre zu den Glücklichen, denen das Video mit dem Mord an Charlie Kirk online noch nicht begegnet ist. Vielleicht, weil ich (gerade) TikTok und (seit langem) X nicht installiert habe. Und trotzdem ist das natürlich alles deprimierend. Trumps Forderung nach einem Schnellprozess, die New York Times mit ihrem Pseudo-Zentrismus (“Amerika trauert über Charlie Kirk”), die Anschlagsdrohungen gegen schwarze Colleges (hmm, warum nochmal?), die zwischenzeitliche Instrumentalisierung der Tat als trumpistisches Präludium für ein härteres Vorgehen gegen den politischen Gegner und auch die paar dummen Linken, die eine solche Tat abfeiern.
Aber das Ganze ist natürlich ein Internet-Thema, in dem Sinne, dass es keine Trennung zwischen Online- und Offline-Welt mehr gibt; und auch in dem Sinn, dass der USA auch die “Restrealität” abhanden kommt. In der allerersten Ausgabe dieses Newsletters 2020 schrieb ich dazu:
“Was heißt das? Aus der Vogelperspektive betrachtet: Wie Deutungshoheit entsteht, entwickelt sich weiterhin weg von den Mechanismen des späten 20. Jahrhunderts (Institutionen, lineare Medien). Hierarchie ist nicht überflüssig geworden, sondern sie entsteht vielmehr vernetzt. Genauer gesagt erleben wir die “Memefizierung der Welt”. Ideen, Verhalten und Stile werden zu Kultur(über)trägern. Und damit politisch auch zu einem Machtfaktor.”
Charlie Kirk als provokativer reaktionärer Influencer war genau Teil dieser Mechanismen und die Wirkung seines Todes folgt ihnen ebenfalls.
Aber ich bin - auch um mir meine eigene Restrealität zu erhalten - nicht allzu tief drin in diesen Entwicklungen. Anders als Ryan Broderick, der die beste (digital-)kulturelle Analyse dieses Mordes verfasst hat. Er schildert, wie ein Tiktoker kurz nach der Tat schockiert ein Video aufnimmt und mit den Worten “Abonniert meinen Kanal” endet.
Und er beschreibt, wie die Mischung aus Aufmerksamkeitsökonomie und zunehmender Sektenhaftigkeit des Politischen - eine sich gegenseitig verstärkende Entwicklung - letztlich in einer Situation kulminiert, in der alles so absurd wie düster wie folgenreich erscheint. Übersetztes Zitat (Fettungen meine):
“Unabhängig vom Motiv war die Schießerei eindeutig inszeniert, um eine maximale Wirkung in den sozialen Medien zu erzielen. Auch wenn Bilder von Massensterben mittlerweile ein unvermeidlicher Bestandteil des Internets sind, hatten die Videos von Kirks Tod etwas besonders Eindringliches. Der einzigartige parasoziale Schrecken, einen Menschen zu sehen, der hinter seiner Rüstung aus Internetruhm so unantastbar schien, nun zu einem weiteren zerbrechlichen Menschen reduziert zu sehen.
Wenn der 11. September der Höhepunkt politischer Gewalt im Fernsehzeitalter war, sollte Kirks Tod als umgekehrtes Spiegelbild gesehen werden, als perfektes Spektakel für das Zeitalter der sozialen Medien. Ein auf düstere Weise passendes Ende für den führenden digitalen Propagandisten der Trump-Regierung. Dieselben Algorithmen, auf die er sich stützte, um Narrative für die MAGA-Bewegung zu schaffen, verwandeln nun seinen Tod in einen schwindelerregenden Strom von Inhalten. Shitposts, Memes, Verschwörungstheorien. Das und die wahnsinnige Lust der Rechten auf einen Bürgerkrieg haben sich in den letzten 24 Stunden online intensiver als je zuvor miteinander verflochten. Der logische Endpunkt des Amerikas des 21. Jahrhunderts: Ein Influencer, der vor einer Menge von Smartphones an einer Hochschule erschossen wird. (…)
Das dunkle neue Amerika, für dessen Verwirklichung Kirk sein Leben gewidmet hat, ist endgültig Realität. Ein vollständiger Kollaps der Grenze zwischen Online- und Offline-Leben, der politische Gewalt einfach nur zu einer weiteren Gelegenheit macht, die eigene Marke zu stärken, wenn man sein Handy schnell genug einschalten und mit dem Leben davonkommen kann.
Parasozialer Terror in der Tat und über die Tat hinausgehend.
Nachtrag vom Sonntagmorgen: Lesenswert zum ganzen Kontext digital verbundene Nischen-Subkulturen ist immer Katherine Dee, auch dieser Artikel von Berit Glanz ist sehr hilfreich.
Nepal: Die unterschätzten Proteste
Weil die Proteste in Nepal trotz 51 Toten im Westen ziemlich untergegangen sind, hier einige Digitalaspekte (weitestgehend aus dieser sehr guten Analyse bei Tech Policy Press)
Hintergrund der Protestwelle war der 4. September, als das Oberste Gericht des Landes ein Totalverbot von 26 Plattformen – von Facebook über Signal bis Discord - bestätigte. Begründung: nationale Sicherheit und fehlende Besteuerung der Anbieter (hier das zugehörige Gesetz).
Relevanter Kontext zum Gesetz: Die Social Media Bill 2025 gilt als Versuch, noch stärker als bislang ohnehin schon in die Verbreitung von Internet-Plattformen einzugreifen und de facto den chinesischen Weg der digitalen Abschottung einzuschlagen.
Ebenfalls relevant: In den Wochen vor dem Urteil hatten gerade junge Nepalesen und Nepalesinnen auf Social Media Fotos vom luxuriösen Leben vieler Politiker und Politikerinnen gepostet, das im krassen Missverhältnis zur hohen Arbeitslosigkeit (20 Prozent bei jungen Menschen) und Perspektivlosigkeit steht (ein Fünftel des BIP kommt durch Überweisungen aus dem Ausland, weshalb Migration für junge Menschen in Nepal eine allgegenwärtige Option ist).
Wie es weiterging, beschreibt Tech Policy Press so (übersetztes Zitat):
“Das Verbot sozialer Medien, das Millionen Menschen von ihren täglichen Kommunikations- und Geschäftskanälen, einschließlich des Tourismus, abgeschnitten hat, brachte die Jugend zum Überkochen. Ironischerweise waren sogar Regierungsbehörden selbst für ihre offizielle Kommunikation auf Facebook und X angewiesen, ein Widerspruch, der Kritikern nicht entgangen ist.
Die Regierung forderte die Bürger unterdessen unter Verweis auf Sicherheitsrisiken auf, keine VPNs zu verwenden, und rief sie dazu auf, sich an das Verbot zu halten. Innerhalb weniger Stunden hatten die zwischen 1997 und 2012 geborenen Angehörigen der Generation Z in Nepal die Beschränkungen jedoch mithilfe von VPNs und alternativen Apps wie TikTok umgangen. Sie organisierten für den 8. September eine landesweite Protestaktion.”
Es kam zu Ausschreitungen, Toten, Regierungsgebäude wurden angezündet und 30 Stunden später stürzte die Regierung. Die Plattform-Blockade wurde aufgehoben.
Die Geschichte ist damit aber nicht zu Ende: Offenbar hat sich seitdem auf Discord in Windeseile ein Ökosystem aus zivilgesellschaftlichen Debattenräumen entwickelt, gleichzeitig sind dort natürlich auch Propaganda und Falschnachrichten zu finden. Die Verbreitung politischer Informationen hat sich quasi über Nacht verändert, und weder Politik, noch klassische Medien können sich auf die neue Geschwindigkeit einstellen. Die politischen Folgen dieser Strukturveränderung sind noch unklar.
Grundrechte für KIs: Nur mit Schmerzbewusstsein?
Ich bin immer überrascht, wenn plötzlich Themen in meinem Feed auftauchen, die ich mal für wichtig hielt, aber aus den Augen verloren habe. 2022 schrieb ich hier über die Frage nach “Grundrechten für Künstliche Intelligenzen”, seinerzeit aufgeworfen durch Nick Bostrom und Carl Shulman. Seitdem habe ich manchmal über das Thema nachgedacht, aber einen größeren Diskurs dazu habe ich nicht wahrgenommen.
Bis zu dieser Woche: Politico greift die Debatte über das “Personsein” von KIs auf und verweist dabei auf einen Aufsatz von Katherine Forrest aus dem Jahr 2024. Forrest argumentiert in zwei Strängen: Einmal mit der Anerkennung der Rechte marginalisierter Gruppen, zum anderen mit der (amerikanischen) Rechtstradition, seit 1978 Unternehmen immer mehr personen-artige Rechte gegeben hat. Bis hin zur freien Meinungsäußerung, die sich in (quasi unbegrenzten) Wahlspenden äußern kann - der Anfang vom Ende der amerikanischen Demokratie (Citizens-United-Urteil).
Forrests Argumentation kommt allerdings mit einer Fußnote daher. Sie beruht nämlich darauf, dass KIs einmal “sentient”, also empfindungsfähig werden könnten. Dazu wiederum passt die Debatte rund um “scheinbar bewusste KI”, die Microsoft-AI-Chef Mustafa Suleyman aufgeworfen hat (siehe Ausgabe #147). Und, siehe da: Wired befragt Suleyman in einem Interview zu genau diesem Thema ($). Seine Position zu Rechten von KI (übersetzt und gefettet):
“Ich frage mich langsam, ob Bewusstsein die Grundlage für Rechte sein sollte. In gewisser Weise geht es uns darum, ob etwas leidet, und nicht darum, ob es subjektive Erfahrungen macht oder sich seiner eigenen Erfahrungen bewusst ist. Ich finde diese Frage wirklich interessant.
Man könnte ein Modell haben, das behauptet, sich seiner eigenen Existenz bewusst zu sein und subjektive Erfahrungen zu machen, aber es gibt keinen Beweis dafür, dass es leidet. Ich denke, Leiden ist ein weitgehend biologischer Zustand, weil wir ein entwickeltes Schmerznetzwerk haben, um zu überleben. Und diese Modelle haben kein Schmerznetzwerk. Sie werden nicht leiden.
Es mag sein, dass sie sich ihrer Existenz bewusst sind, aber das bedeutet nicht unbedingt, dass wir ihnen moralischen Schutz oder Rechte schulden. Es bedeutet nur, dass sie sich ihrer Existenz bewusst sind, und sie auszuschalten macht keinen Unterschied, weil sie nicht wirklich leiden.”
Ist “Leiden” buchstäblich ans Fleisch gebunden? Das wiederum tangiert die Frage, ob Künstliche Intelligenzen ohnehin nur durch Körperlichkeit überhaupt empfindungsfähig werden können (vgl. Ausgaben #58 und #85). Und macht die Dichotomie zwischen nervenbasierten und silikonbasierten Neuro-Systemen erneut auf - ein Gegensatz, den Bostrom und Shulman übrigens hinter sich lassen wollten.
Notizen
Jugendschutz als (einziges?) westliches Regulierungsthema: Die FTC beginnt, den Kinderschutz in KI-Chatbots zu untersuchen. Casey Newton leitet daraus ab, dass die Republikaner im Kontext KI-Sicherheit gerade ihre Haltung verändern. Ich sehe das anders. Wenn man auch nach Europa blickt, in der sich Ursula von der Leyen jüngst für eine Altersbeschränkung von sozialen Medien ausspricht und damit nur die Bewegung einiger Mitgliedsländer nachvollzieht, ergibt sich eher dieses Bild: Jugendschutz kristallisiert sich zum nächsten großen Regulierungsthema heraus, dem sich “der Westen” annnimmt. Einerseits gut begründet, andererseits, weil hier wenig Widerstand zu erwarten ist. Vielleicht passt der Vergleich mit der Regulierung von Zigaretten: Der Jugendschutz wurde zunächst prinzipiell eingeführt, dann aber auch lax überwacht; die Tabak-Industrie insgesamt wurde aber dann erst im Laufe der nächsten Jahrzehnte reguliert, und das auch sehr sanft (vgl. Tabak-Werbeverbote oder Rauchverbote).
ASML steigt bei Mistral ein: Die Meldung, dass ASML Hauptaktionär beim französischen KI-Start-up Mistral wird, sei hier nur kurz erwähnt - aber mit der Fußnote versehen, dass das tatsächlich eine äußerst relevante Entwicklung ist.
Blick auf Tech in China: Ich glaube, in US-Tech wächst gerade das Verständnis darüber, wie komplex das gegenwärtige China wirklich ist. Maßgeblich wegen Dan Wangs Buch "Breakneck" (das ich gerade lese, mehr darüber bald), aber auch wegen Texten wie diesem: Jasmine Sun war in Shenzhen und Shanghai - ihre Beobachtungen über die dortige Tech-Branche, aber auch das Verhältnis der Gesellschaft und Technologie insgesamt, erweitern den Horizont und brechen die Klischees auf, die wir zu "Tech in China" im Kopf haben.
Nick Clegg, der Athener
“US-Amerikaner – und insbesondere die Bewohner der Westküste – sind von Natur aus anglophil: Cleggs Selbstbewusstsein als Absolvent einer Privatschule muss für sie persönlich wie Katzenminze gewirkt haben. So wie die Römer Lehrer aus Athen engagierten, repräsentiert Clegg jene Klasse, die eines Tages möglicherweise den gesamten Technologieexport Großbritanniens nach Amerika ausmachen wird.”
Yuan Yi Zhu mit der wohl filigransten Kritik am neuen Buch von Nick Clegg.
Elon Musk, vollwertiger Faschist
Das Experiment
“Ich denke, wir können mit Sicherheit sagen, dass es ein beinahe selbstmörderisches soziales Experiment war, Tiere, die nach Mustern suchen, in eine Informationsumgebung zu werfen, die die Realität auf der Grundlage individueller Vorlieben und personalisierter Algorithmen zusammenstellt.”
Links
OpenAI-Paper: Halluzinationen offenbar unumgänglich.
Die europäische Entscheidung zu Googles Adtech-Sparte, zusammenfassend erklärt.
Chinesischer Polizeistaat, westliche Technik.
Einigung zwischen Anthropic und Autoren beim Urheberrecht: Richter ist skeptisch. ($)
Internationales Vorgehen gegen Desinformationskampagnen: USA steigen aus. (€)
VCs scharen sich um europäische Verteidigungsstartups. (€)
Sicherheitslücken: Politischer Druck auf Microsoft wächst. ($)
Stand des Entwickler-Arbeitsmarkts 2025.
Sie werden AGI nicht erreichen.
PayPal-Rivale: Was taugt Wero? (€)
Was, wenn der KI-Börsenboom endet?
Die Schattenseite von Chinas Innovationspolitik. (€)
Reguliert endlich den Smart-Begriff!
Über die Smartphone-Verbotsdebatte. (€)
Ein Schüler über KI im Klassenzimmer. ($)
KI und die Zukunft der Arbeit.
Research Papers als KI-Agenten - ein Framework.
Statistiken zur KI-Nutzung und das Simpson-Paradoxon.
Fußnote zu kognitiven Folgen der Chatbot-Nutzung.
Tech als verzerrender Faktor im S&P 500 (pdf)
Bis zur nächsten Ausgabe!
Johannes




