Aus dem Internet-Observatorium #94
OpenAI: GPT-4o und die Strategie / Wohin treibt die Firma? / Das "Her"-Fiasko
Hallo zu einer neuen Ausgabe! Nach der Pause bündele ich ein paar Dinge zu OpenAI. Wer die Tech-Entwicklungen verfolgt, dürfte hier viel Bekanntes finden. Kommende Woche geht der Blick dann wieder eher nach vorne.
OpenAI 1: GPT-4o und die Strategie
Einen Tag vor Googles Entwicklerkonferenz I/O schob OpenAI eine Produktpräsentation ein. Statt wie von einigen erhofft GPT-5 stellte man GPT-4o (o wie “omni”) vor, die eine Verschiebung des Produktfokus hin zu einer Assistenzsoftware mit emotionaler Sprach-Ebene darstellt. Über OpenAI und auch die “Her”-Debatte schreibe ich noch etwas weiter unten etwas, deshalb möchte ich mich auf die Interpretation des Updates beschränken.
GPT-4o zeigt, wie viel die Verringerung von Latenz in der Kommunikation mit Computern ausmachen kann.
Die Entwicklung zu voller Multimodalität (Verarbeitung von Text, Bilder, Audio und Video) setzt sich fort - die Grundlage für KI-Systeme, die wirklich “intelligent” und “wahrnehmend” wirken.
Die Veröffentlichung von GPT-4o (und die Freigabe nicht nur für Bezahlnutzer) signalisiert, dass OpenAI versucht, möglichst schnell das “Interface der Zukunft” zu besetzen. Denn das KI-Zeitalter verspricht Monopolrenditen für diejenigen, die sich zwischen Nutzer und das (ehemalige?) Internet setzen. Und OpenAI muss das Ganze erst einmal ohne eigene Hardware versuchen, ist also auf einen Vorsprung in der Software-Adaption angewiesen.
Sinnvolle Interpretationen zur Bedeutung von GPT-4o lauten auch: OpenAI hat Probleme, GPT-5 zur Marktreife zu entwickeln - zum Beispiel, weil die Wirkung stärkerer Rechenkraft keine ausreichenden Effekte mehr zeigt (siehe Gary Marcus). Das Emo-Schauspiel, eine KI-”Persönlichkeit” einzuführen, ist insofern und auch angesichts der weiterhin relativ hohen Fakten-Fehlerquote nur konsequent: “ChatGPT ist jetzt besser denn je darin, so zu tun, als wäre es etwas, das es nicht ist.” (siehe John Herrman)
Und natürlich hängt an dem Assistenzszenario auch einmal mehr die Frage, ob hier nicht eine Form von Reibungslosigkeit entsteht, die für unsere - teilweise technologisch getriebenen - anti-sozialen Entwicklungen eine technologisch-getriebene Ersatz-Lösung präsentiert. Ambient Computing, 24/7. Zitat aus der Ausgabe #41:
“Die digitale-vermittelte Unterhaltungswelt unserer Gegenwart wäre damit die Vorstufe einer digitalen Welt in einem Sinne, der so bis vor kurzem noch nicht absehbar war: Nicht nur software-vermittelt, sondern synthetisch. Nicht zwischenmenschlich, sondern mensch-maschinell.”
OpenAI 2: Wohin treibt die Firma?
Sieben hochrangige Akteure aus dem Sicherheitsteam haben OpenAI zuletzt verlassen:
Ilya Sutskever
Jan Leike
Leopold Aschenbrenner
Pavel Izmailov
William Saunders
Daniel Kokotajlo
Ryan Lowe
Zvi Mowshowitz hat die Reaktionen auf die Abgänge, von denen zuletzt die von Sutskever und Leike medial mit Interesse rezipiert wurden, zusammengefasst. Letztlich erscheint es so, als hätte Sam Altman nicht nur Kritiker aus dem Weg geräumt, sondern das Superalligment-Team mehr oder weniger aufgelöst. Jenes Team also, das im Kern dafür sorgen soll, dass die KI trotz wachsender Fähigkeiten weiterhin die Ziele verfolgt, die Menschen ihr vorgeben.
Ob diese Abgänge auf eine existentielle Art beunruhigend sind, hängt davon ab, ob man daran glaubt, dass eine Artificial General Intelligence einmal a) existieren wird und b) leistungsfähig genug sein wird, Ziele unabhängig und womöglich gegen die Interessen der Menschen zu verfolgen. Beunruhigend sollte auf jeden Fall, dass das Thema Sicherheit bei OpenAI womöglich ab sofort eher klein geschrieben wird.
Rein organisatorisch erscheint Altman inzwischen in einer Zuckerberg-artigen Machtposition zu sein (wobei hier natürlich Microsoft als mögliche Kontrollinstanz fungieren könnte, solange OpenAI die Rechen-Credits noch braucht). Und seine Äußerungen zu “Universal Basic Compute” (Rechenleistung für alle statt Geld) lassen erahnen, dass Altman ähnlich weit weg, wenn nicht sogar weiter weg von der Realität und ethischem Bewusstsein als Zuckerberg ist.
Als ich im vergangenen Frühjahr die Altman-Porträts in der New York Times und dem Wall Street Journal gelesen hatte, beschlich mich das Gefühl, das irgendetwas mit Altman nicht stimmt. Eine Form von missionarischem Eifer, kombiniert mit großer Distanz zu den Problemen und Fragen des Mensch-seins ist allerdings in der Tech-Branche nicht ungewöhnlich.
Ich bin vorsichtig mit Bewertungen von Firmen anhand von Zeitungspsychogrammen ihrer Chefs; aber nach all dem was seitdem passiert ist habe ich den Eindruck, hier geht es nicht nur darum, dass jemand wie er nicht die Verantwortung für eine solch folgenreiche Software erhalten sollte. Sondern dass hier jemand ohne Zögern jedes Stoppschild überfahren wird, wenn niemand ins Lenkrad greift.
Das Fehlen an “Vertrauenswürdigkeit”, mit dem das OpenAI-Board damals seine Entlassung begründete, scheint das Problem passend, aber nur oberflächlich zu beschreiben.
OpenAI 3: Das “Her”-Fiasko
Was bei Scarlett Johansson vs. OpenAI passiert ist, lässt sich zum Beispiel hier kurz nachlesen und hier in der rechtlichen Analyse. Ich will gleich in die Interpretation einsteigen.
Die Imitation der Stimme aus “Her” zeugt von einer wahnsinnigen Fantasielosigkeit. Aber folgt natürlich einem bekannten Muster, das in diesem Aufsatz ganz interessant theoretisiert wird: Die Frauenstimmen von Cortana, Siri oder Alexa sind nach dem Modell von Sekretärinnen geformt, die Vertrauenswürdigkeit ausstrahlen. Als “KI-Sekretärinnen” kommt solchen Systemen aber auch die Rolle zu, Daten der Nutzer zu extrahieren. Übersetztes Zitat (mit Fettungen):
“Wenn immer mehr Menschen KI-Sekretärinnen nutzen, wird ihre Macht weniger von technologischen Entwicklungen als von der sozialen Gestaltung der Systeme herrühren, die uns dazu einladen, ihre Macht zu vergessen, weil sie sich in nicht bedrohliche weibliche Tropen einfügen. Die überwachende Arbeit von KI-Sekretärinnen ist weder ein Orwell’sches Spektakel der Kontrolle noch ein dramatisches, einmaliges Geständnis. Vielmehr geht mit der Normalisierung der KI-Technologien eine alltägliche und kontinuierliche Datenübermittlung einher, die dazu führt, dass die Unternehmen, die die Geräte entwickeln, mehr über uns wissen als wir über uns selbst.”
Dass die Stereotypisierung von weiblichen Assistenzstimmen zwischen 2017 und 2020 zurückgegangen ist, erscheint bei diesem Extraktionsszenario nur ein schwacher Trost.
Ein zweiter Punkt, den ich noch erwähnen möchte, ist der Eindruck, den die Tech-Konzerne wieder einmal hinterlassen: Kombiniert man die Stimm-Immitation von OpenAI mit der jüngsten Apple-Werbung zum iPad, ergibt die das Bild von Unternehmen, die selbst in der Öffentlichkeitsarbeit ihr Gespür verloren haben. Und sich dadurch als die Systeme zur Kapital- und Produktionsmittelakkumulation entlarven, die sie am Ende sind.
In einer Zeit, in der auch noch das Web für das Training von KI-Modellen abgesaugt wird und mit Hilfe neuer Ebenen wie Googles KI-Antworten marginalisiert zu werden droht, verstärkt sich täglich der Eindruck: Die Entwicklung der gängigen Digitaltechnologien zur vollständigen Extraktionsmaschine beschleunigt sich.
Links
Signalling System 7: Warum es viel zu einfach ist, den Mobilfunk zu hacken. (€)
Recht auf ein Leben ohne Digitalzwang.
Fünf Arten, wie Kriminelle KI nutzen. ($)
Palantirs und Eric Schmidts Konferenz zur KI-Kriegsführung.
Konrad Lischkas Zwischenfazit zu 30 Jahren digitaler Gesellschaft.
Die Toiletten-Theorie des Internets. ($)
Microsoft: KI-Partnerschaften lassen Emissionen um 30 Prozent steigen.
Die Recall-Funktion bei Windows ist ein Sicherheitsrisiko.
NGOs weisen Meta in Indien nach, bei Hassbotschaften in Wahlwerbung nicht so genau hinzuschauen.
DeepL wird jetzt mit zwei Milliarden US-Dollar bewertet.
Neue Technologien und die Sorge, wie sie unser Menschsein verändert.
Bis zur nächsten Ausgabe!
Johannes