Aus dem Internet-Observatorium #115
Chrome und die Google-Entflechtung / KI: Ende des "größer ist besser"?
Hallo zu einer neuen Ausgabe! Da ich derzeit - und in den kommenden Monaten - mit dem politischen Tagesgeschäft mehr als ausgelastet bin, wird das Format immer mal wieder in verschlankter Form erscheinen: Eher kurze Gedanken und Überblicke statt längerer Kontext-Stücke und Überlegungen.
Google und die Chrome-Entflechtung
Als im August ein US-Bundesgericht Google ein illegales Suchmonopol bescheinigte, war ich skeptisch (siehe Ausgabe #103). Zumindest bei der Frage, ob die ins Auge gefassten Lösungen wirklich für eine Entflechtung des Marktes sorgen.
Das US-Justizministerium hat sich nun für eine Lösung entschieden, um Abhilfe zu schaffen: den Zwangsverkauf von Chrome (und weitere Schritte wie eine Pflicht zur Datenlizenzierung an Konkurrenten und KI-Vereinbarungen mit Verlagen). In Bloomberg schätzt ein Analyst, dass Chrome, immerhin meistgenutzter Browser der Welt, zwischen 15 und 20 Milliarden Dollar wert sein könnte.
Bei der Umsetzung stellen sich natürlich Fragen. Zuvordererst, wer das Geld überhaupt aufbringen könnte und nicht bereits selbst ein marktmächtiger Tech-Konzern wie Meta oder Apple ist (und damit vermutlich aus Wettbewerbsgründen gar keine Kaufgenehmigung erhalten würde).
Chrome selbst bringt keine großen Einnahmen: Die Software ist bislang - wie alle anderen Browser auch - kostenlos, die Revenue-Sharing-Deals mit Hardware-Herstellern dürften auf Einnahmen aus der Google-Suche beruhen.
Die eigentliche Rolle von Chrome ist die eines Systembausteins in der Google-Fabrik zur Datenverarbeitung: Einerseits zur Verbreitung der Google-Suche, auf der anderen Seite Data-Mining für passgenauere Werbeanzeigen. Zitat Ben Thompson ($, übersetzt und gefettet):
“Der Besitz eines Browsers ist ein bisschen wie der Besitz eines Betriebssystems, wenn es um das Web geht. Der Browser muss alle Daten verarbeiten, die kommen und gehen, einschließlich der Entschlüsselung verschlüsselter Daten. Er gehört zu den Programmen, denen Sie als Nutzer absolutes Vertrauen schenken müssen. Es ist unklar, welche Daten Google daraus gewinnt oder wie es Proxys Ihrer Surfgewohnheiten erstellt, um das Sammeln von Informationen plausibel abstreiten zu können, aber es steht außer Frage, dass Chrome ein wichtiger Aktivposten für Googles Geschäft ist. Zumindest stellt es sicher, dass die Google-Suche im Vordergrund steht, ohne dass es Kosten für die Akquisition von Datenverkehr gibt.”
Der Wert von Chrome als alleinstehende Software ist also weitaus geringer als im Kontext eines integrierten werbebasierten Datengeschäftsmodells.
Ein weiterer Punkt für die praktische Umsetzung: Wie würde das bei einer Abspaltung mit dem Datentransfer ablaufen? Denn die Chrome-Daten sind ja in vielen Fällen mit einem Google-Account verknüpft.
Es kristallisieren sich also zwei Punkte heraus, die bei Aufspaltungen von Tech-Firmen häufiger auftauchen dürften: Der Wert eines bestimmten Produkts kann deutlich sinken, sobald es aus dem bisherigen (Daten-)Kontext herausgelöst wird. Und: Die Vernetzung der verschiedenen Datenbanken (hier: Daten aus der Chrome-Nutzung und Google-Account) verkompliziert sowohl die Wertschöpfung der unabhängig gewordenen Einheit, als womöglich auch die technische Umsetzung der Aufspaltung.
Nachgelagert ist nebenbei offen, was mit Chromium passiert, das quelloffen ist und bislang von Google entwickelt und finanziert wird, aber die Grundlage der meisten Browser von Microsoft Edge bis Arc bildet. Und natürlich steht auch die Zukunft von Mozilla in Frage, jetzt da Google absehbar nicht mehr für den Firefox-Default bezahlen darf.
Würde eine Chrome-Abspaltung also helfen, die Marktdominanz im Suchbereich zu verändern? Ein bisschen, aber im Prinzip würde Google vor allem dadurch geschwächt, dass es im Werbegeschäft weniger Einstiegs- und Datenpunkte zur Verfügung hat. Per se entsteht daraus noch kein Wettbewerb.
Deshalb scheint die Pflicht zur Daten-Lizenzierung tatsächlich das interessantere Instrument, um für mehr Wettbewerb zu sorgen. Hier warte ich aber mit einer Bewertung, bis konkretere Informationen vorliegen.
KI an den Grenzen des “größer ist besser”?
Wie Bloomberg unter Berufung auf Firmenkreise berichtet, stoßen OpenAI, Anthropic und Google derzeit an die Grenzen ihrer Entwicklung großer Sprachmodelle (LLMs). Konkret:
OpenAIs für Dezember geplantes Modell “Orion” wird intern nicht für die große Weiterentwicklung von GPT-4 gehalten, die es eigentlich sein sollte. Es wird frühestens Anfang kommenden Jahres veröffentlicht.
Anthropic hat Probleme mit dem Zeitplan für das neue Claude-Modell 3.5 Opus. Auch hier bleibt offenbar der Output hinter den Erwartungen zurück.
Googles nächste Gemini-Version wird intern eher mit Enttäuschung wahrgenommen.
Die Probleme:
Es wird immer schwieriger, neue und hochqualitative Daten zu bekommen.
Die kleinen Verbesserungen, die zu verzeichnen sind, werden mit hohen Entwicklungs- und Trainingskosten teuer erkauft.
Der kostspielige Trainingsprozess ist so angelegt, dass wirkliche Verbesserungen erst ganz am Ende, also nach einigen Monaten, festgestellt werden können. Es gibt also kaum Möglichkeiten, bei dieser Methode einzusparen.
Die Erwartungen sind durch die ersten Jahre der LLMs hoch - und können durch die Upgrades nicht erfüllt werden.
Als eine Alternative gilt die Methode des “Test-Time Compute”, wie sie bereits die GPT-Variante '“o1” (Arbeitstitel “Q*”) verwendet. Modelle erhalten mehr Rechenleistung und Zeit während der Anwendung (also beim "Testen" oder Einsatz), statt im vorherigen Training. Das Ziel ist es, KI-Systeme zu entwickeln, die Probleme schrittweise durchdenken können, anstatt nur auf Basis von Wahrscheinlichkeiten sofortige Antworten zu generieren.
Test-Time Compute ist dabei nicht mit “Reasoning” gleichzusetzen, sondern die technische Voraussetzung, um Kapazitäten für Reasoning-Prozesse zur Verfügung zu haben. Allerdings, siehe Ausgabe #111, gibt es ja Zweifel daran, ob Reasoning-Prozesse Modelle wirklich im Kern besser machen.
Ich kann das fachlich nicht wirklich bewerten. Klar scheint mir, dass die Erzählung von exponentiellem oder sogar nur linearem Fortschritt bei großen Sprachmodellen an ihr Ende geraten ist. Wir sollten aus den jüngsten Meldungen allerdings nicht (linear) ableiten, dass LLMs gerade gegen die Wand fahren. Gerade bei spezialisierten Anwendungsgebieten scheint mir der bestehende technische Stand noch nicht ausgereizt. Und wenn demnächst alle großen Anbieter mit irgendeiner Form von KI-Agenten an den Start gehen (siehe Ausgabe #113), dürfte auch sichtbar werden, ob wir wirklich einen Paradigmenwechsel in der Task-Automatisierung erleben. Und das wäre keine kleine Entwicklung.
So viele Themen, so wenig Zeit
Kurze Gedanken zu aktuellen Entwicklungen.
Digitalpolitik nach der Ampel: Über das Ampel-Aus und die Folgen für die Digitalpolitik müsste ich nochmal ausführlicher schreiben. Nur so viel: es gibt wahnsinnig viel aufzuholen und auch ein paar Dinge aufzukehren. Ob ein Digitalministerium dafür geeignet wäre? Sowohl in den Parteien, als auch in der Bundesregierung wird darüber diskutiert. Ich sehe das Ganze inzwischen etwas positiver, warne aber: Da wären so viele undankbare Projekte im Portfolio (IT-Modernisierung Bund! Verwaltungsdigitalisierung!), dass das wirklich jemand machen müsste, der Interesse am Thema hat. Und nicht nur am Amt.
Der KI-militärische Komplex: Anthropic vereinbart eine Zusammenarbeit mit Palantir für Geheimdienste und Verteidigung, Meta stellt Llama Palantir sowie weiteren privaten und öffentlichen Akteuren aus dem Verteidigungsbereich zur Verfügung. Robert Wright weist in seinem Newsletter darauf hin, dass solche Meldungen weitere Indizien für die Entstehung eines KI-militärischen Komplexes gelten können. Ein wichtiges Thema - nicht erst, seitdem Eric Schmidt und Palmer Luckey Drohnen entwickeln lassen. Ich gehe davon aus, dass diese Form von Verflechtung unter Trump noch zunehmen wird. Die Budgets sind in diesem Falle noch größer als die KI-Versprechungen.
EU, Tech-Regulierung und der Zeitgeist: Luis Garicano hat einen Artikel über Regulierung in der EU geschrieben, der über das übliche LinkedIn-Genörgel hinaus geht und auch Tech umfasst. Mein Eindruck ist, dass ein Zeitgeist für eine gewisse Deregulierung in Europa entstanden ist, wenn auch ohne politische Mehrheiten und Prozesse. Vielleicht befeuert von den Fantasien, die die Kombination aus Trump und Musk auslöst. Oder auch von der Sorge, dass die USA enteilen könnten. Dafür hierzulande im Zweifel auf eine Union/AfD-Koalition zu setzen, ist natürlich bestenfalls naiv, eigentlich armselig.
Bluesky und der kleine X-odus: Die kritische Masse an Nutzern ist bei Bluesky jetzt vorhanden. Als ehemaliger Community-Redakteur verfolge ich natürlich mit Interesse, welche Kultur sich entwickelt. Per se sind ja viele Menschen erst einmal gewechselt, weil sie sich (auch) nach einer Alternative zum reaktionären und ritualisierten X-Schlamm wünschen. Auf der anderen Seite gibt es bestimmte Entwicklungen, die sich durch die Größe ergeben - es wird persönlicher, gereizter, perfomativer. Der Wunsch nach einer “anderen Social-Media-Welt” ist aber offenbar bei immer mehr Menschen vorhanden. Das ist mehr, als ich noch vor ein paar Monaten erhofft hatte.
Links
DMA: Brüssel verhängt 800-Millionen-Strafe gegen Meta.
FTC will sich Microsofts Cloud-Geschäft ansehen. ($)
Dänische Marine stoppt nach Kabel-Kappung in der Ostsee chinesisches Schiff.
X und Desinformation in Ghana.
Datenhandel vs. US-Militärangehörige.
USA und die Überwachung von Regierungskritikern: Möglich unter Trump?
iOS 18.1 und der Reboot-Faktor. ($)
Das iPhone hat die Satzzeichen getötet.
Werbung auf Threads ab 2025. ($)
Bundestagswahl: Das Kreuz mit der Wahlsoftware.
Wie Technologie politische Sprache verändert.
Wie Abnehm-Medikamente Instagram eroberten. ($)
Microsoft: KI soll automatisierte Echtzeit-Übersetzung ermöglichen.
65 Millionen Haushalte sahen Paul vs. Tyson bei Netflix.
Warum The Online Infowars gekauft hat.
Bis zur nächsten Ausgabe!
Johannes