Aus dem Internet-Observatorium #60
Facebooks Einfluss auf politische Haltungen: Überschätzt? / LLMs: In die Nischen gucken? / Der "Haushaltskahlschlag"
Hallo zu einer neuen Ausgabe! Ich hoffe es trägt zur Verständlichkeit bei, dass ich wieder stärker mit Fettungen arbeite (Feedback gerne per kurzer E-Mail-Antwort).
Facebooks Einfluss auf politische Haltungen: Überschätzt?
Vier neue Studien untersuchen am Beispiel der USA den Einfluss, den Facebook und Instagram auf Informiertheit und politischen Haltungen ausüben. Zwölf weitere sollen folgen. Zugrunde liegen Daten, die Meta über die Zeit zwischen September und Dezember 2020 (also rund um die US-Wahl) bereitgestellt hat.
Die New York Times ($), Casey Newton und das Social Media Watchblog (€) haben die Resultate ausführlicher zusammengefasst, ich beschränke mich deshalb auf die Kernaussagen:
Übertriebene Hoffnungen in die chronologische Darstellung: Im Zusammenhang mit Twitter bringe auch ich dieses Argument häufiger vor: Die algorithmisierte Timeline ist Gift für das Diskursklima, weil sie die falschen Anreize setzt (Emotionalisierung, Polarisierung, Provokation).
Metas Daten aus den A/B-Tests aber zeigten: Eine chronologische Anzeige von Inhalten veränderte weder Verhalten, noch die politische Informiertheit, noch die Polarisierung der Betroffenen. Sie bekamen aber mehr Content aus unzuverlässigen Quellen zu sehen. Und (das war bekannt): Der chronologische Feed senkte die Verweildauer.
Allerdings weist die Facebook-Whistleblowerin Frances Haugen darauf hin, dass Meta zum Zeitpunkt der Studie gerade die extremsten Postings unterdrückte (und qualitativ hochwertigere Quellen im Zuge des Wahlkampfs bevorzugte), diese Maßnahmen aber nach der Wahl beendete. Kurz: Der Studienzeitraum erlaubt nicht unbedingt allgemeine Schlüsse.
Kaum Veränderung politischer Haltungen: Facebook/Meta zeigte einer Nutzergruppe während dieser Zeit auch stärker Postings von Menschen mit anderen politischen Haltungen. Der Versuch, die “Filterbubble” aufzubrechen, zeigte aber keine nennenswerte Ergebnisse: Die Menschen änderten weder ihre politischen Haltungen, noch waren sie danach besser informiert.
Ähnliches gilt für die Reshare-Funktion: Das Entfernen von Reshare-Inhalten führte dazu, dass die Menschen deutlich weniger politische Nachrichten und weniger Nachrichten aus unzuverlässigen Quellen sahen. Dafür waren aber die angezeigten Inhalte aber aggressiver. Nutzer gaben allerdings an, dass ihre politische Informiertheit abnahm, wenn sie selbst nicht resharen konnten. Insgesamt hatte das Entfernen der Reshare-Funktion jedoch keinen Einfluss auf politische Haltungen.
Insgesamt aber erscheinen Republikaner homogener darin, dass sie dezidiert ideologische Quellen entsprechend ihrer Vorlieben bevorzugen. Und als Fehl- oder Desinformation" gelabelte Nachrichten konsumierten sie in 97 Prozent der Fälle häufiger als Demokraten. In diesem Zusammenhang bin ich auch auf die Ergebnisse zur Rolle von Facebook-Gruppen bei der Verbreitung von Desinformation und Vorurteilen gespannt.
Was daraus folgt: Erst einmal ist es positiv, dass die Social-Media-Forschung qualitativ arbeiten kann. Die Ausnahmesituation rund um den US-Wahlkampf ist aber womöglich nicht unbedingt repräsentativ. Allerdings scheint sich zum Beispiel inzwischen konstant zu bestätigen, dass die Filterblasen-Theorie Quatsch ist. Das ist eine wichtige Erkenntnis.
Für Social-Media-Forschung gilt aber generell: Die Parameter der Algorithmus-Sortierung ändern sich so oft, dass viele der Ergebnisse bei Erscheinen veraltet sind. Inzwischen werden bei Facebook zum Beispiel grundsätzlich weniger Nachrichteninhalte angezeigt. Ich nehme - trotz Foschungsdaten-Pflicht im Digital Services Act - nicht an, dass wir irgendwann nahe an eine “Echtzeit-Forschung” kommen; so etwas wäre aber tatsächlich wahnsinnig hilfreich.
Vor allem aber, und darauf wurde auch schon hingewiesen: Social Media ist eben nur Teil eines Ökosystems. Beziehungsweise hat es das Ökosystem um sich herum verändert und erschaffen. Um aus dem Social Media Watchblog zu zitieren:
“Clickbait-Überschriften, emotionales Negative Campaigning und die Fokussierung auf virale Snippets sind direkte Folgen der Aufmerksamkeitsökonomie, die maßgeblich durch Plattformen wie Facebook mitgeprägt wurde. Es gibt keinen A/B-Test, um herauszufinden, ob die Welt ohne Social Media besser dran wäre. Klar ist aber: Sie wäre anders und um einige Probleme ärmer. Solche langfristigen Auswirkungen können die Studien nicht messen.”
Nicht nur die zwielichtigen Akteure, wir alle wissen inzwischen, wie das Social-Media-Spiel funktioniert; wie wir unseren Content den Datenbank-Sortierungen anpassen, um ganz oben zu landen und unsere Endorphin-Dosis aus Zugriffen und Likes zu erhalten. Dieser ganze Zusammenhang ist aber nicht gottgegeben, sondern eben ein Resultat der Zehnerjahre.
Im Jahr 2023 ist es wahrscheinlich zu spät, die Wechselwirkungen nachzuvollziehen, die Social Media die spezielle Ausprägung gegeben haben. Das bedeutet: Wenn Facebook, Twitter und Co. zur Polarisierung der Gesellschaft beigetragen haben, wird die wissenschaftliche Beweisführung hierfür immer lückenhaft bleiben.
LLMs: In die Nische gucken?
Stephanie Palazzolo fragt bei The Information ($), wer vom Machine-Learning-Hype profitieren wird. Aufstrebende Start-ups wie OpenAI und Anthropic, Großkonzerne wie Google und Meta oder am Ende Start-ups, die sich bestimmte Nischen suchen?
Daraus wird ein guter Überblick: Investoren haben alleine im Jahr 2022 etwa 12 Milliarden US-Dollar in die größten sechs KI-Anbieter gesteckt. Allerdings ist es aufwändig, General Purpose LLMs zu entwickelt: Forschung, Data Labelling, dazu die benötigte Rechenpower, die entweder hohe Mietkosten oder hohe Anschaffungskosten mit sich bringt. Das Risiko ist also nicht gering, zumal sich parallel die Open-Source-Modelle (siehe Ausgabe #48) als ernstzunehmende Konkurrenz etablieren. Und: Anders als bei der etablierten Konkurrenz ist nicht gesagt, dass die Entwicklung auch von einem fähigen und vernetzten Sales-Team flankiert wird.
Palazzolo diagnostiziert den VCs FOMO, also Herdentrieb-Verhalten, wenn es um XL-Investitionen in völlig am Anfang stehende Firmen wie das französische Start-up Mistral AI geht.
Und sie warnt vor zwei Dingen: Größere Kontextfenster (also Menge an Token, die ein Prompt beinhalten kann) bedeuten nicht automatisch eine bessere Software. Vor allem aber: Die Wette, dass hohe Investitionskosten am Ende in einer markt- oder zumindest segmentbeherrschenden Stellung führen, sei angesichts des bereits jetzt großen Wettbewerbsdrucks eigentlich ziemlich riskant. Auch wenn Experten das Szenario eines Oligopols bei den großen LLMs nicht ausschließen, fühlt sich Palazzolo bei General Purpose LLMs an Crypto- und ähnliche Investment-Hypes erinnert.
Im Kern rät sie, stattdessen einen Blick auf Nischen zu werfen (Übersetzung von mir):
“Die Finanzierung von Entwicklern von Software für andere KI-App-Entwickler und Unternehmen, die kleinere LLMs für spezifische Branchen wie Recht oder Gesundheit entwickeln, scheint im Moment eine sicherere Wette zu sein. Insbesondere wenn sie bereits Kunden haben”
Das klingt in der Tat wie ein sinnvoller Ratschlag.
Verwaltungsdigitalisierung und der “Haushaltskahlschlag”
Mal wieder ein geschicktes Länder-Manöver, federführend von Schleswig-Holstein, in Sachen Verwaltungsdigitalisierung: So meldet die FAZ, dass das Bundesinnenministerium 2024 nur noch drei statt 377 Millionen Euro für die Verwaltungsdigitalisierung ausgeben möchte. “DREI STATT 377!!! UNFÄÄÄÄHIGGG!” lautet das erwartbare Empörungsecho.
Zunächst einmal ist die Zahl schon seit gut einem Monat auf dem Markt, aber so ist das, wenn man wie der Tagesspiegel Background Digitalisierung ein tolles Fachangebot macht, das aber hinter einer Paywall liegt.
Zwei Dinge sind bei der Einordnung wichtig. Erstens: Die bislang hohe Budgetierung spiegelt keinen regulären Wert wieder, sondern wurde in den vergangenen Jahren von hohen Zusatzsummen aus dem Corona-Konjunkturpaket gespeist. Und zweitens: Ein Teil der benötigten Mittel fällt weg, weil der Bund mit der Entwicklung seiner OZG-Leistungen (also der Frontend-Digitalisierung von Anträgen für Bundesleistungen) bis Ende des Jahres weitestgehend fertig sein wird. Durch Ausgabenreste kommt das BMI am Ende des Tages 2024 trotzdem noch auf gut 300 Millionen Euro.
Geld zusammenkratzen ist natürlich keine strategische Finanzplanung, wie ich bereits in meinen eigenen Notizen zum Haushaltsentwurf (Ausgabe #56) generell zur Digitalisierungsfinanzierung geschrieben habe. Aber es ist in diesem Fall auch Taktik.
Der Bund zieht sich (übrigens nicht nur bei der Digitalisierung) auf die Haltung zurück: “Den Ländern, was der Länder ist”. Heißt: Wenn ihr eure Verwaltungsaufgaben digitalisiert, müsst ihr das auch selber bezahlen. Das war zu Zeiten des Konjunkturpakets bekanntlich völlig anders, da konnte der Bund schön Geld verteilen.
Das ist jetzt vorbei. Und das finden die Länder natürlich gar nicht gut, selbst wenn sie Frontend-Software voneinander übernehmen dürfen (“Einer-für-alle-Prinzip”, kurz Efa). Denn sie müssen ja meistens auch die Kommunen beim Rollout vor Ort finanziell unterstützen, dazu kommt die bislang nur grob geklärte Frage, wie man den Betrieb mittelfristig auf sichere finanzielle Beine stellt. Entsprechend macht man jetzt Druck.
Beide Seiten bauen also eine Verhandlungsposition auf. Denn natürlich wird das Thema OZG-Finanzierung im zweiten Halbjahr wieder auf den Tisch des IT-Planungsrats kommen, in dem Bund und Länder über die Verwaltungsdigitalisierung sprechen. Vielleicht wandert es dieses Mal auch eine oder sogar zwei Ebenen höher.
Das Dilemma dabei: Die OZG-Verwaltungsdigitalisierung und dann im nächsten Schritt die Registermodernisierung, also die vollständige Digitalisierung der Verwaltungsvorgänge, wird absehbar viel Geld verschlingen. Ohne die Garantie, dass mehr Geld die Sache besser macht, wie wir in den vergangenen Jahren erlebt haben.
Bund und Länder aber sind wieder an die Schuldenbremse gebunden. Was ganz praktisch ist, wenn man die Verantwortung für die Unterfinanzierung abwälzen möchte (Fame gibt es bei diesem Nachhol-Thema sowieso nicht zu gewinnen). In der Praxis führt diese Verhandlungslage aber bei den Digitalisierungsprozessen zu Planungsunsicherheit und Verzögerungen.
Meine Sorge wächst deshalb, dass durch die neue Haushaltsrealität die Wahrscheinlichkeit sinkt, das Thema mal für zwei, drei Jahre abzuräumen. Dabei wäre das eine wichtige Voraussetzung dafür, jetzt einfach mal geräuschlos und flächendeckend umzusetzen.
Gleichzeitig hoffe ich ein bisschen auf den neuen IT-Staatsvertrag: Dort soll ein gemeinsames föderales Digitalisierungsbudget verankert werden, das mehrjährige Projekte planungssicher macht. So wie ich das verstehe, muss aber noch jeweils ausverhandelt werden, wie genau das Budget befüllt wird und was damit finanziert wird. Und: Das Update für den IT-Staatsvertrag wird erst 2025 in Kraft treten.
Erwähnenswertes
KI-Podcast: Der Deutschlandfunk hat mit “KI verstehen” einen Podcast zum Thema Künstliche Intelligenz gestartet. Ich bin natürlich befangen, fand aber die erste Folge auch objektiv gut und vielversprechend. Hier entlang zum Reinhören.
McKinsey Zuck: Business Insider hat ein längeres Feature zu den Entwicklungen bei Meta. Genauer gesagt: Über Mark Zuckerbergs neuen Management-Stil, der nach ausgiebiger Beratung von Bain Capital vor allem auf Zahlen guckt (“McKinsey Zuck”). Es sind ein paar interessante Infos zur Organisationskultur drin: Nur noch wenige Manager in Zuckerbergs engstem Kreis (“Small Circle”) haben überhaupt Arbeitserfahrung außerhalb Facebooks. Und: CTO Andrew Bosworth ist offenbar nicht mehr der engste Vertraute, sondern wegen der trägen Metaverse-Entwicklung in Ungnade gefallen.
ActivityPub: Dave Winer (Erfinder von RSS) und Manton Reese (Entwickler von micro.blog) tauschen in ihren Blogs Gedanken zur Weiterentwicklung von Activity Pub aus, dem Protokoll, auf dem Mastodon basiert. Dabei geht es auch darum, dass ActivityPub trotz ordentlicher Dokumentation offenbar ziemlich komplex zu implementieren ist. Mantons Kernfrage lautet deshalb:
“Wie können neue Entwickler ActivityPub implementieren, ohne das Gefühl zu haben, dass sie jeden vorhandenen Server reverse engineeren?”
Dabei geht es auch um Interoperabilität der verschiedenen Server auf dem Level des Protokolls (also mittels API). Offensichtlich ist in Sachen Dokumentation, Standard-Codeschnipseln und automatischen Test-Abläufen noch einiges an Arbeit nötig, um wirklich von einem “Standard” für dezentrales Social Media zu reden.
Links
Cash für Iris-Scans: (Anekdotisch) großes Interesse an Worldcoin, aber Kenia hat Orbs vorerst verboten.
Eine Zusammenfassung von KI-Anhörungen im US-Kongress.
Google will sein Assistenzsystem stärker im Kontext KI ausrichten
Neue Start-ups arbeiten sparsamer
FraudGPT - generative KI für Phishing und Malware
X-Twitter doing X-Twitter-Things ($)
4chan-Jargon und die jungen Reaktionären ($)
Podcast: Yancey Strickler zu Gast bei Joshua Citarella
“Padam Padam” und virale TikTok-Strategien 2023
BMDV und Zoll schließen bekannte IT-Sicherheitslücke erst nach Medienhinweisen.
Bis nächste Woche!
Johannes