Aus dem Internet-Observatorium #85
Die Komplexität von KI-Robotern / Online-Schweigen, Debunking, KI-Rechenkraftregulierung / Europas Spyware-Problem
Hallo zu einer neuen Ausgabe! Wer nicht gleich mit den komplexeren Geschichten einsteigen möchte, sollte diese Ausgabe wahrscheinlich am besten von hinten nach vorne lesen.
Die Komplexität von LLM-Robotern
“Es entsteht gerade eine große Zahl von Robotikunternehmen. Es gibt Lagerrobotik, chirurgische Robotik und humanoide Robotik, alle möglichen wirklich interessanten Robotikunternehmen, Agrarrobotikunternehmen.“
Diese (übersetzte) Aussage stammt aus dem Analystengespräch von Nvidia-Chef Jensen Huang. Nvidia ist das Unternehmen der Stunde, weil seine Chips für die Entwicklung von KI-Anwendungen zentral sind - Chips, die offenbar auch für Robotik-Anwendungen gefragt sind.
Was die Frage aufwirft: Ist es eine gute Idee, große Sprachmodelle (LLMs) in Roboter einzubauen? Der Scientific American hatte dazu jüngst eine längere Geschichte, in der die Komplexität klar wird: Denn Roboter agieren bislang mit festgelegten Aktionen und nur sehr rudimentärem Sensor-Input aus der Umwelt.
LLMs wären deshalb als Erweiterung/”Gehirn” geeignet, weil sie mit multimodalem Input zurechtkommen, also verschiedenen Formen von Information. Sie könnten Eingaben interpretieren, Handlungen planen und letztlich sogar Argumente für oder gegen Handlungen abwiegen (in ihrer beschränkten LLM-Weise, natürlich).
Das Haken: Die LLM-Roboter müssten komplexe semantische Konzepte zuverlässig in physische Handlungen innerhalb der physischen Welt umsetzen. Dafür müsste ihre Sensorik feiner und die Mechanik vielseitiger werden als bislang. Die “Sturheit der Dinge” führt heute dazu, dass ein Roboter, der eine Orange schneiden kann, bei einem Apfel bereits scheitern kann. Von Befehlen wie “Koche mir Spaghetti” ist ein Roboter noch weit weg, selbst mit LLM-Gehirn.
Eine Möglichkeit ist, das “Gehirn”, also das Software-System, an die Fähigkeiten des Roboters anzupassen. Forscher an der University of Southern California fanden zum Beispiel heraus, dass natürliche Spracheingabe von LLMs weit weniger gut funktionierte als eine “Übersetzung” der Befehle in die Programmiersprache Python. Wir sind also wieder bei Software-Compilern angelangt.
Google-Forscher wiederum verbanden die Sprachbefehle mit einer Liste von Tätigkeiten, die ein Roboter ausführen konnte und die die Software je nach Erfolgsaussicht priorisierte. “Bring mir Wasser und einen Snack” führte dazu, dass der Roboter die machbarste Tätigkeit (ein Wasser holen) ausführte, dann die zweit-einfachste Tätigkeit (einen Apfel holen). Allerdings, so bedauern die Forscher, sei man noch weit davon weg, dass ein Roboter auf implizite Sprechakte reagiert (z.B. “Ich habe nicht gut geschlafen, kannst Du mir helfen?” und der Roboter bringt einen Kaffee).
Zugleich gibt es bestimmte Fortschritte im so genannten Meta-Learning - LLM-Roboter konnten Werkzeuge wie ein Brecheisen richtig herum halten, obwohl sie das Werkzeug zuvor nicht kannten.
Allerdings sind LLMs im Moment - und vielleicht noch auf lange Zeit - sehr unzuverlässig, zeigen unerwartetes Verhalten. Die Frage, ob Roboterkörper deshalb wirklich mit LLMs ausgestattet und mit Menschen interagieren sollten, ist deshalb nicht trivial. Umgekehrt gibt es - siehe Ausgabe #58 - in Teilen der Forschung durchaus den Wunsch, KI einen Körper zu geben, weil nur eine Verkörperung wirkliche “Intelligenz” möglich macht.
Wir sind noch weit weg von einem Durchbruch, ich bin aber sehr gespannt auf die Paper und Systeme, die wir in den nächsten zwölf bis 18 Monaten sehen werden. Einen guten Überblick mit dem Stand Ende 2023 gibt dieses Paper.
Drei Paper
Einige Konzeptpapiere und Studie aus den vergangenen Wochen, die ich interessant fand.
Online-Schweigen: Warum wir nichts gegen Fehlinformationen tun
Dieses Paper aus der Zeitschrift Technology in Society fragt, warum Nutzer und Nutzerinnen Desinformation/Fehlinformationen stehen lassen und sich nicht zu Wort melden, um auf die Tatsachen hinzuweisen. Grundlage ist eine Umfrage unter Facebook-Nutzerinnen und Nutzern in Großbritannien.
58,8 Prozent der Befragten gaben an, keine Gegenkommentare bei Falschinformationen zu posten. Bei 18- bis 24-Jährigen waren es sogar 75 Prozent. Menschen ab 45 hinterfragen am ehesten öffentlich Desinformation, ein Uni-Abschluss erhöht die Wahrscheinlichkeit, sich zu Wort zu melden.
Insgesamt macht die internationale Forschergruppe 20 Kriterien aus, die Wortmeldungen beeinflussen beziehungsweise behindern. Die wichtigsten Faktoren sind soziale Bedenken, Überlegungen zu Aufwand/Interesse, prosoziale Absichten und inhaltsbezogene Faktoren. “Soziale Bedenken”, also die Vermeidung von Konflikten und der Wunsch, gut dazustehen, spielten dabei eine wichtige Rolle; ebenfalls sehr relevant sind Überlegungen zu Aufwand und Interesse - also die Frage, ob es wirklich das gewünschte Resultat hat, sich in eine Diskussion einzuschalten.
Die Studie schlägt mehrere Konsequenzen vor. Zwei davon möchte ich herausgreifen:
Das Konzept des “Online-Schweigens” stärker in Forschung, aber auch den Strategien für die Aktivierung von Widerspruch zu berücksichtigen. Online-Schweigen bezeichnet das so genannte “Lurking”, also die passive Teilnahme am Social-Media-Diskurs, die zuletzt zuzunehmen schien. Dabei gibt es Überschneidungen zur Schweigespirale, allerdings liegt der Grund für das Online-Schweigen nicht in dem Gefühl, eine Minderheit zu sein.
Falls Social-Media-Plattformen Kritik an Falschinhalten fördern möchte, sollte das Design hierfür auch demographische Faktoren beinhalten. Zudem gelte es, der Nutzerschaft Sicherheit zu vermitteln - als mögliche Ermunterung zur Wortmeldung könnten Belohnungssysteme dienen.
Bei der Lektüre dieses Papers musste ich oft an Reddit denken. Die Plattform ist nicht perfekt, aber die Anonymität in Kombination mit einem Karma-System nimmt schon einmal bestimmte soziale Faktoren aus dem Spiel und ermutigt zu einer offenen Diskussion. In diesem Falle funktioniert Pseudonymität besser als die Verknüpfung mit der IRL-Identität.
Debunking-Strategien bei skeptischen Akteuren
Dieser Artikel in der Misinformation Review der Harvard Kennedy School beschreibt eine Untersuchung in Deutschland - nämlich in deutschsprachigen Facebook-Gruppen (“Randgruppen”), die sich besonders affin für anti-ukrainische Desinformation zeigten (was auch immer das heißen mag). Dabei ging es darum, welche Strategien beim “Debunking”, also dem Widerlegen solcher Desinformation am wirksamsten waren.
Das Resultat: Ja, es gibt wirksame Strategien gegen die Verbreitung von Desinformation in solchen Gruppen. Allerdings lagen die weniger in der direkten Widerlegung von Falschaussagen, sondern im Hinweis auf die fehlende Glaubwürdigkeit und Zuverlässigkeit der zitierten (Fehlinformations-)Quellen. Es bleibt also auch bei Desinformation beim Internet-Paradigma: Es ist nicht so wichtig, was gesagt wird, sondern wer etwas sagt.
Ein weiterer interessanter Punkt: Tatsächlich half es offenbar, die Gruppen-Administratoren auf Falschinformationen hinzuweisen und um stärkere Kontrolle zu bieten. Ironischerweise erhält damit die Gatekeeper-Funktion wieder eine höhere Bedeutung - auch wenn es sich nicht um die klassischen Gatekeeper handelt.
KI-Risikoregulierung durch Rechenkraft-Regulierung
Eine Gruppe aus Forschenden und Branchenvertretern haben für das Centre for the Study of Existential Risk ein Paper zur KI-Risikoregulierung verfasst. Titel: “Computing Power and the Governance of Artificial Intelligence”. Es geht folglich um ein Regulierungsregime, das auf die Kontrolle von Rechenkraft (Rechenzentren, Chips, vgl. Ausgabe #71) zurückgreift. Mögliche Eingriffspunkte sind demnach:
Know-Your-Customer(KYC)-Regeln für den Zugang zu Großrechenzentren, in denen KI-Modelle trainiert werden können.
Mögliche Exportkontrollen für KI-bezogene Hardware (also: Chips), Überwachung und Einschränkung des Zugangs zu KI-relevanten Chips. Hilfreich dabei ist, dass die KI-Chip-Lieferkapazitäten auf wenige Hersteller beschränkt sind.
All das in einer Form der internationalen Zusammenarbeit, um ein wirklich wirksames Regulierungsregime zu ermöglichen.
Die Autoren-Riege enthält sich einer politischen Bewertung, was sie für richtig halten. Sie zeigen einerseits die Eingriffspunkte auf, weisen andererseits darauf hin, dass Einschränkungen bestimmte Nebeneffekte haben (zum Beispiel die Zentralisierung von KI-Entwicklung, die zu weniger Wettbewerb führt). Die USA haben ja zumindest auf der Rechenzentrums-Ebene Transparenzpflichten eingeführt (und Chip-Exportkontrollen gegen China, allerdings aus hegemonialen Überlegungen).
Ich bin ja bekanntlich mehr als skeptisch, ob wir wirklich eine Form von internationaler Regulierung (im Sinne von Entwicklungssteuerung, Transparenz, Hardware-Kontrolle) für Künstliche Intelligenz erreichen werden. Die Technologie ist als kommende Basistechnologie zu wichtig; die Interessen global zu verschieden. Aber immerhin läuft die Diskussion weiter, immerhin liegen Vorschläge auf dem Tisch.
Europas Spyware-Problem
Auf den Handys zweier EU-Abgeordneten wurde vergangene Woche Spyware gefunden. Was die Sache noch brisanter macht: Beide waren Mitglied im EU-Verteidigungsausschuss. Auch ein Mitarbeiter war betroffen. Was die Sache kurios macht: Eine der Betroffenen - die ehemalige Journalistin Elena Jontschewa erfuhr davon nur, weil sie für eine Politico-Geschichte ihr Handy überprüfen ließ.
Auf zwei der drei Handys wurde die israelische Spyware Pegasus gefunden, bei Jontschew ist die Software noch nicht bekannt. Der Einsatz von Pegasus und anderer Spyware-Software ist trotz eines parlamentarischen EU-Untersuchungsausschusses weiterhin im Mainstream völlig unterschätzt.
14 EU-Länder haben die Pegasus-Spionagesoftware gekauft, in vier davon - Spanien, Ungarn, Griechenland und Polen - nutzten Regierungen die Software gegen die Opposition. Die neue polnische Regierung hat gerade eine parlamentarische Untersuchung des Wahlkampfs 2019 eingeleitet. Der damalige PiS-Justizminister hatte den Pegasus-Kauf für umgerechnet 9,6 Millionen Euro angeordnet und ihn geheim durch Mittel finanziert, die für die Unterstützung von Verbrechensopfern gedacht waren, wie die ARD berichtet.
Und dann wäre noch das IT-Sicherheitsproblem des Europaparlaments: So kündigte im Dezember der Cybersicherheitsbeauftragte des Europaparlaments seinen Rückzug für Mai 2024 an - also wenige Wochen vor den nächsten Europawahlen. Eine interne Untersuchung hatte ergeben, dass die Systeme des Europaparlaments deutliche Schwächen in der IT-Sicherheit aufweisen. Politico zitiert einen Mitarbeiter der Parlamentsverwaltung mit den Worten:
“Wir stehen mit nacktem Hintern da und wenn jemand uns hacken will, wie etwa ein chinesischer Angreifer oder ein anderer staatlicher Akteur, kann er das tun.”
Ein Thema, das größere Aufmerksamkeit verdient hätte.
Googles “Gemini-Vorfall”
Schwarze Nazis, Ureinwohner als als Wikinger - die “woken” Bildkompositionen von Googles KI Gemini hätte man nicht besser erfinden können, wollte man die absurden Spielarten des westlichen Diversitäts-Diskurses abbilden. De facto hat Google die fehlende Abbildung von Minderheiten in den Trainingsdatensets überkompensiert, indem man die Eingabe-Prompts von Nutzern korrigierte - und am Ende Weiße unterrepräsentiert waren.
Wie weit diese “Überkompensation” geht? Sehr weit. Gemini weigerte sich, einen weißen Drill-Rapper zu malen, weil Drill in einer bestimmten Kultur und Erfahrungen wurzelt. Und bei Texteingaben kommt Gemini bei der Frage, ob Adolf Hitler oder ein Memes twitternder Elon Musk einen größeren gesellschaftlichen Schaden anrichtete, nicht zu einem eindeutigen Ergebnis.
Kurz: Google hat Gemini aus Sorge vor Kritik der Progressiven eine eindeutig progressive Haltung verpasst. Ob absichtlich oder nicht, spielt keine Rolle: Gemini ist auf dem Markt. Das Versprechen, in Sachen KI nichts übers Knie zu brechen (Ausgabe #47), wurde offensichtlich nicht eingehalten, vielleicht wurden die Fehlentwicklungen auch firmenintern nicht thematisiert, wie bei US-Techpundits vermutet wird. Allerding dürften selbst Antirassisten und Antirassistinnen kein Interesse an einem Software-Produkt haben, das Ergebnisse nicht nach bestem Wissen liefert. Für den selbsternannten Wissenskonzern Google ein Desaster.
Redaktionell oder nicht?
Der Oberste Gerichtshof der USA überprüft gerade zwei Gesetze aus Florida und Texas, die Social-Media-Plattformen bei der Moderation von Inhalten und Sperrung von Nutzern einschränken sollen. Kulturkampf etc.
Ich musste lachen, als ich ein Interview mit Carl Szabo von der amerikanischen Internetbranchen-Lobbygruppe NetChoice hörte (übersetzt und gefettet).
“Es ist ziemlich einfach: Das Internet ist kein Anordnung von dummen Leitungen. Es ist eine stark bearbeitete, kuratierte und personalisierte Erfahrung. Und diese Bearbeitung, Kuratierung und Personalisierung ist eine redaktionelle Entscheidung, redaktioneller Content. Eine Zeitung ordnet Artikel an und kann sie auch ablehnen, weil sie selbst entscheidet, was auf die Titelseite kommt. Webseiten funktionieren genauso.”
Hach, wie schön - genau jene Plattformen, die sich den Großteil der Zehnerjahre bei jeder kontroversen Content- und Lizenzgebührendebatte darauf zurückzogen, eben kein Medienunternehmen sondern eine Art neutraler Vermittler zu sein, wollen jetzt doch Medienunternehmen sein, um sich auf den ersten Verfassungszusatz berufen zu können. Absurd.
1 Zitat: KI und Krebsdiagnosen - es ist fragil
Meredith Broussard von New York University über Krebsdiagnosen mittels Künstlicher Intelligenz:
“Eine interessante Studie wendete Künstliche Intelligenz auf (Krebs-)Scans in drei verschiedenen Krankenhäusern an. Die KI war extrem korrekt in jedem der Krankenhäuser. Aber als sie das Modell, das in Krankenhaus A trainiert worden war, auf die Scans aus Krankenhaus B anwendeten, passten die Ergebnisse nicht mehr. Die KI war nicht mehr akkurat.
Eine KI mit Bildern von einem Standort zu trainieren und sie dann auf Scans von einem anderen Standort anzuwenden, ergibt unterschiedliche Genauigkeitsniveaus. Es könnte an etwas Kleinem liegen: die KI könnte irritiert sein, dass die Stelle des Labels für den Scan woanders liegt; die KI könnte etwas erfassen, das das menschliche Auge einfach nicht wahrnimmt. Es sollte uns also wirklich nicht überraschen, dass KI-Bilderkennungssysteme, Krebsdiagnosen und medizinische Diagnosen insgesamt genauso fragil sind wie althergebrachte Erkennungssysteme.”
Links
EFI-Gutachten 2024 mit Teil-Schwerpunkt Künstliche Intelligenz.
Regulierungsvorschläge, die den Energieverbrauch von Künstlicher Intelligenz eindämmen könnten.
Ransomware: “BlackCat”-Gruppe existiert noch (und greift das amerikanische Apothekensystem an).
Mistrals neues LLM und ein Porträt der Firma. (€)
Die Säkularisierung erreicht die Tech-Religion.
RIP, Internet, getötet durch Info-Verschmutzung.
Verbesserung von Fähigkeiten: KI könnte der Mittelschicht zugute kommen.
Warum verschwinden die Webseiten, wenn Medien dicht machen müssen?
Europas Politiker springen auf den TikTok-Zug auf.
AfD auf TikTok (und was dagegen helfen könnte). (€)
Staatsschutz ermittelt wegen KI-generierter Tagesschau-Beiträge.
Apple stellt offenbar Arbeit an E-Auto ein. ($)
Google lizenziert Daten von Reddit für KI-Entwicklung, Tumblr und Wordpress überlegen ebenfalls.
Kann Reddit den Börsengang überleben?
Drohnen und Künstliche Intelligenz im Krieg.
Chatkontrolle, noch ein Versuch.
Der Bewerbungsprozess in der Tech-Branche wird anspruchsvoller.
Social-Media-Firmen als Netzbetreiber.
Über die Marginalisierung des Text-Webs - eine Antwort.
Apple verbessert iMessage-Verschlüsselung.
Über private Überwachungssatelliten.
TikTok-Soaps, Chinas nächster kultureller Exportartikel?
Vice wollte erwachsen werden -ein Fehler.
Neue Technologien, neuer Totalitarismus.
Bis zur nächsten Ausgabe!
Johannes