Aus dem Internet-Observatorium #70
Gremien, Erlasse, Papiere: Neue KI-Ankündigungen vergangenen Tagen
Hallo zu einer neuen Ausgabe! Da der “AI Safety Summit” in Großbritannien noch läuft, schreibe ich erst kommende Woche etwas dazu.
Gremien, Erlasse, Papiere: Neue KI-Ankündigungen vergangenen Tagen
Vor dem “AI Safety Summit”, der heute in Großbritannien begann, gab es nochmal einen ganzen Stapel von Ankündigungen. Es ist unübersichtlich…
Die Vereinten Nationen schaffen ein KI-Beratungsgremium
Vergangenen Freitag stellte UN-Generalsekretär António Guterres ein 39-köpfiges KI-Beratungsgremium vor. Darin sind Branchenvertreter, die Forschung, Expertinnen und Experten sowie Regierungsoffizielle vertreten (eine Liste gibt es hier). Die Bundesregierung entsendet zum Beispiel die BMWK-Staatssekretärin Anna Christmann. Die Gruppe soll bis ende 2023 erste Empfehlungen zur KI-Governance abgeben.
Guterres will bekanntermaßen die UN wieder als Akteur für digitale Grundsatzfragen ins Spiel bringen, und das notfalls auf Kosten existierender Multistakeholder-Gremien (IGF etc.). Insofern sehe ich das Beratungsgremium eher als ein Guterres-Powerplay. Der Plan ist, dass die Weltgemeinschaft zum “Summit for the Future” im September ein Mandat gibt, zu einem der zentralen Gremien für die KI-Governance zu werden. Die vergangenen Jahrzehnte lehren uns aber, dass das in dieser Form nicht passieren wird (und das ist nicht einmal schlecht).
Freiwilliger Kodex der G7 für die Entwickler großer KI-Modelle
Wie der Name sagt: Es geht um eine freiwillige Selbstverpflichtung, und zwar für KI-Firmen, die generative KI oder Foundation Models entwickeln. Die Leitlinien enthalten die Verpflichtung zur Risikominimierung, Vorkehrungen gegen missbräuchliche Anwendung sowie bestimmte Transparenz-Anforderungen (z.B. Wasserzeichen für KI-Content), aber auch die Priorisierung von KI-Entwicklung für die Lösung globaler Probleme wie der Klimakrise oder dem Hunger.
Das Ganze folgt einer EU-Initiative, bestimmte Grundlinien transnationale festzulegen und wurde seit Mai im zugrundeliegenden “Hiroshima Prozess” politisch sehr aufgeblasen. Letztlich ist es als ein symbolisches Bekenntnis zu lesen, dass der Westen (plus Japan) sowie mögliche weitere Unterzeichner wie Indien bei KI in die gleiche Richtung rudern.
Joe Bidens Executive Order
Der präsidiale Erlass war erwartet worden, fällt aber deutlich breiter aus, als ich es noch im Sommer erwartet hatte. Und auch etwas länger, weil die konkreten Anweisungen an Regierungsbehörden vom Handels- bis zum Energieministerium, innerhalb von 270 Tagen Regeln für KI zu entwickeln, in viele Worte verpackt werden. Was vor allem zeigt, dass eine Menge Stakeholder inklusive der KI-Branche selber an dem Dokument mitgewirkt haben. Wer sich durcharbeiten möchte, findet hier ein gutes Werkzeug.
Bevor ich zu dem komme, was mir aufgefallen ist, hier der übersetzte Fullquote eines Reddit-Kommentars. Der beschreibt nämlich ziemlich gut, um was es geht:
“Zusammengefasst:
Biden: "Ich lege Regeln für KI fest, bevor der Kongress sich endlich aufrafft."
Die Regeln beinhalten:
KI sicher gestalten.
Unsere privaten Informationen schützen.
Sicherstellen, dass KI keine Diskriminierungsproblem hat.
Menschen helfen, die durch Roboter arbeitslos werden könnten.
Amerika an der Spitze der KI-Entwicklung halten.
Große KI-Namen wie OpenAI? Zeigt uns, dass Ihr die Hausaufgaben in Sachen Sicherheit gemacht habt.
Keine hinterhältigen KI-Manöver in Regierungsbehörden.
Datenschutzregeln? Kongress, kümmert euch darum.
Aber halt: Exekutivanordnungen sind wie Snapchat-Stories. Sie halten nicht ewig. Der Kongress muss also noch langfristige Regeln aufstellen. In der Zwischenzeit sagen die KI-Leute: "Guter Zug, Joe. Immerhin machst du etwas."
Kurz gesagt? Biden versucht sicherzustellen, dass unsere Roboter-Herrscher nett sind und unsere Geheimnisse nicht ausplaudern. Fortschritt? Ja. Perfekt? Nein. Aber hey, wenigstens steuert jemand das Schiff.”
Ein paar ergänzende Beobachtungen meinerseits:
Meldepflichten bei der Entwicklung von KI-Modellen mit mindestens 20 Milliarden Parametern (inklusive Offenlegung von Sicherheitsmaßnahmen): Relevant für die nächsten Basismodelle ab/nach GPT-4 und sicherlich bei Startups nicht unbedingt Begeisterung auslösend (weil: bürokratisch). Parallel dazu gibt es eine Meldepflicht für Rechenzentren, in denen solche Foundation Models trainiert werden können, gekoppelt an eine Meldepflicht für ausländische Kunden, die diese Kapazitäten nutzen. tl;dr: Der Staat möchte künftig ganz genau wissen, wo gerade an solchen Modellen gearbeitet wird und nebenbei verhindern, dass chinesische Firmen US-Serverfarmen zur KI-Entwicklung nutzen. Ich würde es bis zu einem gewissen Grad mit der Regulierung von Biotech-Laboren vergleichen. Allerdings ohne konkrete Sicherheitsvorschriften, was in diesen Laboren passieren darf.
Genauere Meldepflichten gibt es für Modelle, die die nationale Sicherheit oder die Gesundheit gefährden könnten. Das “National Institute of Standards and Technology” soll zudem Standards für Sicherheitstests und Risiko-Klassifikation entwickeln, deren Ausführung allerdings bei den Firmen selbst liegt. Zwei Dinge dazu: Das klingt erst einmal streng, entspricht aber dem Wunsch der Tech-Firmen nach “Guardrails”. Und die Frage nach dem “Risiko für die nationale Sicherheit” ist genau diese interpretationsfähige Regulierung, wie sie auch bei der EU kritisiert wird. Genauer: Das Risiko lässt sich in der Frühphase der Entwicklung solcher Modelle kaum feststellen, weil sie ja am Ende in verschiedenen Anwendungsszenarien landen (ähnliche Debatten gibt es über den AI Act).
Viele Punkte - zum Beispiel die Frage nach Strategien zum Umgang mit den negativen Folgen für den Arbeitsmarkt oder die Integration ins Bildungswesen bleiben sehr vage. Andere Punkte - zum Beispiel Wasserzeichen für KI-Content - entwickeln sich ohnehin gerade zu Branchenstandards.
Die defensiven Komponenten: Die US-Bundesregierung will sich damit beschäftigen, wie chemische, biologische, nukleare und Cybersicherheitsrisiken minimiert werden können, die durch KI entstehen. Damit ist man teilweise wieder bei diesen Extrem-Szenarien, die durchaus adressiert werden sollten, aber die besonders von den Tech-Firmen selber immer wieder betont werden - auch, um die Regulierung in diese Richtung zu lenken. Im Bereich nationale Sicherheit wird KI wiederum als hilfreiches Werkzeug der Cyber-Verteidigung und Angriffserkennung betrachtet (mit dem man sich gegen ebenfalls KI-unterstützte Angriffe und Malware wehren kann)
Die offensive Komponente: Die USA wollen KI-Standort Nummer 1 bleiben, deshalb sieht der Erlass vor, das Anwerben internationaler KI-Experten zu erleichtern und die Ausbildung heimischer KI-Fachkräfte voranzutreiben (auch für Regierungsjobs). Der Verweis auf den “Defense Production Act”, der seit 2019 auf die Industriepolitik im globalen Wettbewerb mit China angewendet wird, signalisiert die Brille, durch die man das Ganze betrachten sollte: Washington sieht KI als Schlüsseltechnologie, die sich nicht nur auf wirtschaftliche Wertschöpfung auswirkt, sondern auch die Vorherrschaft im Militär- und Sicherheitsbereich sichern soll. Das gilt übrigens auch für innere Sicherheit: Gesichtserkennung findet keine Erwähnung in dem Regulierungserlass.
Aus diesem strategischen Interesse ergibt sich auch, dass die USA in der ebenfalls erwähnten internationalen Vernetzung und Standardisierung dafür einsetzen werden, der amerikanischen KI-Branche und ihren Foundation Models möglichst wenige Steine in den Weg zu legen - sozusagen ein geopolitischer “Moat”, der gerade gezogen wird. Das ist völlig rational und logisch, aber womöglich manchen in Europa nicht bewusst. Oder umgekehrt: Das Bewusstsein ist da, aber die Möglichkeit europäischer Player zum Aufholen im Rahmen von “AI Act” und Sparten-Subventionierung wird überschätzt.
Daraus abgeleitet: Ist diese Executive Order ein Fortschritt? Ja, im Sinne dessen, dass sie bestimmte Grundlagen legt und auch einige grundsätzliche Standards wie Meldepflichten einführt. Probleme wie die mögliche Entwicklung eines neuen Oligopol-Markts finden nur am Rande Erwähnung, der Bezug auf Verbraucherrechte bleibt oft vage und die Frage nach Strafen bei Verstößen gegen die Vorschriften ist noch ungeklärt. Im Kern ist es eben eine Behördenanweisung, die keine Gesetzgebung durch den US-Kongress ersetzt.
Im globalen Kontext betrachtet hat es Milton Mueller meiner Meinung nach sehr treffend formuliert (übersetzt und gefettet von mir):
“Die globalen Governance-Bestrebungen der Exekutivanordnung sind verworren. Die politischen, militärischen und wirtschaftlichen Interessen der nationalen Regierungen gehen auseinander. Der Rückzug der USA aus den Verhandlungen der WTO über den freien Handel im Bereich des E-Commerce scheint die vielversprechendsten Wege für internationale Zusammenarbeit versperrt und die USA mit protektionistischen und nationalistischen Ländern wie Indien verbunden zu haben. Was in den Dialogen der KI-Experten bislang auffallend fehlt und in der Exekutivanordnung nur beiläufig erwähnt wird, ist die Entwicklung von Kollaborations- und Koordinationsstrukturen, die private und öffentliche Akteure einbeziehen, um die eng fokussierten, transnationalen Auswirkungen generativer KI anzugehen.”
Kurz: Hinter dem PR-trächtigen Aufschlag verbirgt sich aus globaler Perspektive ein eher überschaubarer Fortschritt.
P.S.: Ich habe in der jüngst erschienenen Ausgabe der Zeitschrift Internationale Politik etwas zur Frage geschrieben, ob sich KI global regulieren lässt. Mein Versuch einer Antwort findet sich hier.
Links
Frankreich und Deutschland driften in der Cloud-Politik weiter auseinander (siehe auch Ausgabe #54)
Der Vorschlag des EU-Parlaments zur Positionierung in Sachen Chatkontrolle ist da.
WeWork steht vor dem Bankrott. ($)
Amazons KI-generierte Produktbild-Hintergründe und die Folgen.
Kostenloser Glasfaser-Anschluss? Zu gut, um wahr zu sein.
Googles Versuche, eine Apple-Suchmaschine zu verhindern. ($)
Wie Europa zum Spyware-Hotspot wurde.
Warum Dating-Apps unbeliebt wurden.
Bis zur nächsten Ausgabe!
Johannes