Aus dem Internet-Observatorium #75
AI Act: Eine Annäherung / Very Online Accelerationism
Hallo zu einer neuen Ausgabe!
AI Act: Eine Annäherung
Vorab: Mein Mitgefühl gilt allen Kolleginnen und Kollegen, die anhand der spärlichen Infos und trotz weiterhin vieler offener Fragen Anfang der Woche das Ergebnis des Trilogs zum “AI Act” kommentieren mussten. Denn so wirklich wird man das frühestens bewerten können, wenn der Text Ende Januar / Anfang Februar veröffentlicht worden ist. Oder erst, wenn die Standardisierungsprozesse irgendwann 2025 abgeschlossen sind. Vermutlich sogar erst, wenn Gerichte die Anwendung des AI Acts bewerten und sein Verhältnis zu bestehenden Rechtsnormen klären.
Ich beschränke mich deshalb mit einer (hoffentlich korrekten) Zusammenfassung und ein paar zurückhaltenden Einschätzungen, was die Regeln bedeuten könnten.
Basismodelle: Foundation Models sind jene großen Sprachmodelle (LLMs) wie GPT-N, die in vielen verschiedenen Kontexten einsetzbar sind und auch Grundlagen für spezialisierte, abgeleitete KI-Anwendungen sein können. Deutschland, Frankreich und Italien wollten bekanntlich hier nur eine “kontrollierte Selbstregulierung”. Damit kamen sie nicht durch - es gibt unter anderem Dokumentationspflichten zu Trainingsdaten und dem technischen Rahmen des Systems sowie die Pflicht zur Achtung des Urheberrechts.
Besondere Auflagen erhalten Basismodelle mit “hohen systemischen Risiken”. Die Anbieter solcher LLMs müssen zum Beispiel diese Risiken bewerten und senken, Cybersecurity-Garantien abgeben, ihre Systemsicherheit testen, und mögliche problematische Vorfälle der EU-Kommission melden. Ab einer gewissen Rechenleistung beim Training (10^25 FLOPs, also “Floating Point Operations”) werden Modelle automatisch als “systemisches Risiko” eingestuft. Das betrifft derzeit nur Modelle wie GPT-4 von OpenAI oder Inflection-2 von Inflection AI. Ein weiterer Faktor im Kontext “Systemrisiko” kann die Nutzerzahl sein oder (laut Gian Volpicelli) wie gut ein Modell in einem bestimmten Bereich ist. Die Faktoren können von der EU angepasst werden.
Man hat also neue Kategorie geschaffen, in die Aleph Alpha (Deutschland) und Mistral AI (Frankreich) noch nicht hinein fallen. Das soll die Aufholjagd bei der Modellentwicklung erleichtern. Um Startups zu fördern sollen die EU-Länder Regulierungssandboxen und reale Testumgebungen aufbauen - also Erprobungsräume, um KIs ohne große Regulierungen entwickeln und testen zu können. Das wird oft unterschätzt, wenn sich hier ein Ökosystem mit entsprechenden Cloud-Computing-Kapazitäten bildet, könnte das ein Gamechanger werden, scheint mir. Nebenbei könnte
Ziel ist es bekanntlich, Risiken zu minimieren und gleichzeitig wettbewerbsfähige KI-Innovation (made in Europe) zu ermöglichen. Ob das in diesem Fall aufgeht? Oder ob, umgekehrt, durch die Regulierung KI-Modelle (siehe Anthropics “Claude”) nicht nach Europa kommen? Keine Ahnung, ehrlich gesagt. Dass man versucht, a priori einen Rahmen zu schaffen, ist erstmal sinnvoll. Aber ob es der Rahmen für den richtigen Pfad ist, den die Technologie nehmen wird, lässt sich wirklich schwer prognostizieren.
KI, Menschen-Sortierung und biometrische Anwendungen: Hier traue ich mir schon eher ein Urteil zu. Aber fangen wir erstmal damit an, was künftig verboten ist:
biometrische Kategorisierungssysteme, die nach Merkmalen wie politische Haltung, Religion, Weltanschauung oder ethnische Herkunftg kategorisieren.
Emotionserkennung am Arbeitsplatz und in Bildungseinrichtungen
Social Scoring
bestimmte Formen von Predictive Policing
Anwendungen, die auf dem Crawling von Gesichtsbildern im Internet basieren (vgl. Clearview AI)
Die Nutzung von Bildern aus Überwachungsaufnahmen zur Erstellung von Gesichtserkennungsdatenbanken
KI-Systeme für die Manipulation des menschlichen Verhaltens oder zur Ausnutzung von persönlichen Schwächen (z.B. aufgrund des Alters oder der persönlichen wirtschaftlichen Lage).
Es gibt aber auch Ausnahmen. Erlaubt ist:
Automatische Gesichtserkennung in Echtzeit, wenn es um die Suche nach bestimmten Opfern von Kriminalität (z.B. von Menschenschmugglern) sowie (flüchtigen?) Verdächtigen bestimmter schwerer Verbrechen oder das Verhindern eines Terroranschlags geht.
Retrospektive Gesichtserkennung zum Zweck der Strafverfolgung, wenn es um eine Liste von Straftaten wie Mord, Menschenschmuggel, Raubüberfall, Beteiligung an einer kriminellen Vereinigung oder Vergewaltigung geht. Voraussetzung ist eine richterliche Genehmigung und die gezielte Suche nach einer Person, die verurteilt ist oder verdächtigt wird, eine solche schwere Straftat begangen zu haben. (Unklar ist, wie frei “retrospektiv” auszulegen ist - direkt nach der Aufnahme wäre zum Beispiel auch “nachträglich”)
Emotionserkennung ist am Arbeitsplatz erlaubt, wenn es um die Sicherheit geht. Ein Beispiel sind Erkennungssysteme, die einen Fahrer vor dem Einschlafen warnen sollen. Vermutlich darf Emotionserkennung auch im Bereich des Grenzschutzes und der Migrationspolitik insgesamt legal eingesetzt werden.
Zudem heißt es (übersetzt und von mir gefettet):
“In der vorläufigen Vereinbarung wird außerdem klargestellt, dass die Verordnung nicht für Bereiche außerhalb des Geltungsbereichs des EU-Rechts gilt und in keinem Fall die Zuständigkeiten der Mitgliedstaaten im Bereich der nationalen Sicherheit oder von Stellen, die mit Aufgaben in diesem Bereich betraut sind, beeinträchtigen sollte. Darüber hinaus gilt das KI-Gesetz nicht für Systeme, die ausschließlich militärischen oder verteidigungstechnischen Zwecken dienen.”
Das liegt daran, dass die EU in der Verteidigungspolitik überhaupt nicht und in Fragen der nationalen Sicherheit nur koordinierend Einfluss hat. Aber insgesamt passt es zu dem Eindruck, dass mit der Einigung einige Ausnahmen und Erlaubnisse festgelegt wurden, die Nationalstaaten gerne nutzen werden. Auch hier kommt es aber auf Text, Details und Umsetzung an.
Open-Source-Systeme:
Freie und Open-Source-KI fällt offenbar teilweise nicht unter die Regularien des AI Act, wobei es hier Ausnahmen gibt. Zum Beispiel können Open-Source-Systeme auch in die Kategorien Hochrisiko-KI, verbotene KI oder manipulative KI eingruppiert werden und entsprechend reguliert werden. Für Open-Source-Basismodelle, die den oben genannten Kriterien zur Regulierung entsprechen, gibt es einige, wenn auch reduzierte Transparenzpflichten, zum Beispiel was Trainingsdaten oder Urheberrechtsfragen betrifft.
Ist Open Source das Düngemittel, das die KI-Landschaft erblühen lassen wird? Oder geht es nur um eine weitere Ausnahme für Mistral AI? Der Rechtswissenschaftler Philipp Hacker hält die fehlende Regulierung aus Risiko-Gesichtspunkten für falsch: Er fordert, Open-Source-Modelle nur noch mit einem gehosteten Zugriffsmodell zu erlauben und sie in allen anderen Kontexten zu verbieten. Argument: Es ist viel zu leicht, die Sicherheitsvorkehrungen bei solchen Modellen auszuhebeln und genau jene “rogue AIs” zu programmieren, die man verhindern möchte.
Da hat er natürlich einen Punkt. Auch hier aber zeigt sich das wirtschaftliche Dilemma: Anders als die USA braucht Europa Open-Source-KI, weil man sonst wahrscheinlich recht schnell an den APIs der amerikanischen Privatanbieter hängt. Knifflig, die Open-Source-Frage. Und immer drängender.
Very Online Accelerationism
Während der Sam-Altman-/OpenAI-/Board-Saga kursierte die Theorie, dass der Konflikt einen grundsätzlichen Gegensatz markiert: Nämlich zwischen den “Effective Altruists” (die sich über Langfrist-Probleme mit menschähnlicher KI Sorgen machen) und den “Effective Accelerationists”, kurz e/accs, die an den ungebremsten technischen Fortschritt glauben und eine möglichst mächtige KI bauen wollen.
Der Absatz oben signalisiert bereits, warum das nicht in diesem Newsletter vorkam: es klingt ziemlich konstruiert.
Kevin Roose hat jetzt für die New York Times die Bewegung profiliert, die natürlich vor allem im Silicon Valley stark vertreten ist. Letztlich kommt es mir aber nach der Lektüre weiterhin so vor, als sei das so etwas wie “Dimes Square”, jene hippen Jungreaktionäre aus dem New Yorker Kulturbetrieb, die eigentlich nur in bzw. mittels der Berichterstattung der Medien existieren. Der Unterschied: Akzelerationisten wie Marc Andreessen haben nicht nur kulturelles Kapital, sondern echtes. Insofern ist das alles Very Online und auch etwas very blöde, aber womöglich mit sehr echten Konsequenzen für die KI-Entwicklung verbunden.
Faszinierend ist, wie der Akzelerationismus eine weitere Metamorphose vollzieht: Anfang der Zehnerjahre wurde er von der politischen Linken wiederentdeckt und zunächst als Versuch inszeniert, die zerstörerischen Tendenzen des Kapitalismus zu verstärken, um den Kapitalismus zum Zusammenbruch zu bringen. Mark Fisher, Nick Srnicek und Alex Williams wiederum setzten dem eine softere, positive Interpretation entgegen: Akzelerationismus durch die Automatisierung als Möglichkeitsraum betrachteten, um menschliche Utopien Realität werden zu lassen. Dann gab es auch noch eine Menge Trittbrettfahrer, die einfach den Begriff schick fanden.
Rund um Trump dann wanderte der Akzelerationismus nach rechts und fand praktische Anwendung: Nämlich im Versuch, die sozialen, kulturellen und politischen Spannungen derart zu verstärken, dass der soziale Kollaps nur noch durch eine reaktionäre/autoritäre Ordnung verhindert werden kann. Auch hier gab es allerdings einen positiven Technologie-Aspekt: Nämlich die Nutzung von Technologie und Medien, um die Unzufriedenheit zu verstärken. Man könnte im Jahr 2023 sagen: Der Akzelerationismus der politischen Rechten ist deutlich erfolgreicher und praxisnäher gewesen als der linke.
“Effective Accelerationism” ist im politischen Kern libertär: Der technische Fortschritt gilt als Wert an sich, als eigentlicher Wert unserer Zivilisation sogar. Wenn dieser Fortschritt mittels KI eine Superintelligenz hervorbringt, die den Menschen verdrängt, dann ist das eben eine Form von Evolution. Denn sie bedeutet ja keine Zerstörung, sondern ein neues, silikonbasiertes Bewusstsein.
Ironischerweise aber kommt man damit wieder bei Nick Land an, dem eigentlichen Vater des Akzelerationismus: Seiner Theorie aus den Neunzigern zufolge trägt der Kapitalismus keine Widersprüche in sich, diese ergeben sich vielmehr aus dem menschlichen Faktor. Was dazu führt, dass der Kapitalismus sich des Menschen entledigt, ob in per Auslöschung oder in der Singularität. Womit wir wieder beim Kern des “Effective Accelerationism” wären, der nicht wie Nick Land ein Szenario beschreibt, sondern eine Utopie herbei wünscht. Eine Utopie, hinter der sich letztlich einmal mehr der schnöde Transhumanismus verbirgt, der als Proto-Religion schon lange in der Szene herumgeistert. Opium für den ach-so-rationalen Bildschirm-Arbeiter.
Links
Chinas IT-Infiltration amerikanischer Systeme größer als gedacht? ($)
Bruce Schneier über digitale Massen-Spionage im KI-Zeitalter.
Mistral mit neuer Funding-Runde und neuem KI-Modell.
Gerichtsurteil zugunsten von Epic: Google hat ein illegales Monopol im Play-Store. Steht die Appstore-Öffnung auch in den USA vor der Tür?
Google Gemini: Bemerkenswert, aber nicht auf dem Level von OpenAI.
Sisyphos und der Content-Vulkan.
KI-Apps, die Frauen “ausziehen”, boomen angeblich.
Elon Musk schaltet Alex Jones wieder bei XTwitter frei.
Wie man das Tracking der SmartTVs von Samsung und LG stoppt.
Bis zur nächsten Ausgabe!
Johannes