Aus dem Internet-Observatorium #46
(A.I) Drake und die Urheberrechtsfrage / Das große Absaugen / Digitalpolitische Notizen
Hallo zu einer neuen Ausgabe! Hört denn dieses KI-Ding niemals auf? Offenbar nicht, denn auch diese Ausgabe ist wieder sehr ChatGPTundCo-lastig. Es gibt aber auch ein paar Notizen zu netzpolitischen Entwicklungen im politischen Berlin.
(A.I) Drake und die Urheberrechtsfrage
Mal sehen, wie lange das Video online steht…
“Heart on my Sleeve” (ICYMI) als “KI-Song” zu bezeichnen ist insofern irreführend, als nur die Stimmen von (A.I) Drake und The Weeknd synthetisiert und damit “DeepFake” sind - die Musik ist es nicht. Reine KI-Musik ist bislang auch nicht besonders gut, muss ich sagen.
Die Beats stammen vermutlich vom Uploader “Ghostwriter”, der nach eigener Aussage tatsächlich lange Ghostwriter im Musikbetrieb war und “fast kein Geld” dafür erhielt.
Das Ganze ist deshalb auch ein fieser Burn - im Sinne von “jetzt guckt mal, wer hier ersetzbar ist”. Drake wurde in der Vergangenheit auch immer wieder vorgeworfen, sich seine Raps schreiben zu lassen (was er manchmal, aber nicht immer tut).
Das Ganze ist auch urheberrechtlich interessant, hier ein paar Notizen dazu.
Universal ließ den Song bei Spotify und Co. sperren. Die Begründung lautete nicht: “Hey, der Output verstößt gegen das Urheberrecht”. Sondern: “Der Input verstößt gegen das Urheberrecht”. Nämlich das Trainieren von KIs mit der Stimme eines Künstlers ohne Zustimmung. Ob diese Argumentation haltbar ist, werden Gerichtsprozesse zeigen. Ein US-Gericht entschied 2015 in einem Grundsatzurteil zu Google Books, dass das Digitalisieren von Büchern unter das Fair-Use-Prinzip fällt. Das Argument: Schon das Einscannen und Umwandeln eines Buchs zu einer Art durchsuchbaren Datenbank stellt eine “ausreichende Transformation” des Originals da. Diese Transformationskriterien dürften KI-Songs locker erfüllen.
Wie sieht es mit dem Output aus? Die Songs wurden zunächst explizit nicht unter dem Namen der Künstler veröffentlicht. Und der Song, die Melodie, die Lyrics sind nicht kopiert oder plagiiert. In den USA und auf EU-Ebene gab es zwar immer wieder Urteile, die bereits Ähnlichkeiten in Melodien oder Lyrics als Urheberrechtsverletzung markierten. Das scheint aber nicht ganz ins Schema zu passen.
Nach dem deutschen Urheberrechtsgesetz hätte das Lied auch einen ausreichenden schöpferischen Abstand zu möglichen Originalen. Es wäre auch keine Bearbeitung, die nach § 23 Urheberrechtsgesetz nur mit Zustimmung des Urhebers veröffentlicht werden dürfte.
Was allerdings hierzulande unabhängig vom Urheberrecht auf jeden Fall greifen dürfte: Das Persönlichkeitsrecht. Das Kopieren einer Stimme verletzt das Persönlichkeitsrecht, daraus ergibt sich für Betroffene ein Unterlassungsanspruch. Ähnliches würde für DeepFake-Auftritte in Videos undsoweiter gelten.
In Europa könnte die Datenschutzgrundverordnung IMO ebenfalls eine Komponente sein, und zwar über die Grundsatzbedenken der italienischen Datenschützer rund um die OpenAI-Datensammlung hinaus. Denn eine Stimme ist durchaus personenbezogen und identifizierend. Wir betrachten sie nicht als Datensatz, aber im Kontext KI-Training ist sie das. Nach dieser Logik wäre die Verarbeitung nur mit Erlaubnis möglich.
Stichwort Trainingsdaten für synthetische Stimmen: Die Musiklabel haben Spotify und Co. bereits angewiesen, das Trainieren von KIs anhand von Streamingdienst-Songs zu unterbinden. Reddit hat damit begonnen, AI-Scraping auf seinen Seiten zu unterbinden.
In Europa gibt es den Sonderfall, dass Datamining (also das Scrapen) vom Urheberrecht ausgenommen ist. Die entsprechende Schrankenregelung § 44b Urheberrechtsgesetz lässt sich prinzipiell wohl auch auf KI-Trainingsdaten anwenden. Die Definition: “Automatisierte Analyse von einzelnen oder mehreren digitalen oder digitalisierten Werken, um daraus Informationen insbesondere über Muster, Trends und Korrelationen zu gewinnen.” Das ist erlaubt und muss nicht vergütet werden. Die Daten müssen aber gelöscht werden, wenn man für die Analyse nicht mehr braucht. Dauerhaftes Speichern der Trainingsdaten nicht zulässig. Bei der Datenfütterung von KI-Modellen ist die EU also großzügiger als zum Beispiel die USA.
Andererseits haben wir in der EU auch ein Leistungsschutzrecht, das angewendet werden könnte, sofern es gesetzlich auf KI-Trainingsdaten ausgeweitet werden würde.
Das alles wird noch Fahrt aufnehmen. Denn im Moment ist es vergleichsweise kompliziert, KI-Gesang zu synthetisieren. Aber die Produktionsdauer wird absehbare von wenigen Stunden auf wenige Sekunden sinken (per Prompt-Befehl). Die Beschleunigung zeigt sich in dieser Vice-Geschichte: In einem Discord mit 20.000 Nutzern wird an den Stimmen gefeilt, die Files wiederum dort gepostet.
Von hier gibt es verschiedene Pfade: Massive finanzielle Forderungen an ChatGPT für das Nutzen im Kontext Trainingsdaten könnten ein Weg sein. Eine Massenproduktion von synthetischen Songs könnte den Musikkonsum verändern - oder aber den kulturellen Wert der “Echtheit” der Personen hinter den Songs steigen lassen.
Linktipps zum Thema:
Das Rechtskapitel von Thomas Hoeren im so genannten “NRW-Gutachten” ist sehr gut.
Diese juristische Zusammenfassung von Peggy Müller hat mir sehr geholfen (genau wie das Telefongespräch mit ihr).
Die Forderungen der Initiative Urheberrecht sind das Beste, was an offenen Briefen o.ä. im deutschsprachigen Bereich zum Thema erschienen ist. Da hat man sich sichtbar Gedanken gemacht (z.B. über die Frage, ob Plattformen KI-Songs algorithmisch bevorzugen könnten, um Tantiemen zu vermeiden).
Ich war am Dienstag zum Thema im “Kompressor” bei Deutschlandfunk Kultur zu hören (ungefähr ab Timecode 9:30).
Das große Absaugen
Diese Vice-Geschichte will ich in diesem Zusammenhang doch noch erwähnen: Ein Typ programmiert einen Scrapper (“Img2dataset”), der im Web Bilder für KI-Bildgeneratoren sammelt. Offenbar hat er keine Ahnung, was Robots.txt ist. Oder es ist ihm egal:
“Img2dataset will attempt to scrape images from any site unless site owners add https headers like “X-Robots-Tag: noai,” and “X-Robots-Tag: noindex.” That means that the onus is on site owners, many of whom probably don’t even know img2dataset exists, to opt out of img2dataset rather than opt in.”
Opt-Out mit einem neuen html-Tag. Viel dreister geht es nicht. Wie ein Hackernews-Nutzer zurecht schreibt: So etwas darf nicht durchgehen.
“I have seen the same thing with other recent AI tools and I think it's important to defend the robots.txt convention and nip this in the bud. If a bot doesn't make a reasonable effort to respect robots.txt and it causes disruption, it's a denial-of-service attack and should be treated as such. No excuses.”
Ich habe den Eindruck, es wird gerade eine ganze Menge zerstört im KI-Goldrausch.
Wohin geht die Reise? KI-Schwerpunkt im Economist
Achtung, sehr geeky und detaillastig: Der Economist hat mehrere Schwerpunkt-Artikel zu selbstlernenden Systemen. Für alle, die sie nicht lesen können oder wollen - hier meine Notizen dazu:
Nennenswertes aus dem Einführungsartikel:
Es gibt 137 “Emergent abilities”, also “neues Verhalten” der Modelle. Sie entstehen mit wachsenden Größe der Large Language Models (LLMs). Das heißt: Man weiß nicht, welche Fähigkeiten plötzlich da sind. Aber auch nicht, welche Vorurteile ab einer gewissen Größe entstehen.
Lernen heißt für LLMs: AI verdeckt selber ein Wort, rät es und vergleicht es dann mit dem Ergebnis.
Ein Beispiel für unterschiedliche Wahrscheinlichkeiten: “I love ice cream“ vs. “I love ice hokey” vs. “I love are”
Aufmerksamkeitsnetzwerke arbeiten durch Parallelisieren inzwischen sehr effektiv.
Das Training von GPT-3 kostete ungefähr 4,6 Millionen US-Dollar. GPT-4 dürfte mehr als 100 Millionen Dollar gekostet haben.
Eine Studie aus 2022 besagt Der Vorrat an (öffentlichem) hochqualitativem Text wird vor 2026 erschöpft sein.
Beispiele für Risiken:
Scaming
Entwicklung von Substanzen wie Nervengiften
Gegenmaßnahmen:
RLHF (Reinforcement learning from human feedback), Prüfung der Ergebnisse, hat ChatGPT sehr viel besser in Dialogen gemacht.
Red-Teaming: Das Modell “attackieren““ in dem man versucht, es zu Output zu bringen, der nicht rauskommen dürfte.
AI testet AI - “Constitutional AI” nach Bowman.
Bessere Interpretierbarkeit - Mechanistische Interpretierbarkeit (Reverse Engineering, Überprüfung bestimmter Muster in den Trainingsdaten). Je größer das Modell, desto schwieriger ist das mit der Interpretierbarkeit.
Mehr Forschung in AI Alignment und Governance
(Gesellschaftliche) Kosten dürfen nicht externalisiert werden
Was kommt?
KI-Dienste, die mit immer stärker mit anderen Diensten interagieren. Zum Beispiel hat TaskMatrix (Microsoft Research) einen Chatbot, der mit Musikdiensten, Online-Shopping, Spielen und anderen Seiten interagieren kann. Palm-E kann einen Roboter kontrollieren. Auto-GPT entwickelt Geschäftsideen.
LLMs mit der physischen Welt zu verknüpfen, hat Sicherheitsimplikationen.
Hoffnung: Weniger Halluzinationen, wenn man sie mit mehr Datenbanken aus Text, Bildern und Videos trainiert.
Transformer-Modelle haben nur beschränktes Kontext-Fenster (= Kurzzeit-Speicher). Wird das verdoppelt, muss vier Mal so viel Rechenkraft aufgewendet werden. Die Hoffnung liegt auf Post-Transformer-Architekturen, die “Long Learning” (vs. Deep Learning) ermöglichen.
Yann LeCun: LLMs sind “doomed”, wird unmöglich sein, den Output zu kontrollieren. Das ist aber eine Minderheitsmeinung.
Besonders empfehlenswert ist das Essay zum Thema. Die Kernaussage: KI könnte nicht dazu führen, dass Systeme Bewusstsein haben. Sondern dazu, dass sich unser Bild des menschlichen Bewusstseins massiv ändert.
Der Sudan ist offline
“Internet monitoring group NetBlocks said Sudan was in the midst of an "internet blackout", with connectivity at 2% of ordinary levels, which could seriously hinder the coordination of help for those trapped in Khartoum and other cities.”
Internet-Blockaden sind in der medialen Berichterstattung kein großes Thema mehr, gehören aber speziell auf dem afrikanischen Kontinent inzwischen zum regulären Handwerkszeug der Regierenden. Was es bedeutet, sich gerade in seinem Haus in Khartum verschanzt zu haben, ohne Zugang zu digitalen Informationen über das Geschehen da draußen, ohne die Möglichkeit, Verwandte und Freunde per WhatsApp zu kontaktieren - ich kann gar nicht ausdrücken, was für ein Albtraum das ist.
Digitalpolitische Notizen
Von Alibaba bis Zalando: Die EU-Kommission hat die “Very Large Online Platforms” identifiziert, die unter dem Digital Services Act besonderer Regulierung unterliegen.
Das Fachgespräch zu #ChatGPT im Forschungsausschuss des Bundestags war wirklich gehaltvoll. Skurril allerdings, dass offensitlich Union und FDP beide den KI-Bundesverband eingeladen hatten, der deshalb mit zwei Vertretern anwesend war. Als gäbe es keine anderen Branchen-Lobbyisten/branchennahe Experten
Und: Doris Weßels war der absolute Star. Weil hier ja Medienmenschen mitlesen: Ich glaube, zum Thema “Künstliche Intelligenz im Bildungswesen” gibt es hierzulande niemanden, der so viel Fachwissen und Ideen dazu hat wie Frau Weßels. Wer das Gespräch nicht nachhören wollte: Beim Deutschlandfunk findet sich zu den wirtschaftlichen und den Bildungsaspekten des Gesprächs jeweils ein Beitrag von mir (mit heißer Nadel gestrickt).
Gesundheitsminister Karl Lauterbach hat im Zuge der Digitalstrategie-Updates nochmal seine Pläne für die Gesundheitsdigitalisierung vorgestellt. Ein Knackpunkt bei der elektronischen Patientenakte (ePA) sind weiterhin die Standards. Dass die ePA-Großeinführung zunächst einmal ohne strukturierte Befund-Daten vonstatten gehen soll, zeigt den Entwicklungsrückstand. Zwar soll die zur digitalen Gesundheitsagentur aufgemotzte Gematik in Standardisierungsfragen mehr Entscheidungsfreiheit bekommen. Aber ich halte es für fraglich, ob sie sich wirklich von der Knute der Selbstverwaltung befreien kann. So wie ich wegen Lauterbachs politischer Schwäche ganz grundsätzlich ein Fragezeichen dahinter machen würde, ob seine ambitionierten Pläne Realität werden.
Die FDP will für die Umsetzung des Onlinezugangsgesetzes 2.0 verbindliche Fristen festlegen. Positiv: Man verbindet die Fristen mit dem Reifegrad. Denn ohne festgelegten Reifegrad würden die Städte und Kommunen einfach nur pdfs online stellen, um den Online-Zugang auf dem Papier (hehe) zu erfüllen. Von einer echten Registermodernisierung im Sinne der Ende-zu-Ende-Digitalisierung sind wir natürlich weiterhin weit entfernt, aber es ist halt, was es ist.
Was von Buzzfeed News bleibt
Das ist eine Übernahme aus dem
meinem anderen Newsletter.Buzzfeed News macht dicht und Charlie Warzel schreibt davon, dass damit das Internet der 2010er-Jahre endet. Besonders in Deutschland dürften sich all diejenigen bestätigt fühlen, die solche neue Online-Marken selbst dann als Clickbait-Medien betrachteten, als die schon die ersten Pulitzer-Preise eingefahren hatten.
Ohne Buzzfeed News aber hätte sich die New York Times niemals in dieser Form digitalisiert und teilreformiert. Und es war die Phalanx von risikokapitalfinanzierten Online-Medien, die eine neue Generation von Journalistinnen und Journalisten in den Beruf gebracht hat. Und damit die Tür geöffnet, durch die frische Luft rund um Themen, Formaten und Erzählformen hineinkommen konnte. In Deutschland ist das nie passiert, weil der Druck gefehlt hat. Entsprechend sehen die Inhalte hierzulande aus, wie sie eben aussehen.
Allerdings gibt es natürlich auch eine Schattenseite dieser Medienexplosion und ihrer späteren Implosionen: Amerikanische Kolleginnen und Kollegen, die in ihren 30ern bereits zum dritten oder vierten Mal Opfer einer Entlassungswelle werden. Eine ganze Generation, die sich vermutlich fragt: Warum bin ich in diese verdammte Branche eingestiegen?
1 Werbevideo
Angeblich komplett von KI erstellt.
Bis nächste Woche!
Johannes