Aus dem Internet-Observatorium #81
Deepfake-Pornographie: Die gesetzlichen Regeln in Deutschland / Digitalpolitische Notizen
Hallo zu einer neuen Ausgabe! Sitzungswoche im Bundestag bedeutet, diesen Newsletter in die Randzeiten zu quetschen. Was dazu führen kann, dass er wie heute erst am Donnerstag(morgen) erscheint. P.S: Auf meinem Blog bzw. in meinem anderen Newsletter publiziere ich auch zu anderen Themen, derzeit sogar sehr regelmäßig. Aber nun zum Thema der Woche, wie immer mit einem Symbolbild von Dall-E3 eingeleitet:
Deepfake-Pornographie: Die gesetzlichen Regeln in Deutschland
Die pornografischen Deepfake-Bilder, die über Taylor Swift kursieren, haben das Thema “Bildmanipulation zur sexuellen Objektivierung” in den Mainstream geholt. Die Praxis selbst ist alt und vordigital, seit ungefähr 2019 braucht es auch kein Photoshop mehr, und in den vergangenen Monaten gab es einige Berichte über solche Manipulationen im Schulmobbing-Kontext.
Ich will mich an dieser Stelle von der amerikanischen Debatte (und auch der Frage, wie kaputt die Moderation bei X-Twitter ist) lösen und auf Deutschland blicken - wie ist die Rechtslage hierzulande? Hier ein unverbindlicher Überblick, welche Rechte Anwendung finden können, um sich gegen Deepfake-Pornographie und -Nacktbilder zu wehren:
Persönlichkeitsrecht:
Aus dem Grundrecht zur persönlichen Entfaltung (Grundgesetz, Art. 2, Abs. 1) leitet sich auch das Recht am eigenen Bild ab, in diesem Falle auch das Recht auf sexuelle Selbstbestimmung. In BGB § 823 (1) ergibt sich daraus ein Unterlassungs-, Beseitigungs- und Schadensersatzanspruch. Dort heißt es: “Wer vorsätzlich oder fahrlässig das Leben, den Körper, die Gesundheit, die Freiheit, das Eigentum oder ein sonstiges Recht eines anderen widerrechtlich verletzt, ist dem anderen zum Ersatz des daraus entstehenden Schadens verpflichtet.”
BGB heißt allerdings auch: Wer Opfer einer Deepfake-Manipulation wird, muss die Persönlichkeitsverletzung auf dieser Basis über das Privatrecht durchsetzen. Was bereits daran scheitern könnte, die Urheber zu identifizieren. Und die Unterlassung bei der Verbreitung betrifft zwar alle, die das Material teilen, aber auch hier funktioniert das nur, wenn man dieser Menschen habhaft werden kann.
Strafgesetzbuch:
Minderjährige sind theoretisch vor Deepfake-Manipulationen geschützt, denn in §§ 184b, 184c StGB wird der Besitz jugendpornographischer Inhalte unter Strafe gestellt. Dabei geht es nicht nur um echte Aufnahmen, sondern auch um “wirklichkeitsnahes” Material. Was auf Deepfakes zutrifft.
Die Paragraphen 185 bis 187 des StGB wiederum sind theoretisch für Erwachsene anwendbar, sie enthalten die Klassiker Beleidigung, übliche Nachrede, Verleumdung. Obwohl hier bis zu fünf Jahre Freiheitsstrafe möglich sind, dürften Deepfake-Fälle in der Regel als minder schwere Straftaten eingestuft werden - was auch hier wieder dazu führen dürfte, dass die Behörden auf den Privatklageweg verweisen, sofern es sich nicht um Schwerpunkt- oder besonders digitalaffine Staatsanwaltschaften handelt. Die NGO “Hate Aid” fordert deshalb, bei öffentlich auffindbarem Deepfake-Pornografiematerial ein öffentliches Interesse vorauszusetzen, um hier entsprechend Ermittlungen zur Regel werden zu lassen. Das scheint mir rechtssystematisch nicht so wirklich zu passen, aber wäre natürlich effektiv.
Urheberrecht:
“Bildnisse dürfen nur mit Einwilligung des Abgebildeten verbreitet oder öffentlich zur Schau gestellt werden”, heißt es in § 22 KunstUrhG. Auch Ausnahmen aus § 23- also Fotos der Zeitgeschichte, jemand ist Nebenfigur auf einem Bild etc. - müssen auch das berechtigte Interesse einer Person berücksichtigen und sind ohnehin kaum anzunehmen. Die Veröffentlichung kann eine Geldstrafe oder eine Freiheitsstrafe von bis zu einem Jahr (§ 33 KunstUrhG) nach sich ziehen. Es ist natürlich reichlich absurd, über das Urheberrecht zu gehen, aber es ist gangbar.
Seit dem Auftauchen von KI-Bildgeneratoren gibt es Vorstöße, das Recht noch einmal anzupassen. So hat im vergangenen Jahr der Bund deutscher Juristinnen ein Paper dazu vorgelegt, das den Titel “Bekämpfung bildbasierter sexualisierter Gewalt” trägt. Sie weisen darauf hin, dass der Deepfake-Tatbestand bislang systemisch nicht wirklich erfasst wurde beziehungsweise in den Pornografie-Tatbeständen schlecht aufgehoben ist, während er klar im Sexualstrafrecht verortet werden sollte, inklusive entsprechender Strafen. Zudem soll künftig ein öffentliches Interesse an den Ermittlungen von im Netz geposteten Sexual-Deepfakes “insbesondere dann angenommen werden (…), wenn die wiedergegebenen Personen nicht ermittelbar sind.”
Bewegung in die Sache könnte durch die “Richtlinie zur Bekämpfung von Gewalt gegen Frauen und Häuslicher Gewalt” aus Brüssel kommen. Dort ist in Artikel 7 festgelegt (Fettungen von mir):
Die Mitgliedstaaten stellen sicher, dass die nachstehenden vorsätzlichen Handlungen unter Strafe gestellt werden:
a) Herstellung von intimen Bildern, Videos oder anderen Materialien, die sexuelle Handlungen einer anderen Person darstellen und einer Vielzahl von Endnutzern mittels Informations- und Kommunikationstechnologien zugänglich sind, ohne Einwilligung der betreffenden Person;
b) Herstellung oder Manipulation von Bildern, Videos oder anderen Materialien, die den Anschein erwecken, dass eine andere Person sexuelle Handlungen vornimmt, und deren anschließende Zugänglichmachung für eine Vielzahl von Endnutzern mittels Informations- und Kommunikationstechnologien, ohne Einwilligung der betreffenden Person;
Das heißt nicht unbedingt, dass die Bundesregierung hier Anpassungen vornehmen muss - man könnte auch argumentieren, dass die Forderungen durch die oben genannten Gesetze abgedeckt sind. Zumal es in Deutschland an seriösen Zahlen über die Verbreitung des Problems zu fehlen scheint (was sich dringend ändern sollte).
Vor allem aber blockieren derzeit Frankreich, Ungarn und auch Deutschland die Richtlinie im Europäischen Rat. Das Bundesjustizministerium führt das Argument an, dass die EU mit der Definition des Tatbestands der Vergewaltigung ihre Regelungskompetenz gegenüber den Nationalstaaten überschreite.
Zu guter Letzt: Deepfakes sind auch in der gängigen und künftigen Digitalregulierung der EU ein Thema, allerdings im Kontext der Plattform-Pflichten:
Der (noch nicht verabschiedete) AI Act sieht in Artikel 70b vor: KIs, die synthetische Bilder, Audio oder Videos herstellen oder Bilder so manipulieren, dass sie echten Personen, Orten und Ereignissen stark ähneln, müssen ihren Output als “künstlich erstellt” oder “manipuliert” offenlegen. Diese Kennzeichnungspflicht dürfte auf das berühmte Wasserzeichen hinauslaufen, das sich zum Standard der etablierten Anbieter entwickeln soll.
Der Digital Services Act verlangt von sehr großen Plattformen ebenfalls eine Kennzeichnung von KI-Inhalten, und zwar eine, die sofort erkennbar ist. Zudem sollen Nutzerinnen und Nutzer solchen Content auch melden können, wenn sie ihn finden. Hier soll in der Praxis zumindest ein schnellerer Takedown möglich sein. Allerdings entzieht sich das Sharing über abgeschlossene Chatgruppen natürlich solchen Möglichkeiten.
Linktipps zum Thema:
Forscherin Sophie Maddocks über das Ausmaß des Problems.
Constanze Kurz und Chris Köver bei Netzpolitik über die Verantwortung der Software-Hersteller.
Notizen zur deutschen Digitalisierungspolitik
Aus Zeitgründen hier nur einige kurze Notizen
AI Act: Deutschland gibt Widerstand auf
Die Bundesregierung wird dem “AI Act” am Freitag zustimmen, das Digitalverkehrsministerium (BMDV) gibt seinen Enthaltungsgedanken auf. Unabhängig vom Inhaltlichen lässt sich feststellen: Gerade auf Ministerebene hat im BMDV man das Thema viel zu spät erkannt, nämlich so wirklich erst, nachdem der Europäische Rat Ende 2022 seine Position abgestimmt hatte. Einerseits logisch, die Federführung hatten Wirtschafts- und Justizministerium. Aber es gibt ja auch so etwas wie antizipierende Politik und Einwirkungsmethoden auf andere Ressorts, von denen Volker Wissing ja zuletzt auch Gebrauch machte.
Strategisch wäre es für das BMDV vermutlich klüger gewesen, auf die Federführung beim “Digital Services Act” zu verzichten (der ja ohnehin schon 2022 auf EU-Ebene abgeschlossen wurde) und dem BMJ zu überlassen, dafür aber den “AI Act” zu begleiten. Denn der Hebel im Trilog war trotz zwischenzeitlicher Habeck-Unterstützung zu klein, um in Sachen Foundation Models größere Änderungen zu erreichen. Aber natürlich ist der DSA alleine schon durch das “D” im Namen eine Prestige-Angelegenheit. So blieb aber Wissing der Minister mit dem größten Engagement beim Thema KI, ohne wirklich das Heft des Handelns in der Hand zu haben.
Was man vielleicht schon bilanzieren könnte für die aktuelle Legislaturperiode: Mit der sehr breit gestreuten Verteilung der digitalpolitischen Verantwortlichkeiten und Federführungen hat sich die Bundesregierung keinen Gefallen getan.
Inhaltlich demnächst mal wieder mehr von mir zum “AI Act” (hoffentlich).
Die Causa Kelber
Die Amtszeit des Bundesdatenschutzbeauftragten Ulrich Kelber wird aller Voraussicht bereits nach einer Amtsperiode enden. Das geht aufs Konto der Sozialdemokraten. Der SPD(-Fraktion) ist das Datenschutzthema nicht wichtig genug, im Bereich Innenpolitik sogar eher unangenehm. Und so muss der Sozialdemokrat Kelber seinen Posten räumen, obwohl er seinen Job erfolgreich wie öffentlichkeitswirksam erledigt hat. Stattdessen darf die SPD jetzt den neuen Bundespolizeibeauftragten stellen und den Posten in fünf Jahren absehbar an die Union abgeben. Großartige Leistung.
Die Entscheidung, Grünen und FDP die Auswahl für den Posten zu überlassen, wurde dann auch noch derart spät getroffen, dass man jetzt unnötig unter Zeitdruck steht. Und dass man Kelber in seiner Bonner Behörde offensichtlich im Unklaren darüber gelassen hat, was gespielt wird, ist auch stilistisch kein Ruhmesblatt. Das Amt ist zwar nicht beschädigt, aber erhält im Stellenwert durch solche Manöver doch ein Downgrade. Schon alleine, weil Nachfolger/Nachfolgerin nur mit einer einzigen Amtszeit rechnen kann. Das wurde Kelber damals sicher auch anders verkauft.
“Haushaltskahlschlag” reloaded
Als die FAZ im vergangenen August berichtete, dass der Verwaltungsdigitalisierung der Haushaltskahlschlag drohe, winkte das Bundesinnenministerium kurz darauf ab: Durch Ausgabenreste könne man weiterhin auf ungefähr 300 Millionen Euro kommen, was in etwa der Summe von 2023 entspräche.
Eine Anfrage des CDU-Abgeordneten Yannick Bury zeigt nun: Die 2024 einsetzbaren Ausgabenreste belaufen sich auf 110 Millionen Euro, das wäre ungefähr die Hälfte des Versprochenen.
Der Tagesspiegel Background (€) mutmaßt, dass die Bundesländer im Wissen der anstehenden Kürzungen in der zweiten Jahreshälfte massiv den Mittelabschluss beschleunigt hätten. Also niedrige Ausgabenreste wegen höherer Ausgaben.
Das klingt plausibel. Ich halte es aber, gelinde gesagt, nicht für ausgeschlossen, dass das Bundesinnenministerium während des PR-Desasters “Haushaltskahlschlag” eine schnelle Überschlagsrechnung machte und die 300-Millionen-Euro-Ansage machte, ohne wirklich zu wissen, ob und wie man auf diese Summe kommen kann.
Links
Apple ermöglicht Sideloading, verlangt aber Plattformgebühr - konsequent oder dreist?
Microsofts Erklärungen zum Russland-Hack sind nicht überzeugend.
Cory Doctorows McLuhan-Lecture im Rahmen der Transmediale als Video und als Text.
KI und die Potenziale im globalen Süden. ($)
Ist die europäische Plattform-Richtlinie tot?
Ransomware-Angriffe und die folgen für die Krankenhaus-Akutversorgung.
Der Mythos der technischen Zwangsläufigkeit.
Bis zur nächsten Ausgabe!
Johannes