I/O 27/Juli/2022
Grundrechte für KI? / VW, Diess und das Software-Debakel / Influencer: Community vs. Follower
Hallo zu den wöchentlichen Kurzbeobachtungen aus dem Internet-Observatorium, einem kleinen Newsletter, der jeden Mittwoch erscheint.
Grundrechte für KI
Die Oxford-Philosophen Nick Bostrom und Carl Shulman arbeiten sich bereits länger an der Frage ab, wie fortgeschrittene selbstlernende Software a.k.a. “bewusste Künstliche Intelligenzen” in unsere Gesellschaft integriert werden könnten.
Konkret: Welche Rechte sie erhalten sollten. Eigentlich war die Auseinandersetzung in Buchlänge geplant, vor kurzem haben sie ihre Überlegungen aber einfach als Grundlagenpapier mit dem Titel “Popositions Concerning Digital Minds and Society” (pdf) veröffentlicht. Ich habe es neulich gelesen und zu verstehen versucht, es ist durchaus schwere Kost.
Zunächst grenzen die Autoren den Begriff Bewusstsein ein, schlagen den Bogen über das “Bewusstsein” von Tieren hin zur These, dass Bewusstsein nicht unbedingt an kohlenstoffbasierte Nervensysteme geknüpft ist. Heißt: Es ist nicht ausgeschlossen, dass silikonbasierte Prozessoren in einem Computer einmal Eigenschaften erfüllen, die wir als “Bewusstsein” definieren.
Wer den beiden bis hierhin folgt, für den stellt sich die Frage: Was heißt das für den Umgang mit solchen “bewussten” KIs? Bostrom und Shulman versuchen es so zu beantworten: Wenn KIs einen Status im moralischen Koordinatensystem unserer Zivilisation erhalten, sind die Gesellschaft und die “Schöpfer” dieser KI moralisch verpflichtet, sich über das Wohlergehen dieser bewussten Systeme Gedanken zu machen. Im Bereich der Entwicklung heißt das: Künstliche Intelligenzen sollten so designt und behandelt werden, dass sie ihrer eigenen Schöpfung zustimmen würden. Oder auch: Wenn eine KI so etwas wie “bewusste Zustimmung” zu etwas geben kann, darf sie keine Arbeit verrichten, ohne dass sie eben zustimmt.
Die beiden Autoren leiten das meiner Ansicht nach aus zwei Tangenten ab: Einmal aus dem moralischen Fortschritt, den wir als Menschheit im 21. Jahrhundert erreicht haben. Denn, so argumentieren beide sinngemäß: Es ist moralisch falsch, dass wir zum Beispiel Tierrechte in Schlachtfabriken missachten, und wir würden nie wieder ein derartiges System desginen. Entsprechend sollten wir keine ähnlichen Systeme für KIs entwickeln - zum Beispiel Trainingssysteme, bei denen KIs manipuliert, bestraft oder gelöscht werden. Die gegenwärtigen Trainings von KI-Modellen seien äußerst unethisch, wenn sie auf Menschen angewendet wurden, schreiben Bostrom und Shulman.
Die zweite Begründung für einen ethischen Umgang deutet auf etwas Düsteres hin: Denn falls uns KIs einmal überlegen sein sollten oder wir auf außerirdische, KI-basierte Zivilisationen stoßen sollten, ist es in unserem eigenen Interesse, eine weiße Weste zu haben. Kurz: Wenn andere Software-Intelligenzen sehen, dass wir ihre Vorläufer/Ahnen schlecht behandelt haben, könnten sie uns bestrafen bis hin zur Auslöschung der menschlichen Zivilisation.
Das Papier hat noch sehr viele andere Aspekte, auf die ich aus Platzgründen nicht eingehen kann. Ich selbst fremdle mit der Anthropomorphisierung von Software, weil ich sehr skeptisch bin, was das Erreichen von “Artificial Consciousness” (künstlichem Bewusstsein) betrifft.
Zack Davis kritisiert bei LessWrong ebenfalls die Anthropomorphisierung, aber aus der futuristischen Perspektive: Bostrom und Shulman würden sich demnach zu sehr an Konzepten orientieren, die aus der Evolutionsgeschichte der Menschheit und anderer Tiere abgeleitet sind, die stets mit biologischen Bedürfnissen wie Überleben und Fortpflanzung zusammenhing. Im Bereich selbstlernender Software aber sei das anders:
“A better metaphor would be to say that we're in the position of the AIs' environment of evolutionary adaptedness. If anything, this increases rather than decreases our ethical obligations towards the things we create, but the shape of the burden is different when we're selecting the motivations that determine what a mind would consent to, and what even constitutes abusing it.”
Heißt: Menschliche Ziele und Maschinen-Ziele stimmen nicht überein, aber wir können noch gar nicht wissen, was die Maschinen-Ziele sind. Harter Tobak, im Moment und hoffentlich noch lange im Bereich der hypothetischen Szenarien.
Was es schwierig macht, schon jetzt Grundsätze festzulegen, die diese Szenarien berücksichtigen.
VW, Diess und das Software-Debakel
Über die Gründe für den Abgang des VW-Chefs Herbert Diess wird viel gemutmaßt. Nur ganz am Rande fällt dabei auch das Stichwort Cariad: Cariad ist die Software-Architektur des Konzerns, die bald nicht nur Bordelektronik, sondern das Herz der (künftig weitestgehend elektrischen) Autos sein soll. Entwickelt wird sie von der VW-Tochter Cariad SE mit ihren 6000 Mitarbeitenden.
Das Thema scheint mir mehr als einen Spiegelstrich wert – vor allem Michael Freitag vom Manager Magazin begleitet es seit Monaten intensiv. So berichtet er zum Beispiel von einem internen Gutachten von McKinsey, das die Probleme bei der ziemlich wichtigen Cariad-Version E³ 2.0 aufzeigt - das ist die Version, mit der VW die Grundlagen für das vollautonomes Fahren (Level 4) legen möchte. So kommt E³ 2.0 später (im Jahr 2026) als geplant und wird sehr viel teurer als geplant wird (750 Euro mehr für die Elektronikteile pro Auto, 3,5 Milliarden Euro mehr für das Projekt, Gesamtkosten von neun Milliarden Euro bis zum Launch).
Offenbar wurde völlig falsch projektiert. So ist die Rede davon, dass 647 von 738 Hardware-Spezifikationen und Funktionsdefinitionen bislang noch nicht präzise genug definiert wurden. Ganz nebenbei leistet sich der VW-Konzern zwei Stacks: Das besagte Vorzeigeprojekt Cariad E³ 2.0, mit dem VW in einigen Jahren Tesla Konkurrenz machen möchte. Und E³ 1.2, ein Übergangskompromiss, mit dem die Premium-Marken Audi und Porsche schon vorher ausgestattet werden. Die fehlende Priorisierung führt dazu, dass nun beide Systeme verspätet starten.
Verantworten im Vorstand musste das Herbert Diess, der am 8. Juli die Verzögerungen dem Aufsichtsrats erklären musste. Sein Nachfolger, der Porsche-Chef Oliver Blume, schaffte es gemeinsam mit Audi-Chef Markus Duesmann, Diess’ ursprüngliche Pläne zu durchkreuzen: Denn Diess wollte eigentlich den Software-Support für die Kompromiss-Version 1.2 baldmöglichst einstellen und sich auf den großen Wurf der Alleskönner-Version 2.0 konzentrieren. Nun bleiben die Doppelstrukturen erhalten - und woher die 1200 zusätzlichen Entwickler kommen sollen, die die Projekte wieder in die Spur bringen sollen, ist angesichts ausgedünnter Arbeitsmärkte ungewiss.
Laut Michael Freitag vom Manager Magazin wollte Blume die ersten Porsche-Modelle ohnehin erst 2032 mit der E³ 2.0-Software ausrüsten - in zehn Jahren also. Dass der künftige VW-Chef Blume das wichtigste Software-Projekt seines Konzerns kritisch sieht, gleichzeitig aber immer die Zusammenarbeit mit Apple lobt und häufiger in Cupertino ist, ist durchaus interessant. Denn wenn im Winter 2023 E³ 2.0 noch nicht ausgereift ist, drohen neue Verzögerungen. Ich nehme an, dass dann entweder der Fokus auf die Kompromiss-Version 1.2 gelegt werden könnte oder einmal mehr das Software-Outsourcing an einen Tech-Konzern zur Debatte stehen wird.
tl;dr: Beim Abgang von VW-Chef Herbert Diess scheint mir die gescheiterte Software-Strategie (auf große Ankündigungen folgen große Umsetzungsprobleme) ein ziemlich wichtiger Faktor zu sein. Das Manager Magazin hat die beste Berichterstattung dazu.
Influencer: Community vs. Follower
Es ist etwas faul im Influencer-Land. Zumindest scheint sich wieder einmal ein Paradigma zu verändern. The Information ($) berichtet darüber, dass viele Influencer mit dem TikTok-Algorithmus nicht klar kommen, weil die Aufrufzahlen ihrer Videos von wenigen Hundert zu Millionen reichen. Manchmal innerhalb eines Tages.
Eine Zahl zeigt das Problem: 39 000 TikTok-Konten haben mehr als eine Million Follower, das sind 6200 mehr als bei YouTube, 16.000 mehr als bei Instagram. Ich habe an den TikTok-Zahlen immer meine Zweifel, aber nehmen wir an, das stimmt: Damit relativiert sich natürlich der Begriff des “Influencers” - auch für die Marken, die sie als Werbepartner gewinnen. Auch die Influencer wandern auf TikTok in den Long Tail, der Unterhaltungsstream ist dort deutlich wichtiger als die Persönlichkeit.
Taylor “TayLo” Lorenz berichtet in der Washington Post über eine der Gegenstrategien: Influencer nutzen verstärk abgeschlossene Netzwerke wie Telegram, Discord oder Geneva. “Community is the new Follower-Count”, heißt es im Artikel. Weil der Kontakt persönlicher ist und man die Menschen stärker an sich binden kann.
Diese Entwicklung ist nicht völlig neu, Discord-Communitys sind ja bereits länger angesagt. Sie signalisiert aber einmal mehr: Die ständige Anpassung an die Software-Mechanismen führt inzwischen dazu, dass “Creator” und Influencer alle paar Monate Ausweich-Strategien für die Bindung von Fans oder Zuschauern entwickeln müssen. In der “Creator Economy” gewinnen am Ende weiterhin vor allem: die Plattformen.
Was passiert gerade mit Instagram?
Dass das “klassische Social Media” sich dem Ende zuneigt beziehungsweise zumindest wieder einmal die Form verändert, zeigt sich auch daran: Instagram - und Facebook - werden TikTok immer ähnlicher, speziell durch aktuelle Updates. Die Kardashians sind entsprechend sauer (denken aber dabei wahrscheinlich vor allem an sich selbst). Ich verlinke mal diese Analyse, die bis auf die Super-App-Tangente sehr stimmig ist:
Und Richard (Gutjahr) hat etwas über die Tiktok-ifizierung von Facebook geschrieben, belässt es aber bei einer vagen Aufforderung zur Regulierung. Schade, mich hätten seine konkreten Vorschläge sehr interessiert.
Links
Indien geht weiter gegen Tech- und Digitalprodukte aus China vor
Om Malik über die nächste Phase der Digitalisierung
Die New York Times über die Digitalbranche der Ukraine ($)
Facebooks (fehlende) Moderationspolitik facht die Gewalt in Äthiopien an ($)
Kann Huawei-Ausrüstung in nahe gelegenen Funktürmen Daten von US-Militäranlagen abfischen?
Ein Tweet
ICYMI
Bis nächste Woche!
Johannes