I/O 05/Oktober/2022
Moderation und Desinformation: Es ist Bewegung drin / Informatik als Pflichtfach / Computing - die nächsten Jahrzehnte
Hallo und willkommen zu einer weiteren Ausgabe von Kurzbeobachtungen!
(Bild via Dall-E)
Moderation und Desinformation: Es ist Bewegung drin
Was früher einmal “Community-Management” hieß, trägt heute den Namen “Trust & Safety”. Was dem notwendigen Grad der Spezialisierung und Professionalisierung entspricht.
Die vergangene Woche scheint mir in diesem Zusammenhang ein Meilenstein gewesen zu sein. Denn in Palo Alto fand zunächst die TrustCon statt, ein Treffen von verantwortlichen Content-Moderatoren und -Moderatorinnen; danach versammelte sich die Forschungsgemeinde zur “Trust and Safety Research Conference”. Wie Katie Harbath in ihrem Newsletter schreibt:
“While this community has been around for a while, this gathering felt like the start of a new era in the trust and safety field. More sharing and debate across the platforms, academia, the media, civil society, and governments is needed and all were present at these events. I really hope this becomes an annual thing.”
Die Silos aufzubrechen, das ist bei Tech in jeder Hinsicht eine gute Idee.
Ein gutes Beispiel für die aktuellen Herausforderungen ist dieses Panel mit der geschätzten Renée DiResta zum Thema Moderation von Livestreams und Kurzvideos.
Ebenfalls hilfreich ist der Versuch, das Niveau akademischer Social-Media-Forschung zu erhöhen und Arbeitsmethodik zu klären. Im Bereich “Disinformation Studies” gehört hier die Harvard-Zeitschrift HKS Disinformation Review seit 2019 zu einer wertvollen Quelle.
Mitte September erschien dort guter Aufsatz von Chico Camargo und Felix Simon, in der sie versuchen, einige Zukunftsfragen der “Fehl- und Desinformationsforschung” zu klären.
Darin benennen sie mehrere Probleme, die das Feld derzeit hat:
Unklare Begriffe (“fuzzy ontology”)
Ein manchmal allzu einfaches Verständnis der Effekte von Medien, Medientechnologien und des Journalismus.
Ein zu großer Fokus auf die englischsprachige Welt.
Die Gefahr abnehmender Forschungsqualität durch die wachsende akademischer Beliebtheit des Themas.
Ein zu großer (!) Einfluss solcher Studien auf politische Entscheidungen.
Blindheit gegenüber der Tatsache, dass Desinformation oft politisch “von oben” kommt.
Die beiden Autoren machen sechs Vorschläge, was sich verbessern lässt:
Größeres Bewusstsein entwickeln, wem Studienergebnisse nutzen und welche praktischen Konsequenzen sie haben (z.B. in der Gesetzgebung oder als Rechtfertigung für politische/unternehmerische Handlungen).
Vorsicht vor moralischer Panik: Superlative wie Desinformationskrise, Informationskrieg oder Infodemie können zu einer Delegitimierung demokratischer Prozesse und Institutionen beitragen.
Es braucht Studien, die sich mit den negativen Folgen der großen Aufmerksamkeit für das Thema Desinformation beschäftigen. Dazu gehört auch, den akademischen Betrieb und “Schnell-Expertentum” zu durchleuchten. Auch das Verhältnis der Forschenden zu den Communitys, die sie untersuchen, muss in den Blick genommen werden.
Desinformationsforschung darf kein ahistorischer Bereich sein, bei dem Wissenschaftler glauben, ein völlig neues Phänomen zu beschreiben. In den Bereichen Massenkommunikation, Persuasionsforschung, Propaganda-Studien und Verhaltenspsychologie wurde wertvolle Vorarbeit geleistet.
Desinformationsforschung muss eine breitere Perspektive einnehmen. Statt dem üblichen Blick auf Facebook oder Twitter müssen Plattformen wie Weibo, VKontakte, Telegram, WhatsApp oder auch einfach das Fernsehen analysiert werden. Und zwar nicht nur die Regionen betreffend, die im globalen Norden beheimatet sind.
Methodische Strenge: Eine Ergänzung computergestützter Methoden durch qualitative Forschung. Komplexere (Computer-)Modelle entwickeln, die der komplexen Realität gerecht werden. Mehr Experimentierfreude mit “adversarial collaboration”, bei denen Forscherinnen und Forscher mit dezidiert divergierenden Perspektiven und ideologischen Ausrichtungen zusammenarbeiten.
Das alles erscheint mir sehr sinnvoll. Und ist auch Auftrag an alle, die dem “Fake-News-Narrativ” ein komplexeres Bild unserer Meinungsbildung entgegenstellen wollen.
Informatik als Pflichtfach
Und auch hier bewegt sich etwas: Die Ständige Wissenschaftliche Kommission hat am 19. September Handlungsempfehlungen zur Digitalisierung im Bildungswesen vorgelegt. Jan-Martin Wiarda (große Leseempfehlung für sein Blog an dieser Stelle) fasst zusammen:
“Für die größte öffentliche Aufmerksamkeit dürfte die Forderung sorgen, schon zum Schuljahr 2024/25 Informatik als Pflichtfach ab Klasse 5 in allen Bundesländern einzuführen – mit mindestens vier, mittelfristig sogar mit sechs Wochenstunden. In der Grundschule sollten Informatikinhalte, etwa zur Funktionsweise von Robotern, im Sachunterricht vorkommen.”
Das ist verdammt ambitioniert, und es ist verdammt nochmal Zeit. Und rüttelt implizit am Status Quo des Föderalismus (was ich für dringend notwendig halte): Denn es sollen dafür dauerhaft länderübergreifende Zentren für digitale Bildung (ZdB) eingerichtet werden, die digitales Lernmaterial entwickeln, bereitstellen, Schulen beim Einsatz begleiten und auch die Lehrkraft-Fortbildung übernehmen. Zunächst für die naturwissenschaftlichen Fächer und Sprachen, dann für weitere Bereiche.
Das “wie” ist hier allerdings fast entscheidender als das “wer”. Oder, um es anders zu formulieren: Informatik-Kenntnisse sind das eine, die grundsätzliche Vorbereitung auf das Leben in einer digitalisierten Welt das andere. Ein Tablet alleine macht noch keinen digitalafinen Unterricht.
Um den Bildungsforscher Andreas Schleicher aus der Vorstellungs-PK des D-21-Lagebildes “21st Century Schools” zu zitieren: “In Deutschland werden digitale Technologien noch zu häufig eingesetzt, um bestehende pädagogische Praxis zu konservieren.” Aber es geht eben nicht ohne Veränderung der Lerninhalte. Dazu brauche es eine "radikale Neuplanung dessen, was Lehren und Lernen sein kann”, wenn es durch Technologie unterstützt wird.
Computing - die nächsten Jahrzehnte
Der Programmierer Charles Rosenbauer hat in seinem Newsletter eine Liste mit 80 Punkten aufgestellt. Ihr Inhalt: Eine Vorhersage der nächsten 100 Jahre der Computing-Entwicklung.
Ein Teil der Liste ist ohne Paywall zugänglich, ein tieferer Einstieg lohnt sich, trotz des hochspekulativen und hochtechnischen Inhalts. Denn Rosenbauer beschreibt, was er als das Zeitalter nach Moore’s Law sieht: “Eine kambrische Explosion bizarrer Hardware”. Wir werden “Computing” im klassischen Sinne nicht mehr wiedererkennen, so die Prognose.
Das Fundament seiner These: Hardware-Programmierung wird durch Silicon Compiling beinahe so sehr Normalität wie heute Software-Programmierung. Gängige CPU-Architekturen machen Platz für ein Ökosystem von Nischen (eine Entwicklung, die wir in der Chip-Entwicklung IMO bereits jetzt sehen scheinen, siehe Machine-Learning-Spezifikationen etc.). Daraus folgt:
“The operating system will begin to resemble a server taking up some number of cores on the chip, system calls being replaced by a simple packet-based protocol, rather than relying on context switches. Cores dedicated to specific programs or services will minimize the need to move large amounts of data around, maintaining effectively special-purpose caches.”
tl;dr: Er scheint mir keine Software-Compiler zu mögen.
Ein weiterer Punkt: Rosenbaum rechnet mit Erfolgen, Machine-Learning-Ergebnisse und neurowissenschaftliche Erkenntnisse per Reverse Engineering zu erklären - und dadurch Werkzeuge zu entwickeln, die wiederum zu neuen Paradigmen in neuen Programmiersprachen führen (für deren Verständnis Programmierer wiederum wissen müssen, wie Hardware-Caches funktionieren).
Irgendwann wird es laut Rosenbaum eine “stabile Form von Quantenphänomen” geben, die bestehende Transistor-Archikteturen ergänzt. Allerdings wird Rechnerreversibilität deutlich verbreiteter als Quantenarchitektur sein. Und: Machine Learning wird alle nicht-kryptographische Daten einfach fälschbar machen, (bessere) Kryptographie entpuppt sich hier als einziges wirksames Gegenmittel.
Weitere Prognosen:
Das Metaverse wird scheitern, Computertechnologie wird für die Augmentierung sozialer Beziehungen verwendet, nicht für die Virtualisierung.
Ganz grundsätzlich: Virtual Reality wird ein gigantischer Fehlschlag, die Zukunft gehört Augmented Reality.
Die Singularität fällt aus - auch weil die Verbindung des Computings mit dem Informationsgehalt der physischen Welt den Fortschritt behindert.
Künstliche Intelligenz auf menschlichem Niveau wird existieren, aber starke soziale Defizite haben und deshalb im Kontext unserer Gesellschaft nicht funktionieren.
Mensch-Maschine-Schnittstellen im Gehirn werden Realität, aber eher der Behebung motorischer Behinderungen dienen, als wirklich besondere Fähigkeiten zu ermöglichen. Im Zuge der Forschung werden wir aber deutlich tiefere Erkenntnisse über die Funktionsweise unseres Gehirns erlangen.
Das Wesen der Kryptographie wird unsere sozialen Codes und Strukturen stärker prägen (Zitat: “For example, the questioning of lies is closely related to interactive proof systems. Costly personal sacrifices pervasive in religions are the human equivalent of Proof of Work consensus.”)
Die Computerwissenschaft wird deutlich näher an die Mathematik rücken.
Ehrlicherweise kann ich nichts davon seriös beurteilen, die Grenze zwischen Zukunftsprognosen und Science Fiction ist bekanntlich fließend. Aber, wie heißt es so schön: Alle Modelle sind falsch, aber einige sind nützlich. Und diese Ideen gehören zu den Nützlicheren, sind sie doch nebenbei ein guter Einstieg in die mathematischen Grundsatzfragen der Informationstechnik.
Wer eher skeptischere Stimmen dazu lesen möchte, wird in diesem HackerNews-Thread teilweise fündig.
Links
ITU-Wahlen: US- und EU-Kandidaten setzen sich durch
TikTok Is the New King of Social Media. Now What?
Die Erpressungstrojaner russischer Hacker: Ein nahezu perfektes Verbrechen (€)
We’re Witnessing the Birth of a New Artistic Medium
KI-Bildgeneratoren: Die Grenzen der Schöpfung
Tech companies are gaming out responses to the Texas social media law
An Overview of the EU’s Cyber Resilience Act
EU Puts Crypto at Top of List for IMF Meetings, McGuinness Says
Vielen Dank und bis zur nächsten Ausgabe!
Johannes