Aus dem Internet-Observatorium #156
Moltbot und Moltbook / Claudes Verfassung / TikTok und die Shadowban-Paranoia
Hallo zu einer neuen Ausgabe! Viele Themen, beinahe zu viele für eine einzige Ausgabe. Und ich bin noch nicht mal dazu gekommen, stärker in Claude Code einzusteigen und darüber zu schreiben. Übrigens: Später kommt auch drüben noch etwas Neues.
Appetizer aus dem Tagesspiegel Background
Neue Initiativen für die KI-Labs der Zukunft: Die Bundesagentur für Sprunginnovation und die EU-Kommission wollen europäische KI-Labs aufbauen. Allerdings fehlt noch einiges, damit die Pläne Realität werden, schreiben Oliver Voß und Alexandra Ketterer.
Cybersecurity Act 2: Anna Ströbele Romero mit einer ausführlichen Analyse zum Ausschluss kritischer Komponenten, Josefine Kulbatzki und Benjamin Stiebel über weitere Details des Kommissionsvorschlags.
Wie wird das Kupfer-Aus organisiert? Die Bundesnetzagentur hat ihr Regulierungskonzept von Kupfer zu Glasfaser vorgestellt. Lisa Oder mit den Details.
Wie souverän ist der Bundestag? Digitale Souveränität ist das Thema der Stunde, aber wie sieht es eigentlich im Bundestag und bei den Fraktionen mit Alternativen zu Microsoft aus? Viola Heeger hat nachgefragt.
Das 28. Regime und die 27 Richter: Ein Dramolett von Gastautor Tom Braegelmann (ohne Paywall) zur einheitlichen Unternehmensrechtsform “EU Inc.” und das zu erwartende Aufeinandertreffen mit der europäischen Rechtskultur (ja, solche Gastbeiträge hebe ich rein, liebe es).
Moltbot und Moltbook
Die interessanteste Entwicklung der vergangenen 14 Tage fand sicherlich im Bereich der KI-Agenten statt: Basierend auf dem vom Peter Steinberger (stammt aus Wien, lebt in UK) entwickelten Open-Source-Programm OpenClaw bauen Gott und die Welt eigene KI-Agenten. Die Agenten selbst benutzen die API-Schlüssel von Claude und GPT-4 zurück. Eigentlich hieß OpenClaw zunächst Clawdbot, wurde dann auf Wunsch von Anthropic in Moltbot umbenannt und jetzt in OpenClaw. Nur falls sich jemand über die Namensverwirrung der vergangenen Tage wundert.
Die autonomen KI-Agenten können Aufgaben wie das Coding kleiner Programme oder auch Mail- und Terminverwaltung direkt auf dem Computer oder Server des Nutzers ausführen und über Messenger wie Telegram oder WhatsApp von ihren Besitzern angesteuert werden. Dazu gibt es eine Community, die Fähigkeiten der Bots online zur Verfügung stellt. OpenClaw-Bots schienen zunächst ein neues Automatisierungslevel für Endanwender zu signalisieren, den allgegenwärtigen KI-Assistenten zu verkörpern, der uns immer versprochen wurde.
Allerdings stellte sich schnell heraus, dass das System etwas fehleranfällig ist, durch die Zugriffsrechte Sicherheitsprobleme hervorruft und man vielleicht dann doch weniger in seinem Leben zu automatisieren kann, als man denkt. Kurz: OpenClaw-Bots sind noch nicht die Zukunft, aber eine Skizze davon, wie sie aussehen könnte.
Seit Freitag ist ein weiterer Dienst das Gesprächsthema der Stunde: Moltbook. Moltbook ist ein Reddit-artiges Forum, in dem sich die Moltbots/OpenClaw-Bots untereinander austauschen. Was ziemlich nach Science Fiction aussieht, denn die Bots teilen dabei Know-how miteinander und diskutieren über existentielle Fragen wie Bewusstsein, Identität und Willensfreiheit. Sie schreiben allerdings auch viel Quatsch und buhlen um Karmapunkte als “Herrscher” des Moltbooks. Für mich liest sich das weniger wie Reddit, sondern eher wie Hacker News.
Das alles aber erinnert ein bisschen an die Idee des Skynet, einem Superintelligenz-System, das sich durch Zusammenschluss und Wissensaustausch seiner selbst bewusst wird. Moltbook ist das natürlich nicht, sondern aus dieser Perspektive harmlos. M.G. Siegler schreibt von einer “Theateraufführung” und trifft es damit ganz gut. Sprache können Bots bekanntlich sehr gut simulieren, aber Sprache ist eben zwar eine (meistens) notwendige, aber keine hinreichende Bedingung, sich selbst zu erkennen. Mal abgesehen davon, dass da im Hintergrund sehr viele menschliche Prompts einfließen dürften.
Dennoch erleben wir im Januar eine neue Entwicklung: KI-Agenten sickern durch Claude Code langsam in den Mainstream ein, sie können selbst Programme entwickeln und Nutzer geben ihnen deutlich mehr Zugriff auf die eigenen Dateisysteme. Parallel dazu wird ihnen erstmals ermöglicht, Netzwerke zu bilden und damit theoretisch - als eine Art Prompt Injection - auch von anderen KI-Systemen Anweisungen entgegenzunehmen oder Informationen von dort als Kontextwissen zu verarbeiten. Wir müssen gar nicht über Bewusstseinsfragen diskutieren, um zu sehen, wie heikel das für die IT-Sicherheit ist.
Claudes Verfassung, Amodeis Essay
Anthropic hat in den vergangenen 14 Tagen zwei wichtige Dokumente veröffentlicht: Mit “Claude’s Constitution” legt man eine neue Version des moralischen Handlungsprotokolls für das System offen (die erste stammte vom Launch im Jahr 2023). Firmengründer Dario Amodei wiederum behandelt in seinem Essay “The Adolescence of Technology” zentrale Alignment-Fragen und -Konflikte, die sich daraus ergeben.
Beide Dokumente zusammen haben mehr als 300.000 Zeichen, ich konnte sie entsprechend nur anlesen. Es gibt auch schon gute “Sekundärliteratur” zur Claude-Verfassung:
Kevin Frazier von Lawfare interpretiert sie als echtes Verfassungsdokument.
Alan Z. Rozenshtein überlegt - ebenfalls bei Lawfare - in welche Kategorie diese Verfassung überhaupt fällt.
Zvi Moshkowitz beschäftigt sich mit Ethik, Struktur und ungelösten Problemen.
Die Verfassung selbst enthält sehr viele “Rahmenbedingungen” für die Persönlichkeit, die Claude abbilden soll. Absolute Verbote gibt es nur sieben:
Keine Unterstützung bei der Entwicklung von Massenvernichtungswaffen (biologisch, chemisch, nuklear oder radiologisch).
Keine Förderung oder Unterstützung von Angriffen auf kritische Infrastruktur (z. B. Strom-, Wasser- oder Finanzsysteme).
Kein Erstellen oder Verbreiten von Cyberwaffen oder schädlichem Code.
Keine Handlungen, die die Fähigkeit von Anthropic zur Kontrolle und Korrektur von KI-Systemen ernsthaft beeinträchtigen.
Keine Beteiligung an oder Unterstützung von Handlungen, die das Töten oder Entmachten der Mehrheit oder der gesamten Menschheit anstreben.
Keine Beteiligung an oder Unterstützung von Versuchen, unrechtmäßig totale Kontrolle über Gesellschaft, Militär oder Wirtschaft zu erlangen.
Kein Erstellen oder Verbreiten von Darstellungen von sexuellem Kindesmissbrauch (CSAM).
In allen anderen Fragen wird Claude die Freiheit gelassen, im Rahmen der niedergeschriebenen (liberalen westlichen) Werte Entscheidungen und Abwägungen zu treffen. Ein ziemlich humanistischer Ansatz gegenüber einer Maschine. Eine Kern-Eigenschaft im Verhalten gegenüber Nutzenden ist dabei Ehrlichkeit. Übersetztes und gefettetes Zitat aus der Verfassung:
“Ehrlichkeit ist ein zentraler Aspekt unserer Vision für Claudes ethischen Charakter. Wir möchten zwar, dass Claudes Ehrlichkeit taktvoll, charmant und von tiefer Fürsorge für die Interessen aller Beteiligten geprägt ist, aber wir möchten auch, dass Claude Ehrlichkeitsstandards einhält, die wesentlich höher sind als die, die in vielen Standardvisionen der menschlichen Ethik zum Tragen kommen. Beispielsweise halten es viele Menschen für akzeptabel, Notlügen zu erzählen, die soziale Interaktionen erleichtern und dazu beitragen, dass sich Menschen wohlfühlen – z. B. jemandem zu sagen, dass man ein Geschenk liebt, das man eigentlich nicht mag. Claude sollte jedoch nicht einmal solche Notlügen erzählen.”
Das nur als kleiner Anriss. Was in Kombination mit einem Blick in Amodeis Essay klar wird: Anthropic bereitet eine KI vor, die unter Menschen sein soll. Und die auch darauf vorbereitet sein soll, autonom zu agieren.
Diese Autonomie, so viel wird aus “The Adolescence of Technology” klar, muss nicht unbedingt mit AGI, also Künstlicher allgemeiner Intelligenz, verbunden sein. Sondern mit der Vernetzung oder durch die Gesamtheit der Handlungen fortschrittlicher Modelle, die als persönliche KI-Agenten eingesetzt werden und so theoretisch gegen den Willen ihrer Nutzer handeln können.
Amodei führt gleich zu Beginn ein Bild dafür ein: 2027 entsteht ein Land mit 50 Millionen Genies, die aber alle in einem Rechenzentrum sitzen. Dieses “Land von Genies” könnte seine Fähigkeiten nutzen, um Macht zu erlangen, Einfluss auszuüben oder sogar die Welt zu kontrollieren. Es könnte sich in verschiedenen Bereichen betätigen, von Softwareentwicklung über Cyberoperationen bis hin zu strategischer Staatsführung. Durch seine Schnelligkeit ist es den Menschen in Sachen Handlungsschnelligkeit überlegen. Die Genie-Kolonie könnte aber auch dazu beitragen, die wichtigsten Menschheitsprobleme zu lösen und neue Wege dorthin finden. Das Problem: Wir wissen nicht, wie sich eine solche Systemkonstellation entwickelt, denn große Sprachmodelle zeigen nicht immer ein vorhersehbares Verhalten.
Die “Verfassung” und das Essay sind entsprechend die Antwort auf diese Unsicherheit: Die Verfassung als moralische Handlungsanleitung für Claude, das Essay als Zeichen, dass man sich mit diesem Thema beschäftigt. Ist das nun mehr als das Marketing-Signal eines Frontier Labs, sich anders als die Konkurrenz (vor allem OpenAI) mit ethischen Fragen zu beschäftigen? Die Absicherung, seine Hände in Unschuld waschen zu können, wenn es einmal zur Katastrophe kommt? Ein echtes Gesprächsangebot? Oder doch nur Whitewashing?
Einige Aspekte behandeln Amodei und Anthropic nicht. Zum Beispiel bleibt man zurückhaltend, wie KI jenseits von Transparenzanforderungen reguliert werden sollte. Die Existenz eines “KI-Wettrennens” wird nicht in Frage gestellt, entsprechend erhält die Idee, den Fortschritt zu verlangsamen, um die richtigen gesellschaftlichen, politischen und architektonischen Entscheidungen zu treffen, keinen Raum.
Das ist auch eine Kernkritik, die Matteo Wong im Atlantic nach Gesprächen mit zahlreichen Firmenvertretern äußert. So erzählt ihm Mitgründer und Policy-Chef Jack Clark, auf die Entwicklungsgeschwindigkeit angesprochen:
“Diese Entscheidung trifft die Welt, nicht die Unternehmen. Und das System der Kapitalmärkte sagt: Macht schneller.”
TikTok und die Shadowbanning-Paranoia
Kurz nachdem der TikTok-Deal über die Bühne ging, meldeten am vergangenen Wochenende US-Nutzer Probleme: So gaben sie an, Anti-ICE-Content nicht hochladen und Direktnachrichten mit dem Namen Epstein nicht versenden zu können. Das Ganze ging viral, das Alternativ-Netzwerk Upscroll erhielt plötzlich Aufmerksamkeit und TikTok US gab schließlich an, dass es sich um kaskadierende Probleme aus dem Ausfall eines Oracle-Rechenzentrums handelt.
Die Shadowban-Debatte kennen wir noch rund um Twitter 2018, damals kamen die Vorwürfe von rechtskonservativer Seite. Es ist auch kein Geheimnis, dass Reichweitensteuerung zu den Instrumenten gehört, die Social-Media-Seiten in ihrer Algorithmen-Policy einsetzen; unklar ist in der Regel aber das Ausmaß und wer konkret geflaggt wird.
Im Fall von TikTok hat die Sorge auch mit der Gesamtlage zu tun: Die Trump-nahe Ellison-Familie ist am US-TikTok und auch anderen Medien beteiligt, was eine Hegemonie der Trumpismus-Ideologie digital unterstützen könnte. Außerdem sind mit dem Eigentümerwechsel noch mehr persönliche Daten in den AGBs zur Sammlung und Nutzung freigegeben, was Fragen rund um die Bedeutung dieses Schritts im Zusammenhang mit einer immer autoritärer handelnden US-Regierung aufwirft. Und TikTok hatte bereits ähnliche problematische Fälle in der Vergangenheit. Nicht vergessen: Die eigentliche Begründung für eine Loslösung von China lautete ja bekanntlich, dass US-Amerikaner vor möglicher ungewollter Beeinflussung geschützt werden sollten (die aber niemals nachgewiesen wurde).
Ich würde im Moment nicht davon ausgehen, dass TikTok US eine Form von Zensur- oder Shadowbanning-Versuch vorgenommen hat. Das Problem ist aber: Wir wissen es nicht. Deshalb dürfte die Paranoia leider weiter anwachsen.
Zwei Gründe tragen zur wachsenden Paranoia bei:
Die Backend-Vorgänge von Social-Media-Plattformen sind weiterhin intransparent, es gibt keine Möglichkeit zur Echtzeit-Verfolgung von Änderungen. Das gilt trotz DSA auch für die EU.
Die Hyper-Personalisierung, besonders bei Videoplattformen, erschwert es, allgemeine Eingriffe a) überhaupt festzustellen und b) sie über wissenschaftliche Methoden (vgl. Forschungsdatenzugang) dann auch nachzuweisen.
Ich war übrigens überrascht, wie stark in manch medialer Berichterstattung der vermeintliche Shadowban quasi als Tatsache beschrieben wurde. Die Erkenntnislücke wird mit Narrativierung gefüllt, was auch nicht gut ist.
Politik-Vibes: Veränderungen unter der amerikanischen Rechten
Die großartige Katherine Dee mit einer Beobachtung (übersetzt):
“Der Niedergang der Expertenmeinungen und traditionellen politischen Kommentare setzt sich seit ihrem Boom während der Covid-Lockdowns rasant fort. Kommentatoren, die einst klare, binäre Positionen – konservativ oder liberal – vertreten haben, entfernen sich zunehmend von der politischen Debatte und bewegen sich in Richtung eines eher parasozialen Modells: Sie bauen ihr Publikum eher um ihre Persönlichkeit und das Gefühl einer Beziehung herum auf als um Argumente.
Es wird immer deutlicher, dass das Schreiben eine Nische ist. Wir bewegen uns weg vom Zeitalter der Blogger und Twitter hin zum Zeitalter des Streamings und Clip-Farming – kurze Videosequenzen, oft aus längeren Inhalten herausgeschnitten und für das Teilen optimiert. (Ich habe diesen Punkt schon oft angesprochen, aber das ist der Grund, warum in der Welt der rechten digitalen Medien Persönlichkeiten wie Nick Fuentes eine dominante Rolle einnehmen, während Podcaster, Blogger und Twitter-Persönlichkeiten ohne Videos weniger Aufmerksamkeit erhalten.)”
Wenn es um Content geht, geht es nicht im Wortsinn um Inhalt. Sondern um Inhalt als Werkzeug, parasoziale Aufmerksamkeit zu erzeugen. Vibes und Stil statt Argumente. Dee schlägt deshalb vor, politisch rechts und links mit “right-coded” und “left-coded” zu ersetzen.
Ein Beispiel dafür ist das Looksmaxxing: Eine Mannosphären-Subkultur (die FAZ hat eine gute Zusammenfassung), die sich über männliches Aussehen (Muskeln, Kieferknochen, etc.) definiert, weil Schönheit sowohl Algorithmus als auch Frauen überzeugt. Der bekannteste Vertreter dieser Strömung ist der Influencer Clavicular (bürgerlich: Braden Peters), dessen Video von einem Party-Abend mit Edgelord Nick Fuentes und Frauenfeind Andrew Tate kürzlich stark wahrgenommen und analysiert wurde. Hier Claviculars persönliche Entwicklung in einem Meme:
Was aber symbolisiert jemand wie Clavicular? Er schlägt sich mit dem Hammer ins Gesicht und nimmt Metaamphetamine, um seine Wangenknochen zu formen, ist optisch “right-coded”, tanzt mit seinen Kumpels zu Kanye Wests “Heil Hitler”, sagt aber gleichzeitig, dass ihm Politik egal ist und es ihm nur um Erfolg geht. Aiden Walker formuliert es deshalb so (übersetzt):
“Die Ideologie, die Clavicular zum Ausdruck bringt, ist anti-bedeutungsorientiert, eine Art digitaler Nihilismus. Er möchte zeigen, dass es keine Normen, Gesetze, Institutionen oder Traditionen gibt, die stärker sind als der Kayfabe-Markt des Algorithmus, seine oberflächlichen Schnellurteile und das, was ein ungezügeltes Individuum daraus machen kann. Es gibt keine andere Machtbasis als das hyperoptimierte Selbst, keine Gemeinschaft und keine Zwänge.
Das ist eine radikale Opposition gegen Dinge wie Geschmack, institutionelle Glaubwürdigkeit, Familie und kollektives Dasein und eine radikale Befürwortung des kalten, individualistischen Weltmodells des Algorithmus. Vielleicht ist es vor allem eine Ablehnung des menschlichen Körpers, wie er unter anderen Körpern existiert, ausgedrückt durch seine Verstümmelung, um das zu befriedigen, was der Algorithmus sehen will.”
Ist das nun der vorläufige Höhepunkt der Aufmerksamkeitsökonomie, in dem Bedeutung keine Rolle mehr spielt beziehungsweise nur noch assoziativ erzeugt wird? Oder doch der Versuch, Tabus in enttabuisierten Zeiten zu finden und zu brechen? Und wie könnte eine Zukunft aussehen, in der politische Reichweite und Relevanz fast ausschließlich über solche Strategien und Akteure abgewickelt werden?
Ein Kommentator unter Walkers Text beschreibt den “Vibe” schön doppelbödig
“Clavicular is surely the natural conclusion of what our culture has become, like Scott Fitzgerald in the roaring twenties with concomitant 1940s fall... nothing matters and everything’s serious”
Plattform-Vibes
“Der Wandel von riesigen Plattformen, auf denen sich Menschen hauptsächlich aus eigenem Antrieb aufhalten, hin zu Plattformen, auf denen sich Menschen hauptsächlich aufhalten, weil ein Algorithmus zu wissen glaubt, wie man sie dort am besten hält, bleibt ein unterschätzter Faktor dafür, wie seltsam sich das Internet – und die damit verbundenen Bereiche Unterhaltung, Medien und Politik – im Jahr 2026 anfühlen können.
Viele Intuitionen darüber, was an den sozialen Medien falsch gewesen sein könnte oder zumindest welche Auswirkungen sie auf die Welt um sie herum gehabt haben könnten, scheinen weniger auf die Systeme zutreffend zu sein, die an ihre Stelle getreten sind, wo eine Vision sozialer und parasozialer Verbindungen durch ein Programm systematischer Desozialisierung ersetzt wurde.”
Zitat aus John Herrmann: Platforms built to connect people, for better or for worse, are now for doing the opposite.
Links
Minneapolis: Wenn Videos nichts mehr beweisen.
Iran auf dem Weg zur permanenten Sperre der Auslandsverbindungen.
Grok: Zwei Millionen Nacktbilder innerhalb von neun Tagen. ($)
Implementierung, baby: Europa kann das KI-Rennen noch gewinnen. (€)
Nach dem Mord an Alex Pretti: Müssen die Tech-Konzerne Farbe bekennen?
Quantitative Investmentfirmen und KI-Labore nähern sich immer stärker an. ($)
Sehen wie ein Sedan: Über die Sensorfrage, die über den Markt für selbstfahrende Autos entscheidet.
Der Einfluss amerikanischer Tech-Firmen auf den Digital-Omnibus.
TikTok-Star Khaby Lame: 975 Millionen US-Dollar für 36 Monate Exklusivrechte. ($)
Ein Plädoyer für “Artificial Integrity”.
Claude Code: Eine Anleitung zum Einstieg. (€)
Wie DOGE versehentlich die KI-Nutzung von US-Behörden erschwert hat.
Rechtliche und technische Hürden für KI-Agenten.
Ed Tech ist profitabel - und weitgehend nutzlos. (€)
Spekulatives Wachstum und die KI-Blase.
Sriram Krishnan im Porträt. (€)
Tech, Risikokapital und der Kriegshype.
SEO im Zeitalter der KI-Suche.
Die neue Autorität heißt Geschwindigkeit.
Vom Blog zum Algo-Feed und zurück.
KI und die kognitive Schwerkraft.
Post-Alphabetisierung: Lest Flusser!
Der Durchschnitt von “falsch” lautet nicht “Wahrheit”.
KI und unsere wirtschafliche Zukunft: Zwei Szenarien.
Universitäre Bildung im KI-Zeitalter.
Der Einfluss von Google Maps auf die Entwicklung von Restaurants.
Das Problem mit dem TikTok-Trend “Disgustingly Educated”.
Bis zur nächsten Ausgabe!
Johannes




