Liebe Internet-Beobachtende,
“Don’t believe the Hype”? “Believe the Hype”? Diese Fragen stellen sich immer, wenn eine neue Technologieform andeutet, wohin es in der Digitalisierung gehen könnte. Hier der Versuch meiner Antwort.
Im Bild: Mein Chatbot (beziehungsweise in “Wirklichkeit” einer meiner Lensa-Avatare…)
Thema der Woche: ChatGPT - das ändert… alles?
Ich bin immer vorsichtig, wenn mich die erste Welle eines neuen Hypes überspült. Doch der erste Eindruck von ChatGPT war bei mir ganz klar: Das hier ändert alles. Mit etwas Abstand würde ich es so formulieren: ChatGPT gibt zumindest einen ersten Eindruck davon, wie sich das Nutzungsparadigma für Digitaltechnologien verändern wird.
Wer es nicht verfolgt hat: ChatGPT ist eine mit GPT-3 hinterlegte Chatsoftware. Oder, um die Software über sich selber reden zu lassen:
“ChatGPT ist ein großes Sprachmodell, das von OpenAI trainiert wurde. Es ist in der Lage, menschliche Sprache zu verstehen und zu antworten, um Benutzern zu helfen, Fragen zu beantworten und Probleme zu lösen.”
Ob Comedy-Szenen, E-Mail-Entwürfe, Diätpläne, Essays - ChatGPT wird gerade ziemlich exzessiv ausprobiert. Zum Beispiel kann es auch Software-Code produzieren:
Und natürlich wird viel netter Unsinn produziert.
Zwei Sachen sind wichtig: ChatGPT ist nicht neu - sondern packt GPT Version 3.5 in ein Produkt. Und dieses Produkt findet offensichtlich ähnlichen Massen-Anklang wie im Frühsommer die Bildgenerierung mittels Midjourney AI. Auch wenn der Output oft etwas langweilig und der Humor überkonventionell ist.
Der zweite Punkt: Die Antworten von ChatGPT sind oft nicht korrekt. Gary Marcus erinnert daran, dass ChatGPT de facto “Pastiche” produziert, also Wissen nachahmt. Denn “Künstliche Intelligenz” hat weiterhin keine Ahnung von Zusammenhängen und Konzepten aus der Welt da draußen. Letztlich berechnet die Software ihren Text-Output nach Wahrscheinlichkeiten. Dass es gut klingt, heißt aber noch nicht, dass es wahr ist.
Pessimisten leiten daraus eine Entwicklung ab, in der das Internet (und damit auch die Google-Suche) bald voller AI-Ausschussware ist, von der wiederum AI lernt, was zu einer Verschmutzungskatastrophe im digitalen Raum führt. Ich denke, für solche Extremszenarien gibt es noch keine Anhaltspunkte. Zumal die Entwicklung erst begonnen hat und in einigen Monaten mit GPT-4 ein Modell der nächsten Generation vorliegen wird. Und nehme an, das mit GPT-4 bessere Plausibilitätstests kommen.
Worauf aber deutet ChatGPT dann hin? Auf ein neues Paradigma womöglich. Denn wenn wir von “Chatbots” oder “persönlichen Assistenzsystemen” sprechen, dann scheint ChatGPT dieses Versprechen erstmals wirklich einzulösen. Was der Google Assistant automatisiert an Lebensrealität navigieren kann und was die Suche uns als Ergebnis präsentiert: Das alles wirkt altmodisch im Vergleich mit einem freundlich parlierenden und doch ziemlich schlauen AI-Chatprogramm (das allerdings auf dem Datenstand des Jahres 2021 basiert).
Ironisch: Die Veränderung von der Suche zur Frage/kommunikativen Schnittstelle hatte Google selbst antizipiert, aber (noch) nicht nutzerfreundlich genug umgesetzt. Was daran liegen könnte, dass man AI nicht als Ausgangspunkt für ein gebündeltes Produkt betrachtet hat, sondern vorwiegend als Motor hinter Backend-Anwendungen (z.B. rund um Werbe-Personalisierung oder Suchergebnis-Sortierung).
Die nächsten 12 Monate werden sicher interessant. Ob Google einen Produktschwenk aus existierender Technologie hinbekommt oder für nötig hält. Und welches Geschäftsmodell OpenAI mit ChatGPT entwickeln wird - denn wenn jeder Chat ein paar Cent kostet, wie Sam Altman sagt, ist die Preisfindung nicht trivial (und legt womöglich eine Positionierung als Profi-Werkzeug für verschiedene Einsatzfelder nahe). Persönliche Daten wie Google hat OpenAI nicht. Doch würde umgekehrt ein personalisiertes, ChatGPT-artiges Google-Produkt zur Killeranwendung und Lifelogging- - oder so creepy, dass es Nutzer abschreckt?
Der unsichtbare Elefant im Raum bei alldem: Insgesamt wird Text im mobilen Internet unwichtiger.
Ende von Hausaufgaben und Hausaufsätzen
Ich will noch einen zweiten Aspekt hinzufügen, der vor allem in den USA interessiert bis aufgeregt diskutiert wird. Plakativ unter dem Motto “Das Ende der Hausaufgaben”, aber eben wirklich ziemlich relevant im Bildungsbereich. Denn wenn sich jede/r an Schule und im Grundstudium in Sekundenschnelle Aufsätze basteln lassen kann, ist das eben etwas anderes als Hausaufgaben-Tausch via WhatsApp oder Wikipedia-Abschreibe (mal abgesehen davon, dass bei ChatGPT Plagiatssuchen irrelevant sind).
John Warner, der das Thema bei Inside Higher Ed seit dem vergangenen Jahr intensiv begleitet, kommt zu folgendem Schluss (Fettungen meine):
“So what are we supposed to do about this? I have a number of ideas, but to start, I think we should collectively see this technology as an opportunity to re-examine our practices and make sure how and what we teach is in line with our purported pedagogical values.”
Das gilt auch für Deutschland, wo sich eigentlich alle Menschen aus dem Bildungsbereich sofort mit dem Thema beschäftigen sollten. Denn solche Werkzeuge machen eine Reform des Bildungswesens nochmal dringlicher.
Wie könnte die aussehen? Ben Thompson verbindet das Ganze mit dem Zero-Trust-Prinzip (das den Sprung aus der Cybersicherheit geschafft hat und derzeit ebenfalls omnipräsent ist, aber das ist ein anderes Thema, das ich mal aufgreifen sollte). Also: "Never trust, always verify”, aber für das Bildungssystem.
Heißt (Fettungen meine):
“the real skill in the homework assignment will be in verifying the answers the system churns out — learning how to be a verifier and an editor, instead of a regurgitator.
What is compelling about this new skillset is that it isn’t simply a capability that will be increasingly important in an AI-dominated world: it’s a skillset that is incredibly valuable today. After all, it is not as if the Internet is, as long as the content is generated by humans and not AI, “right”.
Das Ganze klingt ausformuliert nach dem, was der deutsche Medienwissenschaftler Bernhard Pörksen als “redaktionelle Gesellschaft” beschreibt.
Ist der Ansatz etwas idealistisch, gar naiv? In einem Szenario, in dem es mehr “schlechte Information” als Fakten gäbe, würde ein Modell ohne Autoritäten an seine Grenzen kommen. Allerdings ist genau dieses Modell in unserer vernetzten Herstellung von Wahrheit bereits Teil der Realität. Eine Wiederherstellung alter Informationshierarchien ist unmöglich. Der Blick nach vorne muss zwangsläufig in Richtung Verifizierung und Quellenkritik wenden.
Zitiert: Die Miniaturisierung der Konfliktgewalt
“Miniaturization of force leads to the democratization of force. Cheaper, smaller, commercially available technologies mean that fewer wealthy countries, as well as a plethora of non-state actors, can once again get into the big league. US forces in Syria, for instance, are regularly attacked with tiny suicide drones, and the Ukrainians are buying quadcopters from Amazon and modifying them to drop bombs on Russian forces.”
Zitiert aus: The Miniaturization of Force
Links
Danah Boyd hat den besten Text über Twitter und die aktuellen Entwicklungen geschrieben. Punkt.
Apples chinesischer Traum ist vorbei
TSMC baut die Fertigung in Arizona deutlich aus, 3-Nanometer-Produktion geplant
Leistungsschutzrecht goes America
Warum ist SBF noch nicht verhaftet worden?
Sicherheitszertifikate: Was führte TrustCor im Schilde? ($)
FRAN - Disney’s Machine-Learning-Anwendung, um Schauspieler älter oder jünger zu machen.
“We need to make sure that the machines that watch over us truly will be loving.”
Dezentrale Moderation - es ist kompliziert (€)
Bye, bye Flugmodus: Ab Juli 2023 wird auf Flügen in der EU 5G an Bord möglich sein.
1 Tweet
Vielen Dank fürs Lesen - und bis nächste Woche!
Johannes