Künstliche Intelligenz
Weshalb KI konventionelles Denken verstärken dürfte
Künstliche Intelligenz (KI) ist seit Längerem ein heißes Thema. Bisher waren die Resultate eher mittelmäßig. Das hat System. KI-Algorithmen ermitteln nämlich auf der Basis riesiger Datensätze, wie die Menschen auf bestimmte Signale in bestimmten Situationen meist reagieren. Die Programme imitieren menschliche mentale Prozesse, indem sie deren durchschnittliche Ergebnisse reproduzieren.
Das ist auch oft sinnvoll. Es ist gut, wenn sich selbstfahrende Autos wie durchschnittliche Autofahrer*innen verhalten, denn dann gibt es kaum Unfälle. Gefährlich fahren dagegen Personen, die müde oder berauscht sind oder die rasen und Verkehrsregeln missachten.
Das große Problem bei der Programmierung solcher Autos ist, alle Signale zu erfassen, die Menschen sinnlich wahrnehmen – was sie sehen, was sie hören und sogar, was sie riechen, wenn zum Beispiel Sprit austritt. Dabei müssen sie das komplexe Straßengeschehen, Verkehrsschilder und das Armaturenbrett im Auge behalten. All diese Daten zu sammeln ist schwierig, aber auf ihrer Basis Durchschnittsentscheidungen zu treffen, ist richtig.
Chatbots
Eine neue Art von KI-System macht seit vier Monaten Schlagzeilen. Diese Chatbots produzieren Text. Mit ihnen ist Austausch möglich, und sie akzeptieren auch kleine Aufträge. Am bekanntesten ist vermutlich ChatGPT von OpenAI, einer gemeinnützigen kalifornischen Firma mit gewinnorientiertem Ableger. Der bekannteste Investor ist Microsoft.
ChatGPT ging Ende November online. Zur Nutzung waren schnell mehr als 100 Millionen Menschen registriert, und ihre Zahl wächst rasant weiter. Wegen des hohen Andrangs muss, wer sich neu registrieren will, manchmal recht lange warten. Nach der Registrierung lässt sich das Programm dann aber auffordern, Briefe, Aufsätze oder sogar Gedichte zu schreiben. Die Ergebnisse sind erstaunlich gut.
ChatGPT ist dennoch ein konventionelles KI-System. Es denkt nicht kreativ, sondern reiht entsprechend der Wahrscheinlichkeit, die sich aus der statistischen Auswertung seines riesigen Datensatzes ergibt, Wort an Wort. Wer das bezweifelt, sollte lesen, was der prominente Linguist Noam Chomsky mit zwei Autoren kürzlich in der New York Times schrieb. Die Überschrift lautete: „Das falsche Versprechen von ChatGPT“.
Derzeit lässt sich sagen, dass Chatbots Manuskripte produzieren, wie sie informierte Internetnutzende im Schnitt zu einem bestimmten Thema verfassen würden. ChatGPT hat einige Abiturklausuren bestanden, wobei die Ergebnisse eher durchschnittlich als exzellent waren. Das überrascht nicht, weil das Programm ja typische menschliche Entscheidungen repliziert. Es liefert weder die intelligenteste noch die relevanteste Lösung.
Informationssuche
Für die Alltagspraxis sind durchschnittliche Lösungen meistens gut genug. Vermutlich werden viele Menschen aufhören, Suchmaschinen wie Google zu benutzen, weil der Austausch mit dem Chatbot bequemer ist. Er beantwortet Fragen direkt und erspart Infosuchenden die Auswahl aus langen Linklisten, die zu verschiedenen Websites führen.
Microsoft hat in seiner Suchmaschine Bing inzwischen einen Chatbot eingebaut. Die Verknüpfung ist interessant. Unter anderem gibt das Programm seine Informationsquellen an. Zudem bietet es auf Wunsch auch „ungewöhnliche“ oder „nonkonformistische“ Antworten an. Solche Angaben auszuwerten erfordert aber offensichtlich mehr Urteilsvermögen, als einfach Durchschnittsergebnisse zu akzeptieren. Folglich ist zu erwarten, dass Chatbots letztlich gewohnte Denkgewohnheiten (vielleicht mit leicht kalifornischem Einschlag) verstärken werden.
Zugleich wird es wichtiger, Fakten zu prüfen. Chatbots haben kein Verständnis von Wahrheit oder Realität. Sie werten Datensätze aus, inklusive der vielen Fehlinformationen, die diese enthalten. Dazu gehört auch im Internet verbreitete Lügenpropaganda.
Die neue Technik wird weitreichende Folgen haben. An Schulen und Hochschulen werden Lehrkräfte oft nicht wissen, ob Aufgaben maschinell oder persönlich gelöst wurden. Zudem gehört die kompetente Nutzung von KI eigentlich jetzt schon auf die Lehrpläne.
Auch der Journalismus steht vor Herausforderungen. Manche kluge Beitragende werden mit KI-Unterstützung schneller arbeiten, indem sie beispielsweise einen Chatbot den ersten Entwurf formulieren lassen und den dann selbst optimieren. Weniger kompetente Schreiberlinge werden die Maschine die ganze Arbeit machen lassen. Redaktionen müssen jedenfalls noch mehr darauf achten, ob sich Faktenfehler eingeschlichen haben.
Gefangen in unseren Silos
Besonders beunruhigend ist aber, dass Journalismus noch mehr als bisher gewohnte Narrative bedienen dürfte. Dieser Trend dürfte sich verstärken, weil KI nun mal nicht innovativ denkt, sondern nur Daten verwertet.
In den vergangenen Jahren wurde der Wunsch, über die gewohnten Silos hinauszudenken, immer häufiger formuliert. Die Menschheit braucht nämlich innovative Lösungen für gewaltige und komplex miteinander verwobene Probleme. In der Praxis stecken wir trotz der hehren Wünsche meist in gewohnten Gedankenbahnen fest. Wir sehnen uns zwar nach umfassenden Lösungen, sind aber von unserem bisherigen Wissen geprägt, das fest verwurzelte Narrative auch ständig bekräftigt.
Diese Erzählweisen sind oft nicht hilfreich. Rechtspopulismus wird beispielsweise gern damit erklärt, abgehängte Menschen aus unteren Schichten rebellierten gegen globale Eliten. Aber warum gehört dann Fox News, der Fernsehkanal, der sich in den USA auf solche Botschaften besonders spezialisiert hat, einem multinationalen Konzern, den der australische Milliardär Rupert Murdoch kontrolliert? Derselbe Konzern unterstützte über seine britischen Töchter auch die Brexit-Kampagne. Das taten andere Medienhäuser, die ihrerseits im Ausland lebenden Oligarchen gehören, ebenfalls.
Das gewohnte Narrativ erklärt uns nicht, warum Superreiche mit internationalem Lebensstil engstirnigen Nationalismus propagieren. Der Grund ist, dass ihnen klar ist, dass nur internationale Zusammenarbeit ihren Reichtum und damit ihre Macht beschränken kann. Dabei geht es um Themen wie Steuern, Umweltschutz und soziale Sicherung. Um internationale Kooperation zu verhindern, heizen die Profiteure von Steueroasen Nationalismus an und hetzen gegen „globale Eliten“. Der Begriff Oligarchen-Populismus beschreibt diese Haltung gut, ist aber schwer vermittelbar, weil er nicht der eingespielten Erzählweise entspricht.
Die richtigen Fragen
Je wichtiger KI im öffentlichen Leben wird, desto besser muss auch unsere Urteilskraft werden. In wissensbezogener Arbeit wird es immer mehr darum gehen, die richtigen Fragen zu stellen. Dafür sind eine gute Bildung und oft auch Expertenwissen nötig.
Auswirkungen wird KI auf vielen Ebenen haben. Früher oder später werden Verwaltungen Standardverfahren damit erledigen. Oft werden die Ergebnisse okay sein, aber es wird auch Patzer geben. Gesichtserkennungssysteme erkennen bekanntlich schwarze Menschen nur schlecht, was daran liegt, dass die Datensätze, auf denen sie – ob in Kalifornien oder China – beruhen, nicht viele schwarze Vorbilder enthalten. Vielleicht wird das im Lauf der Zeit korrigiert, aber die Technik wird menschliches Fehlverhalten, wenn es genügend verbreitet ist, systematisch replizieren. Durchschnittliche Entscheidungen sind nun mal mittelmäßig – und manchmal falsch.
Vermutlich werden die Programme schnell besser werden, weil sie auf schnell wachsende Datensätze zurückgreifen. Insbesondere liefert die massenhafte Internetnutzung von Chatbots relevante neue Daten. Sie können Chatbots Fachleuten ähnlicher machen, weil Letztere zu ihren jeweiligen Themen auch am meisten Input liefern. Tendenziell werden die Programme also durchschnittliches Expertenwissen liefern. Jedenfalls scheint die aktuellste ChatGPT-Version Prüfungsaufgaben mit größerem Erfolg zu lösen als die davor.
Chatbots machen es aber auch leichter, Desinformation und Lügenpropaganda zu produzieren. Zu befürchten ist, dass einige das skrupellos nutzen werden und sehr viele Menschen es nicht merken.
Überdurchschnittliche Ergebnisse wird KI nur besonders gut informierten Menschen liefern. Ansonsten wird sie eingespielte Vorurteile und Paradigmen bedienen. Bei der Transformation zur globalen Nachhaltigkeit muss die Menschheit KI so intelligent wie möglich verwenden. Es wäre falsch, einfach der Technik zu trauen.
Link
Chomsky, N., Roberts, I., und Watumull, J., 2023: The False Promise of ChatGPT.
https://www.nytimes.com/2023/03/08/opinion/noam-chomsky-chatgpt-ai.html
Hans Dembowski ist Chefredakteur von E+Z/D+C.
euz.editor@dandc.eu