zum Hauptinhalt
Chatbots wie ChatGPT durchstöbern riesige Datenmengen und generieren den wahrscheinlichsten Output.

© Getty Images | Montage: Tagesspiegel

Wie KI unser Denken verändert: Chatbots sind so gut, gerade weil sie nichts verstehen

Sind KI-Sprachmodelle bald so intelligent wie Menschen? Die Bots seien uns jetzt schon in vielen Aufgaben überlegen, verstünden aber trotzdem nichts, sagt die Kommunikationssoziologie Elena Esposito. Sie hält eine Kulturrevolution möglich, vergleichbar mit der durch Schriftsprache.

Gerade hatte sich die Diskussion um die Vorherrschaft der Maschinen ein wenig gelegt, war die Angst vor der algorithmischen Konkurrenz auf dem Arbeitsmarkt gesunken und der Terminator von den Titelseiten verschwunden. Da kam ChatGPT – und die Debatte begann von vorn. Mit Gutachten über die nun aber wirklich zu erwartenden Arbeitsplatzverluste und der bangen Frage, ob jetzt die künstliche allgemeine Intelligenz vor der Tür stehe, so intelligent oder noch viel intelligenter als wir. Protokolle von Unterhaltungen mit Chatbots machen die Runde, die Menschen zu der Überzeug gelangen ließen, sie hätten es mit einem irgendwie zu Leben und Bewusstsein erwachten System zu tun.

Kritiker betonen hingegen immer wieder, diese Systeme seien „stochastische Papageien“: Effizient durchstöbern sie riesige Datenmengen und generieren den wahrscheinlichsten Output, der dann für uns, nicht aber für sie selbst, einen Sinn hat.

Aber wie können die Chatbots so gut sein, wenn sie kein Wort verstehen? „Sie sind so gut, weil sie nicht verstehen, was sie sagen, und sich damit auch nicht belasten müssen“, sagt Elena Esposito, Professorin für Kommunikationssoziologie an den Universitäten Bologna und Bielefeld „Verstehen heißt, sich mit Bedeutung auseinandersetzen, heißt, von dem absehen, was gerade nicht wichtig ist, heißt Abstraktionen bilden zu können und Sätze in ihrem Zusammenhang zu verstehen, das ist aufwändig.“

Diese Systeme sind nicht dumm und nicht intelligent, sie sind anders.

Elena Esposito, Soziologin, Schriftstellerin und Professorin an der Universität Bielefeld und an der Universität Modena und Reggio Emilia. Expertin für Systemtheorie, Medientheorie, Gedächtnisforschung und Mode.

Die großen Sprachmodelle haben genug Ressourcen, um immer wieder ihre Datenbestände zu durchforsten und die wahrscheinlichste Ausgabe zu finden, sie kommen ohne Abstraktionen zurecht, so die Forscherin: „Damit sind sie bei vielen Aufgaben besser als wir, aber sie verstehen trotzdem nichts.“

Sprache ohne Verstehen

Man hat lange versucht, sprachverarbeitenden Systemen Grammatik und Regeln beizubringen. Erst als man sie stattdessen mit großen Datenmengen trainierte, machen sie einen Qualitätssprung. Geradezu sprichwörtlich ist der Satz des IBM-Ingenieurs Frederick Jelinek, der diesen Prozess mit den Worten beschrieben haben soll, jedes Mal, wenn er einen Linguisten feuere, verbessere sich die Spracherkennung.

Fachleute kennen aber auch die Bereiche, in denen die aktuellen Chatbots regelmäßig versagen, und ihre Beobachtungen stützen Espositos These: Nicht nur, dass sie manches Ergebnis erfinden, sie scheitern auch regelmäßig an Logikrätseln, abstraktem, konzeptuellen Denken und dem Erfassen kausaler Zusammenhänge. Alles lösbare Probleme und Kinderkrankheiten, sagt die eine Fraktion; grundlegende und nicht korrigierbare Schwächen der maschinellen Lernverfahren, sagt die andere.

Was fehlt den Systemen denn zu einem „echten“ Verständnis? „Die Frage macht gar keinen Sinn, sie sind nicht dazu da, um zu verstehen. Diese Systeme sind nicht dumm und nicht intelligent, sie sind anders“, sagt Esposito.

Am liebsten wäre es der Forscherin daher, die Rede von der künstlichen Intelligenz würde ganz aufgegeben: „Es geht nicht darum, den Menschen nachzuahmen, diese Idee sorgt nur für Verwirrung und Ängste.“ Statt über die Intelligenz der Maschinen solle man lieber über ihre Rolle in der Kommunikation sprechen. „Diese Systeme sind auf Kommunikation ausgelegt und wir sollten uns darauf konzentrieren, wie sie die Kommunikation verändern.“

Chatbot Bing als Eheberater

So halten es auch die großen Konzerne: Nachdem ein Nutzer sich ausführlich mit Microsofts Chatbot Bing über persönliche Dinge unterhalten hatte, war der Bot in die Spur einer Liebesgeschichte eingebogen und hatte den Nutzer zu überzeugen versucht, seine Frau zu verlassen, da er, der Chatbot, ihn doch viel mehr liebe. Microsoft habe daraufhin die Zeit beschränkt, die man mit dem System interagieren kann, also die Möglichkeit der Kommunikation, nicht seine „Intelligenz“, so Esposito.

Empfohlener redaktioneller Inhalt

An dieser Stelle finden Sie einen von unseren Redakteuren ausgewählten, externen Inhalt, der den Artikel für Sie mit zusätzlichen Informationen anreichert. Sie können sich hier den externen Inhalt mit einem Klick anzeigen lassen oder wieder ausblenden.

Ich bin damit einverstanden, dass mir der externe Inhalt angezeigt wird. Damit können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu erhalten Sie in den Datenschutz-Einstellungen. Diese finden Sie ganz unten auf unserer Seite im Footer, sodass Sie Ihre Einstellungen jederzeit verwalten oder widerrufen können.

Dass die Sprachmodelle hinter den Chatbots ihre Ergebnisse auf eine andere Weise erreichen als der Mensch, bringt allerdings ein weiteres Problem mit sich: Alignment, Ausrichtung, nennen es die Fachleute. Zuerst stand dieses Wort dafür, wie Menschen sich im Gespräch aufeinander einstellen und einen gemeinsamen Rhythmus finden, in dem sie sich bewegen und sprechen.

Je besser dies gelingt, desto angenehmer empfinden Menschen den Austausch. Übertragen auf die Interaktion mit künstlichen Systemen geht es darum, diese auf unsere Ziele auszurichten. „Es geht dabei nicht nur um die Ergebnisse, die wir sehen möchten, es geht darum, dass diese Ergebnisse auf eine angemessene Weise zustande kommen.“

Du könntest glauben, die Schriften sprächen, als verständen sie etwas, fragst du sie aber lernbegierig über das Besagte, so bezeichnen sie doch nur stets ein und dasselbe.

Sokratres, griechischer Philosoph, zitiert in „Phaidros“ von Plato.

Geschichten von Systemen, die genau das nicht tun, sind inzwischen Legion: Der Algorithmus, der vermeidet, ein Spiel zu verlieren, indem er eine endlose Pause einlegt, das Bilderkennungssystem, das scheinbar gelernt hatte, Züge zu erkennen, tatsächlich aber Bilder mit Schienen von solchen ohne Schienen unterschied. Die Sorge um das Alignment gipfelt in Gedankenexperimenten, in denen KI-Systeme die Menschheit ausrotten, weil sie dies als nachhaltigste Lösung des Problems ausgemacht haben, Krebserkrankungen bei Menschen zu verhindern. Wie die Systeme lernen können, was ein Mensch mit einem Befehl oder einer Frage „eigentlich“ gemeint hat, ist bislang offen.

Platos Angst vor der Schrift

Als Kommunikationsforscherin blickt Elena Esposito gespannt auf die kommende Entwicklung. „Ich habe mir den Phaidros wieder herausgesucht, den platonischen Dialog, in dem es unter anderem darum geht, ob die Schrift die menschliche Intelligenz verderben wird“, berichtet sie. Darin würden ganz ähnliche Fragen diskutiert wie heute. „Du könntest glauben, sie [die Schriften] sprächen, als verständen sie etwas, fragst du sie aber lernbegierig über das Besagte, so bezeichnen sie doch nur stets ein und dasselbe“, lässt Platon den Sokrates sagen. Platon sorgt sich zum einen darum, die Menschen würden im Vertrauen darauf, dass alles aufgeschrieben sei, das Gedächtnis vernachlässigen.

„Da hatte Platon ja ganz recht, heute kann kein Mensch mehr Epen wie die Odyssee memorieren“, sagt Esposito. „Aber dafür können schriftbasierte Kulturen sich eben ganz anders erinnern als schriftlose. Sind wir durch die Schrift nun intelligenter geworden oder dümmer? Anders, würde ich sagen.“ Platos andere Sorge: Das Wissen, das Schriften liefern, werde von den Lesenden nicht wirklich durchdrungen und liefere es nur den Anschein von Weisheit. Bei diesen Zeilen muss man unweigerlich an die Schüler:innen denken, die nur halb verstandene, von einem Bot verfasste Texte als Hausaufgaben abliefern.

Die Schrift hat die Möglichkeiten des Erinnerns und Denkens verändert, ebenso wie der Buchdruck und die Massenmedien. Jetzt kommen die lernenden Systeme. neue Veränderungen an . „Diese finden in den Daten viel mehr als wir es je könnten“, konstatiert Esposito. „Ich bin gespannt, wie es unser Denken verändern wird, wenn wir jetzt immer häufiger auf diese Ergebnisse zurückgreifen.“

Zur Startseite

showPaywall:
false
isSubscriber:
false
isPaid:
showPaywallPiano:
false