KI kann keine R’s in ‚Strawberry‘ zählen – aber wenigstens weiß sie, wie man ‚Hmm‘ sagt!

Künstliche Intelligenz hat erstaunliche Fähigkeiten, doch bei einfachen Aufgaben wie dem Zählen von Buchstaben im Wort „Strawberry“ zeigt sie überraschende Schwächen. Was steckt hinter diesem KI-Fail?

Passen dazu:

Werden die Smartphones der Zukunft in der Lage sein, sich mit unserer Körperwärme aufzuladen?

KI hat mit dem simplen Wort Strawberries ein größeres Problem
KI hat mit dem simplen Wort Strawberries ein größeres Problem

Künstliche Intelligenz hat uns in vielen Bereichen beeindruckende Fortschritte gebracht: Sie kann komplexe mathematische Gleichungen lösen, beeindruckende Texte schreiben und sogar die geheime Kunst des Programmierens beherrschen.

Doch wenn es darum geht, die Anzahl der „R’s“ in einem einfachen Wort wie „Strawberry“ zu zählen, stolpert selbst die fortschrittlichste KI.

Wie kann das sein? Wo bleibt der „intelligente“ Funke? Nun, es liegt an der Art und Weise, wie KIs denken – oder besser gesagt, wie sie nicht denken.

Tokenisierung – der erste Stolperstein

Die Antwort auf diese Frage ist verblüffend simpel:

KIs wie ChatGPT und andere große Sprachmodelle arbeiten nicht mit Wörtern im herkömmlichen Sinne. Stattdessen zerlegen sie Text in sogenannte „Tokens“.

Ein Token kann ein ganzes Wort, eine Silbe oder sogar nur ein Buchstabe sein.

Und hier beginnt das Problem:

Ein KI-Modell erkennt das Wort „Strawberry“ nicht als zusammenhängendes Wort mit einer klaren Struktur aus Buchstaben, sondern als eine Reihe von Tokens, die es mit Zahlen und mathematischen Berechnungen verarbeitet.

Das bedeutet, die KI „weiß“ vielleicht, dass „straw“ und „berry“ zusammen das Wort „Strawberry“ ergeben – aber sie hat keinen direkten Zugriff darauf, wie viele „R’s“ in diesem Wort stecken.

Die Tokenisierung als großes Missverständnis

Ein KI-System könnte also die Struktur von „Strawberry“ verstehen, aber nicht so, wie wir es tun.

Wir erkennen sofort, dass das Wort zwei „R’s“ enthält. Für die KI hingegen ist es eine Abfolge von Zahlen, die mit Wahrscheinlichkeit und statistischen Modellen gearbeitet wird.

Sie kann die genaue Anzahl von Buchstaben nur schwer abzählen, besonders wenn diese nicht in einem festen Token-Vokabular enthalten sind.

So gibt es nicht nur Missverständnisse bei der Anzahl der „R’s“ in „Strawberry“, sondern auch bei komplexeren sprachlichen Strukturen.

Vom Logikgenie zum Zahlenakrobaten – aber der „menschliche“ Touch fehlt

Diese scheinbar banale Aufgabe – „Zähle die R’s in ‚Strawberry‘“ – zeigt einen fundamentalen Unterschied zwischen menschlicher und künstlicher Intelligenz:

Künstliche Intelligenz funktioniert auf Basis von Mustern und Wahrscheinlichkeiten, nicht durch „Verstehen“.

Ein weiteres Beispiel, das dieses Dilemma verdeutlicht, ist das Sprachmodell o1 von OpenAI:

Es glänzt bei der Lösung von Logikrätseln und der Entschlüsselung von Codes, aber wenn es darum geht, eine einfache Frage wie „Wie viele R’s sind in ‚Strawberry‘?“ zu beantworten, neigt es dazu, die falsche Antwort zu liefern.

Statt der richtigen Antwort („drei R’s“) wird in neun von zehn Fällen die Zahl „zwei“ genannt.

Wo bleibt der Fortschritt? Ganz einfach:

Es handelt sich um einen Algorithmus, der auf Zahlen und Mustern basiert, nicht um ein Wesen, das „versteht“, was ein Buchstabe oder ein Wort wirklich ist.

KI und die vielen „Fehltritte“

Dieser KI-Fehltritt ist keineswegs einzigartig. Es gibt unzählige weitere Beispiele für Künstliche Intelligenz, die beim Versuch, „menschliche“ Aufgaben zu erledigen, gründlich scheitert.

Ein weiteres amüsantes Beispiel ist, wie KI-Systeme dazu neigen, in Mathematikaufgaben die einfachsten Rechenoperationen zu verwechseln.

Es gibt sogar KIs, die beim Schreiben von Code zwar perfektes „Syntax-Geschwurbel“ erzeugen, dabei jedoch völlig sinnlosen Code produzieren, der kein Programm ausführt.

Oder die KI, die nach einer langen Diskussion über das Klima plötzlich auf die Frage „Was ist der Unterschied zwischen Katze und Hund?“ mit „Beide sind Tiere, aber Hunde sind größer“ antwortet – ein völliger Bruch in der Logik.
Achtung: KI-Fehltritte ist keineswegs selten
Achtung: KI-Fehltritte ist keineswegs selten

Was bedeutet das für uns?

Was lernen wir also aus der Tatsache, dass KI die „R’s“ in „Strawberry“ nicht zählen kann?

Erstens, dass wir trotz aller Fortschritte noch weit von einer „echten“ Intelligenz entfernt sind.

KI-Systeme mögen beeindruckende Leistungen vollbringen, aber das grundlegende menschliche Verständnis für Sprache, Struktur und Bedeutung bleibt ihnen oft ein Rätsel. Und vielleicht – ganz ehrlich – ist das auch ganz gut so.

Denn solange Künstliche Intelligenz weiterhin Schwierigkeiten hat, „Strawberry“ richtig zu entschlüsseln, können wir uns sicher sein, dass wir in einer Sache immer noch die Nase vorn haben: dem menschlichen Verständnis für das, was wirklich zählt.

Und das ist am Ende vielleicht der größte Trick, den uns die Technologie beibringen kann: Dass wir die einfachen Dinge immer noch am besten verstehen.