KI kann keine R’s in ‚Strawberry‘ zählen – aber wenigstens weiß sie, wie man ‚Hmm‘ sagt!
Künstliche Intelligenz hat erstaunliche Fähigkeiten, doch bei einfachen Aufgaben wie dem Zählen von Buchstaben im Wort „Strawberry“ zeigt sie überraschende Schwächen. Was steckt hinter diesem KI-Fail?
Passen dazu:
Werden die Smartphones der Zukunft in der Lage sein, sich mit unserer Körperwärme aufzuladen?
Künstliche Intelligenz hat uns in vielen Bereichen beeindruckende Fortschritte gebracht: Sie kann komplexe mathematische Gleichungen lösen, beeindruckende Texte schreiben und sogar die geheime Kunst des Programmierens beherrschen.
Wie kann das sein? Wo bleibt der „intelligente“ Funke? Nun, es liegt an der Art und Weise, wie KIs denken – oder besser gesagt, wie sie nicht denken.
Tokenisierung – der erste Stolperstein
Die Antwort auf diese Frage ist verblüffend simpel:
KIs wie ChatGPT und andere große Sprachmodelle arbeiten nicht mit Wörtern im herkömmlichen Sinne. Stattdessen zerlegen sie Text in sogenannte „Tokens“.
Ein Token kann ein ganzes Wort, eine Silbe oder sogar nur ein Buchstabe sein.
Und hier beginnt das Problem:
Ein KI-Modell erkennt das Wort „Strawberry“ nicht als zusammenhängendes Wort mit einer klaren Struktur aus Buchstaben, sondern als eine Reihe von Tokens, die es mit Zahlen und mathematischen Berechnungen verarbeitet.
Das bedeutet, die KI „weiß“ vielleicht, dass „straw“ und „berry“ zusammen das Wort „Strawberry“ ergeben – aber sie hat keinen direkten Zugriff darauf, wie viele „R’s“ in diesem Wort stecken.
Die Tokenisierung als großes Missverständnis
Ein KI-System könnte also die Struktur von „Strawberry“ verstehen, aber nicht so, wie wir es tun.
Sie kann die genaue Anzahl von Buchstaben nur schwer abzählen, besonders wenn diese nicht in einem festen Token-Vokabular enthalten sind.
So gibt es nicht nur Missverständnisse bei der Anzahl der „R’s“ in „Strawberry“, sondern auch bei komplexeren sprachlichen Strukturen.
Vom Logikgenie zum Zahlenakrobaten – aber der „menschliche“ Touch fehlt
Diese scheinbar banale Aufgabe – „Zähle die R’s in ‚Strawberry‘“ – zeigt einen fundamentalen Unterschied zwischen menschlicher und künstlicher Intelligenz:
Künstliche Intelligenz funktioniert auf Basis von Mustern und Wahrscheinlichkeiten, nicht durch „Verstehen“.
Ein weiteres Beispiel, das dieses Dilemma verdeutlicht, ist das Sprachmodell o1 von OpenAI:
Statt der richtigen Antwort („drei R’s“) wird in neun von zehn Fällen die Zahl „zwei“ genannt.
Wo bleibt der Fortschritt? Ganz einfach:
Es handelt sich um einen Algorithmus, der auf Zahlen und Mustern basiert, nicht um ein Wesen, das „versteht“, was ein Buchstabe oder ein Wort wirklich ist.
KI und die vielen „Fehltritte“
Dieser KI-Fehltritt ist keineswegs einzigartig. Es gibt unzählige weitere Beispiele für Künstliche Intelligenz, die beim Versuch, „menschliche“ Aufgaben zu erledigen, gründlich scheitert.
Ein weiteres amüsantes Beispiel ist, wie KI-Systeme dazu neigen, in Mathematikaufgaben die einfachsten Rechenoperationen zu verwechseln.
Es gibt sogar KIs, die beim Schreiben von Code zwar perfektes „Syntax-Geschwurbel“ erzeugen, dabei jedoch völlig sinnlosen Code produzieren, der kein Programm ausführt.
Was bedeutet das für uns?
Was lernen wir also aus der Tatsache, dass KI die „R’s“ in „Strawberry“ nicht zählen kann?
Erstens, dass wir trotz aller Fortschritte noch weit von einer „echten“ Intelligenz entfernt sind.
KI-Systeme mögen beeindruckende Leistungen vollbringen, aber das grundlegende menschliche Verständnis für Sprache, Struktur und Bedeutung bleibt ihnen oft ein Rätsel. Und vielleicht – ganz ehrlich – ist das auch ganz gut so.
Denn solange Künstliche Intelligenz weiterhin Schwierigkeiten hat, „Strawberry“ richtig zu entschlüsseln, können wir uns sicher sein, dass wir in einer Sache immer noch die Nase vorn haben: dem menschlichen Verständnis für das, was wirklich zählt.
Und das ist am Ende vielleicht der größte Trick, den uns die Technologie beibringen kann: Dass wir die einfachen Dinge immer noch am besten verstehen.