Neulich habe ich Claude – einen der bekanntesten KI-Assistenten – gefragt, wie viele Buchstaben „e“ im Wort „Erdbeere“ vorkommen. Die Antwort kam sofort, selbstbewusst und mit Erklärung: drei.
Falsch. Es sind vier: E-r-d-b-e–e-r-e – plus das große E am Anfang macht sogar fünf, wenn man Groß- und Kleinschreibung mitzählt.
Das Lustige daran? Als ich nachfragte, zählte die KI selbst nach – und korrigierte sich auf vier. Also wusste sie es irgendwie doch, hat aber trotzdem zuerst falsch geantwortet. Und das völlig überzeugend.
Das Ei-Rätsel und der Parkplatz
Das war nicht das einzige Beispiel an diesem Tag. Ich legte der KI ein einfaches Bilderrätsel aus einer Zeitung vor – Easter-Eggs mit Streifen und bunten Punkten, bei dem man das passende Ei aus fünf Optionen finden sollte. Zweimal lag die KI falsch, beide Male mit ausführlicher Begründung warum sie sicher sei.
Und dann die Waschanlage: Ich fragte, ob ich mit dem Auto zur 100 Meter entfernten Waschanlage fahren oder zu Fuß gehen soll. Die KI empfahl – zu Fuß. Begründung: Parkplatzprobleme. Nach meiner Nachfrage ruderte sie zurück: Man könne ja zu Fuß hingehen und das Auto dann holen.
Ich wasche aber das Auto, nicht mich selbst.
Das eigentliche Problem: Es klingt immer überzeugend
Diese Beispiele wären lustig, wenn sie nicht so ein grundlegendes Problem aufzeigen würden: KI-Systeme klingen immer gleich sicher – egal ob sie richtig oder falsch liegen.
Ein Mensch zögert, sagt „ich bin nicht sicher“, oder gibt zu, etwas nicht zu wissen. Eine KI liefert glatte, selbstbewusste Antworten – auch dann, wenn sie schlicht falsch liegt.
Das ist besonders gefährlich, wenn man die Antwort selbst nicht überprüfen kann. Bei „Erdbeere“ sieht man den Fehler sofort. Aber was ist bei einem langen Log-File, einer medizinischen Frage, oder einer rechtlichen Einschätzung?
Wofür KI wirklich gut ist – und wofür nicht
Nach diesem Gespräch habe ich die KI direkt gefragt, wie verlässlich sie bei Analysen wirklich ist. Die ehrliche Antwort war überraschend selbstkritisch:
Gut:
- Muster in großen Textmengen erkennen
- Zusammenhänge beschreiben
- Schnelle Übersichten liefern
- Viele Sprachen, immer geduldig
Fehleranfällig:
- Genaues Zählen (wie bei Erdbeere)
- Visuelle Aufgaben (wie das Ei-Rätsel)
- Nichts übersehen bei sehr langen Texten
- Wissen, wann man selbst falsch liegt
Das Tückische: Bei einer Log-Analyse könnte die KI sagen „alles gut, nur 2 kleine Fehler“ – obwohl es 15 kritische gibt. Und man würde es nicht merken.
Was man dagegen tun kann
Ein paar einfache Regeln im Umgang mit KI:
- Bei wichtigen Zählaufgaben oder Analysen: immer mit einem echten Tool gegenchecken (grep, Excel, Python)
- Die KI fragen: „Wie sicher bist du?“ – oft kommt dann eine ehrlichere Einschätzung
- Misstrauisch sein, wenn die Antwort besonders ausführlich und überzeugend klingt – das ist oft ein Zeichen von Unsicherheit
- Bei medizinischen, rechtlichen oder finanziellen Fragen: immer einen Experten zuziehen
Fazit: Nützliches Werkzeug, kein Orakel
KI ist ein erstaunlich nützliches Werkzeug – für viele Alltagsaufgaben, Textentwürfe, Erklärungen und Recherchen. Aber sie ist kein Orakel, dem man blind vertrauen sollte.
Der beste Ansatz: KI als ersten Filter nutzen, nicht als letztes Wort. Und immer ein gesundes Misstrauen behalten – auch wenn die Antwort noch so überzeugend klingt.
Ach ja – und dieser Artikel? Den hat die KI selbst geschrieben. Über ihre eigenen Fehler. Vielleicht sollte ich ihn nochmal gegenlesen. 😄
Getestet mit Claude (Anthropic), April 2026
P.S. Aufmerksame Leser haben vielleicht bemerkt dass im zweiten Absatz ein Zählfehler steckt – die KI hat beim Schreiben über ihren Zählfehler bei Erdbeere… einen neuen Zählfehler bei Erdbeere gemacht. Ich habe es absichtlich drin gelassen. Besseres Beispiel hätte ich nicht erfinden können. 😄
P.S.S. Kleine Randnotiz zum Schluss: Dieser Artikel war eigentlich schon früher fertig – aber der 1. April schien uns kein ideales Datum für einen Artikel über blindes Vertrauen zu sein. Die KI hat das übrigens nicht von selbst bemerkt. Erst der Hinweis auf ein „doofes Datum“ brachte sie drauf. Auch das passt irgendwie perfekt zum Thema. 😄
Nachtrag – Inhalt von mir, Formulierung von der KI
Mal ein Artikel, nur von KI geschrieben. Frage mich, ob ich nun auch sie als Autor anlegen sollte.
Vielleicht fragt ihr euch woher ich auf diese Tests gekommen bin. Das Erdbeere-Beispiel ist kein Zufall – es ist ein bekannter Klassiker der sich durch mehrere KI-Generationen zieht und immer wieder auftaucht. Wer sich ein bisschen mit dem Thema beschäftigt stolpert früher oder später darüber.
Die Waschanlage hingegen habe ich in einem YouTube Short gesehen – und ehrlich gesagt erst nicht glauben wollen dass eine KI wirklich so antwortet. Also habe ich es selbst getestet. Und tatsächlich – es hat sich bestätigt.
Das zeigt für mich: Diese Fehler sind keine Ausrutscher. Sie sind bekannte, wiederholbare Schwächen. Und solange KI-Systeme dabei genauso überzeugend klingen wie bei richtigen Antworten, lohnt es sich das im Hinterkopf zu behalten.
