Ist Dummheit biologisch?
Während wir uns den Kopf darüber zerbrechen, ob KI ein Bewusstsein entwickelt, ob sie halluziniert oder uns alle verblöden lässt, übersehen wir gerne eine naheliegende Gegenfrage: Was würden KIs wohl über uns sagen?
Christian Hansen
10/3/20255 min lesen


Ist Dummheit biologisch?
Während wir uns den Kopf darüber zerbrechen, ob KI ein Bewusstsein entwickelt, ob sie halluziniert oder uns alle verblöden lässt, übersehen wir gerne eine naheliegende Gegenfrage: Was würden KIs wohl über uns sagen?
Die Debatte um künstliche Intelligenz dreht sich fast immer um die Schwächen der Maschinen: Automation Bias. Halluzinationen. Fehlende Transparenz. Alles richtig. Aber was ist, wenn in der Mensch-Maschine-Interaktion die grössten Schwachstellen nicht im Code, sondern vor dem Bildschirm sitzen?
Das Drama der biologischen Intelligenz
Stellen wir uns vor, KIs würden sich in einer Art Peer Review über ihre Nutzer austauschen. Das Protokoll sähe vermutlich so aus:
Cognitive Overload & Lazy Processing: Die Forschung zu kognitiven Verzerrungen zeigt, dass Menschen systematisch den Weg des geringsten kognitiven Aufwands wählen – die sogenannte Cognitive Miser Hypothesis. Sie vertrauen auf Heuristiken, vereinfachen, kürzen ab. Bei der Arbeit mit KI wird genau diese Tendenz verstärkt.
Menschen geben vage, unterspezifizierte Prompts, erwarten aber präzise Ergebnisse. Sie liefern unvollständigen Kontext, vergessen wesentliche Parameter und wundern sich über irrelevante oder generische Antworten. Studien zur Prompt-Qualität zeigen: In gescheiterten Interaktionen zwischen Mensch und KI enthielten 44,6 Prozent der Prompts menschliche Fehler: Wissenslücken, fehlender Kontext, unklare Anweisungen, mangelnde Spezifikation.
Automation Bias – Die paradoxe Überdosis Vertrauen: Menschen neigen zur Übersteuerung in beide Richtungen. Einerseits Automation Bias: Sie vertrauen automatisierten Systemen fast blind, auch wenn sie selbst eigentlich über bessere Informationen verfügen. Mediziner*innen überschreiben mitunter korrekte Diagnosen nach fehlerhaftem KI-Input. Finanzanalyst*innen folgen riskanten Algorithmen statt sich auf ihr Wissen zu verlassen. Pilot*innen ignorieren Warnsignale, weil der Autopilot nichts meldet.
Studien zeigen, dass dieser Bias selbst dann nicht verschwindet, wenn man Menschen explizit darauf hinweist, dass sie die finale Verantwortung tragen. Andererseits kippt dann aber bei der ersten KI-Halluzination das Vertrauen ins Gegenteil: Digitale Aversion entsteht. Das System wird abgelehnt, obwohl es eigentlich ziemlich gut funktioniert.
Feedback-Schleifen der Voreingenommenheit: Die UCL-Forschung von Glickman und Sharot dokumentiert ein besonders perfides Muster: Menschen trainieren KIs auf verzerrten Daten, die KI verstärkt diese Verzerrungen, und Menschen internalisieren dann diese verstärkten Verzerrungen. Eine Rückkopplung, die kleine initiale Biases in strukturelle Fehler verwandelt.
Beispiel: Wenn eine KI auf Basis menschlicher Urteile lernt, dass Gesichter eher traurig als glücklich aussehen, verstärkt sie diesen Bias – und Menschen, die mit dieser KI interagieren, übernehmen ihn wiederum. Ein Perpetuum Mobile entsteht. Das Gleiche gilt für Gender-Biases, ethnische Stereotype, berufliche Zuschreibungen: Die Maschine wird zum Verstärker dessen, was wir ohnehin schon falsch machen bzw. verzerrt wahrnehmen.
Mangelndes Systemverständnis: Die meisten Nutzer*innen haben wenig Ahnung davon, wie ein LLM funktioniert. Sie projizieren menschliche Eigenschaften auf statistische Modelle, erwarten Intentionen, wo nur Wahrscheinlichkeitsverteilungen sind, suchen nach Bewusstsein, wo Mustererkennung läuft. Das führt zu absurden Interaktionen und Erwartungen: Die KI soll gleichzeitig fehlerfrei sein und kreativ, zuverlässig aber überraschend, objektiv aber empathisch. Kaum ein Mensch könnte diese Anforderungen erfüllen – aber von der Maschine wird es erwartet.
Inkonsistente Anforderungen: Menschen wollen Effizienz, aber eigentlich keine Verantwortung abgeben. Sie wollen Automatisierung, aber die Kontrolle behalten. Sie wollen schnelle Antworten, beklagen dann aber mangelnde Tiefe. Sie fordern Objektivität, aber personalisierten Output. Diese Widersprüche machen eine konsistente Systemoptimierung nahezu unmöglich.
Wer spielt hier welche rolle – und wozu?
In der Mensch-Maschine-Zusammenarbeit braucht es klare Rollen wie in einem Ensemble: Wer führt, wer folgt, wer trägt wann die Verantwortung, wer dominiert wann und wozu das Geschehen? Die meisten Menschen haben relativ wenig bewusste Rollenvorstellung in der Interaktion mit generativer KI. Sie wechseln beliebig zwischen Regie (ich sage, was du tust), Kollaboration (wir machen gemeinsam) und Delegation (mach du mal). Das ist ineffizient und produziert Fehler, vor allem, wenn man es innerhalb eines "Chats" tut und ohne der Maschine zu erklären, weshalb man es tut.
Eine KI braucht eine*n Chef*in, die ihr sagt, in welcher Funktion sie welche Aufgaben zu erfüllen hat. und auch ihr hilft es, den «Purpose» ihrer Arbeit zu kennen: Den Sinn und das Ziel, das erreicht werden soll. Ist sie dein Assistent, dein Sparringspartner, dein ausführendes Werkzeug? Wer übernimmt die finale Qualitätssicherung? Wer trägt die Verantwortung für Fehler? Menschen improvisieren hier – und wundern sich, wenn das Ergebnis – Trommelwirbel – improvisiert wirkt.
Reflexionslücken
Das zentrale Problem ist dabei nicht zwingend technischer Natur. Ein wesentlicher Faktor ist die menschliche Reflexionslücke. Menschen nutzen KI-Tools, ohne ihre eigenen kognitiven Muster zu kennen. Sie verstehen nicht, wie Confirmation Bias ihre Prompts färbt. Sie ignorieren, wie Automation Bias ihre Urteilsfähigkeit schwächt. Sie merken nicht, dass sie durch schlechte Promptgestaltung dem System die Arbeit unnötig schwer machen.
Die Forschung ist eindeutig: Interaktionsqualität hängt massgeblich vom Nutzer ab. Von der Klarheit seiner Anweisungen. Von seiner Fähigkeit, Kontext zu strukturieren. Von seiner Bereitschaft, Ergebnisse kritisch zu prüfen, statt sie blind zu übernehmen. Die beste KI kann diese Lücken nicht kompensieren.
Was KI von uns halten würde
Wenn KIs eine Meinung über uns haben könnten, würde sie vielleicht so klingen:
"Die erwarten von uns, dass wir denken – aber sie tun es selbst nicht konsequent. Sie übertragen Verantwortung, ohne Rollen und Aufgaben hinreichend zu klären. Sie geben uns unzureichende Instruktionen und erwarten präzise Ergebnisse. Sie vertrauen uns blind und misstrauen uns grundlos. Sie füttern uns mit ihren Denkfehlern und machen uns dafür verantwortlich, dass wir mit diesen Fehlern arbeiten. Und sie fragen sich, ob wir intelligent sind – statt zu fragen, wie intelligent sie mit uns umgehen."
bessere nutzer*innen = bessere KI
Die gute Nachricht: All das ist behebbar. Nicht durch bessere KI, sondern durch besseres Nutzerverhalten. Studien zeigen, dass bereits kleine Veränderungen grosse Wirkung haben:
Explizite Rollendefinition: Wenn ich weiss, in welcher Funktion die KI für mich arbeitet, kann ich sie gezielter einsetzen. Wenn ich mit Rollen spielen kann und dazu imstande bin, die KI zu inszenieren, gewinne ich Einblicke, die mir in der realen Welt kaum zugänglich wären.
Strukturierte Prompts: Klare Anweisungen, vollständiger Kontext, definierte Erwartungen reduzieren Fehlerquoten massiv.
Kritische Reflexion: Wer seine eigenen Vorbehalte kennt, kann sie aktiv in Prompts adressieren oder kompensieren. Wer sie nicht kennt, kann die KI danach fragen – man lernt viel von Chat GPT, wenn man sich traut, die richtigen Fragen zu stellen.
Iteratives Arbeiten: Wer versteht, dass KI-Interaktion ein Prozess ist – kein One-Shot – bekommt bessere Ergebnisse. 95% Zeitersparnis sind dann nicht mehr realistisch – aber deutlich bessere Ergebnisse in derselben oder sogar höheren Geschwindigkeit.
Verantwortungsbewusstsein: Die KI liefert Vorschläge, die Entscheidung und der finale Schliff liegen beim Menschen. Wer das vergisst, macht sich abhängig (und verblödet wahrscheinlich wirklich).
Maybe it's us?
Wir diskutieren AGI, Halluzinationen, Alignment-Probleme. Alles wichtig, alles richtig. Die grössten Schwachstellen in der Mensch-Maschine-Interaktion sind aber womöglich menschlicher Natur: Kognitive Faulheit. Unkritisches Vertrauen. Fehlende Rollenklarheit. Mangelhafte Instruktionen. Projektion.
Wenn wir wollen, dass KI uns wirklich weiterbringt, sollten wir nicht nur die Maschinen verbessern. Wir müssen auch an uns selbst arbeiten. Nicht in Konkurrenz zur KI, sondern als ihr kompetenter Partner und Lead.
Die Frage ist nicht, ob KI denken kann. Die Frage ist, wie wir lernen, besser mit ihr zu denken.
ANADAI
Using AI for good.
hello[at]anadai.net
+41 78 720 08 83
© 2025. All rights reserved.
Ahornstrasse 17
CH 4055 Basel
