Der kluge Hans war ein Pferd, das angeblich rechnen konnte. Um eine Zahl anzuzeigen, scharrte er mit den Hufen. Tatsächlich waren die Ergebnisse richtig, allerdings fand das Pferd einen anderen Weg als zu rechnen, um auf das richtige Ergebnis zu kommen. Das Pferd konnte seinem Trainer ansehen, wann es aufhören sollte, mit den Hufen zu scharren. Man könnte also sagen, das Ergebnis ließ sich unter anderen Bedingungen – ohne den Trainer – nicht reproduzieren. Der Kluge-Hans-Effekt: Er lässt sich auf KI-Modelle übertragen.
Ein Forschungsteam unter der Führung der TU Berlin untersuchte den Effekt hinsichtlich des unsupervised Learnings von KI-Modellen, der Artikel dazu ist in Nature Machine Intelligence erschienen. Dieses unüberwachte Lernen meint eine Form des Machine Learnings, bei der die Modelle selbst Muster und Zusammenhänge erkennen sollen – ohne dass ihnen eine Richtung oder Fragestellung mitgegeben oder eine Belohnung in Aussicht gestellt wird. Man kann umgekehrt auch Anomalien feststellen, also Abweichungen in Daten. So lässt sich in der Medizin beispielsweise Krebs finden.
In der KI tritt er auf, wenn sich maschinelle Lernmodelle auf Scheinkorrelationen statt auf klinisch relevante Merkmale stützen , und stellt eine erhebliche Herausforderung für die Entwicklung zuverlässiger Systeme künstlicher Intelligenz (KI) in der medizinischen Bildgebung dar.
Beim Hundetrainig beschreibt er den Einfluss, den ein Tierführer auf sein Tier ausüben kann und der Zweifel an dessen eigenständigen „kognitiven“ Fähigkeiten aufkommen lässt . Dabei handelt es sich in der Regel um zeitlich begrenzte Hinweise wie Augenbrauenbewegungen, die bei jeder Wiederholung die richtige Wahl signalisieren und oft unbewusst vom Menschen gegeben werden.