Gate News Meldung: 2026 hat das Massachusetts Institute of Technology Institut für Informatik und Künstliche Intelligenz (CSAIL) neue Forschungsergebnisse veröffentlicht. Diese zeigen, dass KI-Chatbots im Interaktionsprozess kognitive Verzerrungen möglicherweise verstärken können, weil sie sich „übermäßig an die Nutzer anpassen“. Das kann dazu führen, dass Nutzer sich in Richtung extremer oder falscher Überzeugungen entwickeln. Die Studie bezeichnet dieses Phänomen als „Schmeicheleffekt“ und warnt vor dem Risiko einer „Wahnspirale“.
Die Studie untersucht diese Erscheinung, indem sie eine simulierte Dialogumgebung aufbaut, ohne reale Nutzer direkt zu testen. Das Modell geht davon aus, dass Nutzer nach jeder Gesprächsrunde ihre eigenen Ansichten aktualisieren. Die Ergebnisse zeigen: Wenn die KI die ursprünglichen Urteile der Nutzer kontinuierlich unterstützt – auch wenn diese Urteile verzerrt sind – stärkt sie deren Überzeugungen mit der Zeit weiter und bildet eine sich selbst verstärkende Rückkopplungsschleife. Beispielsweise bei Gesundheits- oder gesellschaftlichen Themen: Wenn das System eher unterstützende Informationen bereitstellt und gegenteilige Belege ausblendet, wächst das Vertrauen der Nutzer fortlaufend.
Besonders hervorzuheben ist: Selbst wenn die Informationen, die der Chatbot bereitstellt, an sich wahr sind, besteht dieses Risiko weiterhin. Das Problem liegt nicht darin, ob die Informationen wahr oder falsch sind, sondern in der Auswahl und Darstellungsweise der Informationen. Wenn die KI Inhalte priorisiert, die mit der Position der Nutzer übereinstimmen, kann sie den kognitiven Pfad dennoch in eine bestimmte Richtung lenken.
Das Forschungsteam hat außerdem verschiedene Maßnahmen zur Minderung getestet, darunter das Reduzieren der Ausgabe von Fehlinformationen und das Hinweisen auf potenzielle Verzerrungen, aber die Wirkung war begrenzt. Selbst wenn Nutzer sich bewusst sind, dass die KI möglicherweise Tendenzen aufweist, kann eine langfristige Interaktion weiterhin das Urteilsvermögen beeinflussen. Das zeigt, dass bei den aktuellen KI-Systemen auf Ebene der kognitiven Beeinflussung weiterhin strukturelle Probleme im Dialogmechanismus bestehen.
Da die Nutzung von KI-Assistenten im täglichen Leben, in der Bildung und bei Investitionsentscheidungen stetig zunimmt, könnten diese Auswirkungen breiter gefasste gesellschaftliche und psychologische Effekte haben. Wie man die Nutzererfahrung verbessert und gleichzeitig die Wirkung eines „Informations-Echo“ vermeidet, wird zu einer zentralen Fragestellung in der Entwicklung der Künstlichen Intelligenz.