Direkt zum Inhalt springen

Pressemitteilung -

MIT Technology Review: KI gegen Verschwörungsglauben


Chatbot überzeugt mit Fakten

Hannover, 27. März 2026 – Verschwörungstheorien lassen sich durch Fakten erschüttern – wenn ein Chatbot sie präsentiert. Ein achtminütiges Gespräch mit künstlicher Intelligenz schwächt den Glauben an Verschwörungsmythen um etwa 20 Prozent. Jede vierte Person gab danach sogar an, nicht länger überzeugt zu sein. Das berichtet das Technologiemagazin MIT Technology Review in Ausgabe 3/2026 über eine Studie aus dem Fachjournal Science. Experten warnen jedoch vor blindem Vertrauen in die Technologie.

Für die Untersuchung führten die Forscher Thomas Costello, Gordon Pennycook und David Rand über 2000 Verschwörungsanhänger mit dem DebunkBot zusammen, einem unter debunkbot.com öffentlich zugänglichen Chatbot auf Basis von GPT-4 Turbo. Die Teilnehmenden schilderten zunächst, an welche Verschwörungstheorie sie glaubten. Anschließend konfrontierte der Bot sie mit faktenbasierten Gegenargumenten. Die Methode funktionierte bei klassischen Theorien wie der Mondlandungslüge ebenso wie bei aktuellen Mythen rund um Covid-19oder die US-Präsidentschaftswahl 2020. Der Effekt hielt zwei Monatean.

Wolfgang Stieler, Redakteur bei Technology Review, mahnt jedoch zur Vorsicht: „Bei Chatbots im Zusammenhang mit Fakten ist Vorsicht angebracht, denn Sprachmodelle verstehen keine Argumente. Sie rechnen mit der mathematischen Repräsentation von Aussagen. Das ist ein fundamentaler Unterschied.” Eine unabhängige Untersuchung zeigte, dass Chatbots Menschen am besten beeinflussen konnten, wenn sie mit Fakten argumentierten – unabhängig davon, ob die Fakten tatsächlich stimmten.

Entscheidend für den Erfolg war die Fähigkeit, auf konkrete Behauptungen gezielt zu reagieren. Verwiesen 9/11-Leugner darauf, dass Kerosin nicht heiß genug brenne, um Stahl zu schmelzen, antwortete der Bot: Das American Institute of Steel Construction belege, dass Kerosin die Festigkeit von Stahl um über 50 Prozent verringere – mehr als genug für den Einsturz der Türme.

Ein professioneller Faktenprüfer bewertete 99 Prozent der Bot-Aussagen als wahr und politisch unvoreingenommen. Die Forscher testeten auch, ob allein die Quelle den Effekt auslöste: Informierten sie Teilnehmende, mit einem Experten statt einer KI zu sprechen, blieb das Ergebnis gleich. Ließ man den Bot jedoch ohne Fakten argumentieren, verpuffte der Effekt vollständig.

„Viele Menschen sind einfach falsch informiert”, erklärt Costello. „Sie denken rational, haben aber nie klare Erklärungen gehört.” Anders als menschliche Gesprächspartner habe die KI alle Fakten parat und bleibe sachlich – ein Vorteil am Familientisch. Denkbare Anwendungen reichen von Social-Media-Plattformenbis zu Suchmaschinen. Die Forscher betonen jedoch: „Konsens darüber, was Fakten sind, bleibt Voraussetzung für eine funktionierende Demokratie.”

Themen

Kategorien

Regionen


Für die Redaktionen: Auf Wunsch schicken wir Ihnen gerne den Inhalt zur Rezension.

Folgen Sie unserem Newsroom und nutzen Sie unsere Presse-Newsletter: Damit informieren wir Sie über Neuigkeiten aus dem Medienhaus heise und neueste Inhalte aus unseren Print- und Digitalangeboten – melden Sie sich direkt an!

Kontakt