Glauben Sie nicht alles, was Sie hören! Wie glaubwürdig schätzen wir Wikipedia, ChatGPT oder Alexa ein?

Stellen Sie sich vor, Sie wollen zu einem bestimmten Thema Informationen recherchieren. Natürlich ist Ihnen klar, dass  es einen Unterschied macht, ob Sie bei Wikipedia, in wissenschaftlichen Publikationen oder in Social Media nach Informationen suchen. Es hat aber auch einen Einfluss auf Ihre Bewertung von Informationen, auf welche Weise Sie die Information gleichsam zu sich nehmen.

Das Internet ist voller Informationen – wir müssen sie auswählen und bewerten

Wenn wir Informationen im Netz recherchieren, dann können wir uns mittlerweile nicht nur aussuchen, welche Quellen wir befragen, sondern auch die Art und Weise, wie wir die Ergebnisse erhalten. So können wir uns einen Text von einem sprachbasierten Agenten, wie Alexa oder Siri, erzählen lassen, ihn  von einer Chat-basierten Large Language Model wie ChatGPT im simulierten Gespräch zeigen lassen, oder ihn klassisch im Internet lesen. Jede dieser Informationsquellen birgt Gefahren: Bei der klassischen Internetrecherche muss man gut darauf achten, welche Quelle hinter den Informationen steckt, um zu beurteilen, inwiefern die VerfasserInnen Expertise zu dem Thema haben und welche Motive (z.B. kommerzielle Interessen) hinter der Veröffentlichung stecken. Bei ChatGPT & Co ist das prinzipiell genauso, nur dass die Information bereits ein Konglomerat aus bestehenden Informationen ist, bei denen die Quelle schwer zu identifizieren ist. Hier kann ein perfekt klingender Text auch inhaltlich falsch oder widersprüchlich sein. Auch Alexa und KollegInnen greifen auf das Internet zu, ohne technisch in der Lage zu sein, die Quelle anhand von Qualitätsmerkmalen auszusuchen und zu bewerten. Die Arbeit, die gelesene Information kritisch zu reflektieren und nur seriöse Informationen zu glauben liegt immer bei den Personen, die die Information suchen.  

Die Art des Mediums verändert die Glaubwürdigkeit der Information

Die Forschung zeigt aber, dass ein und dieselbe Information unterschiedlich glaubwürdig erscheint, wenn wir sie von Alexa, ChatGPT oder Wikipedia erhalten. Anderl und KollegInnen haben Studienteilnehmenden Informationen zu unterschiedlichen Themen präsentiert und untersucht, wie glaubwürdig die Informationen bewertet wurden. Die Forschenden haben dabei zwei Dinge systematisch verändert: Die Qualität der Informationen und den Präsentationsmodus. Die eine Hälfte der dargebotenen Informationen war korrekt, die andere war inakkurat und widersprüchlich. Von den über 1000 Studienteilnehmenden hat eine Gruppe die Texte als statischen Text wie bei einer Enzyklopädie (z.B. Wikipedia) erhalten, eine zweite Gruppe hat den gleichen Text im dynamischen Textformat wie bei Chat-basierten KIs (z.B. ChatGPT) erhalten, während die dritte Gruppe die Information von einem sprachbasierten Agenten (wie z.B. Alexa) vorgelesen bekam.

Tatsächlich wurden die korrekten Informationen in allen Gruppen als glaubwürdiger eingestuft als die fehlerhaften Informationen. Die Daten zeigen aber auch, dass es in manchen Präsentationsformaten leichter für Falschinformationen ist, durch unsere Prüfung durchzuschlüpfen: Es fiel den Teilnehmenden in der Alexa-Gruppe und der ChatGPT-Gruppe schwerer, qualitativ gute von schlechten Informationen zu unterscheiden als den Teilnehmenden der Wikipedia-Gruppe. Wenn sie aber direkt danach gefragt wurden, welche Präsentationsart von Informationen sie als vertrauenswürdig empfinden, dann schätzen alle Teilnehmenden spannenderweise die Enzyklopädie als die seriöseste Quelle ein. Tatsächlich werden hier die Informationen von den Lesenden aber am besten geprüft und Falschinformationen am besten identifiziert, während offenbar bei ChatGPT und Alexa – trotz direkt geäußertem Misstrauen –  Falschinformationen eher unerkannt bleiben und von den Lesenden geglaubt werden.

Die Technologie, die menschlich kommuniziert, profitiert von Vorschluss-Vertrauen

Woran liegen es aber, dass wir wider besseres Wissen Informationen von ChatCPT und Alexa weniger kritisch prüfen als die aus Wikipedia? Anderl und KollegInnen finden in ihren Daten, dass ChatGPT und Alexa mehr sogenannte soziale Präsenz suggeriert, also das Gefühl, dass man gerade mit einer Person zu tun hat. Dieses Gefühl ist mit dafür verantwortlich, dass wir der Information mehr Glauben schenken. Die AutorInnen argumentieren, dass wir generell davon ausgehen, dass andere Menschen nur relevante und korrekte Dinge kommunizieren. Obwohl wir wissen, dass Alexa keine echte Frau ist und dass hinter ChatGPT nicht eine Person steckt, die gerade mit uns chattet, zeigen die Daten, dass beide sprachbasierte Agenten von dieser menschlichen Grundannahme profitieren. Dieses Vorschuss-Vertrauen in andere Personen könnte ein Grund dafür sein, dass wir Informationen von aus menschen-ähnlichen Kommunikationssituationen leichter glauben.

Und jetzt?

Natürlich ist ChatGPT ein nützliches Tool, und stimmbasierte Agenten sind nicht zuletzt wegen ihrer freundlichen Interaktion und weil man sie so praktisch beim Gemüse-schnippeln nutzen kann  beliebt. Wie kann man sich jetzt aber davor schützen, unbedacht fehlerhafte Informationen zu schlucken?

Bei Informationen ist es ein bisschen wie beim Essen: je nachdem, ob man Appetit oder Hunger hat, bestellt man sich Spaghetti oder Sahnetorte. Informationsrecherchen haben, genau wie Essen, unterschiedliche Zwecke, und man sollte seine Recherche-Art daran anpassen. Bei der Recherche für ein solides Urteil sollten wir lieber bei text-basierten Informationen bleiben. Wenn wir aber nur einen ersten Eindruck, Inspiration oder Unterhaltung suchen, dann eignen sich auch Alexa und ChatGPT gut zur Recherche. Wer nicht auf Falschinformationen hereinfallen möchte, der sucht am besten ohnehin in mehreren Quellen und auf unterschiedlichen Kanälen, so dass die Information ausgewogen und vielfältig ist. Achten Sie dabei aber wie beim Essen nicht nur auf das, was Sie zu sich nehmen. Bei der Informationssuche macht es sozusagen zusätzlich noch einen Unterschied, ob Sie mit Stäbchen, Besteck oder mit den Fingern essen.

Anderl, C., Klein, S. H., Sarigül, B., Schneider, F. M., Han, J., Fiedler, P., & Utz, S. (2024). Conversational presentation mode increases credibility judgements during information search with ChatGPT. Scientific Reports, 14, Article 17127. https://dx.doi.org/10.1038/s41598-024-67829-

Wir schätzen die Glaubwürdigkeit einer Information unterschiedlich ein, je nachdem, ob wir Wikipedia, ChatGPT oder Alexa befragen.