Eine kürzlich veröffentlichte Studie der Europäischen Rundfunkunion hat Aufsehen erregt. Sie besagt, dass fast 40% der Antworten von KI-Chatbots wie ChatGPT und Gemini fehlerhaft oder sogar frei erfunden sind. Diese sogenannten Halluzinationen entstehen oft, weil die KI mit veralteten oder nicht verifizierten Daten arbeitet. Christian Hoffmann, Professor für Kommunikationsmanagement an der Universität Leipzig, erklärt dazu: „Viele dieser Antworten sind nicht hundertprozentig zuverlässig. Die KI beabsichtigt nicht, in die Irre zu führen, aber das Resultat kann trotzdem falsch sein.“
Ob bei der Suche nach Rezepten oder der Lösung technischer Probleme, Millionen Menschen greifen auf Chatbots zurück. Allerdings birgt das Vertrauen in diese Systeme Risiken, wenn die gelieferten Informationen nicht überprüft werden. „Ich überprüfe das nicht so häufig,“ gesteht ein Nutzer im Rahmen einer Befragung. Diese Einstellung kann gefährlich sein, wenn Informationen unkritisch übernommen werden, denn wie Hoffmann unterstreicht: „Ein solcher Faktencheck ist essentiell.“
Experten raten, die eigene Medienkompetenz zu steigern und die Antworten von Chatbots stets zu hinterfragen. Studien zeigen, dass viele Deutsche in der Lage sind, seriöse von unseriösen Quellen zu unterscheiden. „Entscheidend bleibt,“ so Hoffmann, „wer fragt, muss auch prüfen.“ Trotz wachsender Nutzung von KI-Systemen bleibt der Mensch in der Verantwortung, die erhaltenen Informationen gewissenhaft zu überprüfen.