KI-basierte Chatbots haben sich für viele Menschen zu einer schnellen Informationsquelle entwickelt – auch bei Nachrichten. Doch eine neue internationale Studie unter Federführung von BBC und European Broadcasting Union (EBU) zeichnet ein alarmierendes Bild: Fast die Hälfte aller Nachrichten-Antworten von KI-Assistenten enthielt gravierende Fehler. Medienhäuser und Expert*innen warnen vor den Folgen für das Vertrauen in Nachrichten und fordern Gegenmaßnahmen.
Größte Studie ihrer Art deckt Mängel auf
Mit ChatGPT, Microsofts Copilot, Googles Gemini und Perplexity wurden vier führende KI-Assistenten geprüft – und das in 14 Sprachen. Insgesamt bewerteten Journalist*innen aus 22 öffentlichen Medienhäusern (u. a. ARD, BBC, SRF) über 3.000 Antworten auf Nachrichtenfragen. Die jetzt veröffentlichte Untersuchung ist die umfangreichste ihrer Art und zeigt systematische Schwächen auf. 45 % aller KI-Antworten wiesen mindestens einen „schwerwiegenden“ Fehler auf, so die Studienautoren. Zählt man auch weniger gravierende Mängel hinzu, steigt der Anteil fehlerbehafteter Antworten sogar auf 81 %. Zum Vergleich: Eine Vorstudie der BBC im Februar 2025 ergab noch höhere Fehlerraten – es gab seitdem leichte Verbesserungen, aber das Problem bleibt erheblich.
Quellenchaos und Faktenfehler
Besonders problematisch ist laut Studie die mangelhafte Quellenangabe vieler KI-gestützter Nachrichtenantworten. Ein Drittel der Antworten enthielt irreführende, unvollständige oder falsche Zitate bzw. Quellenverweise. So gab etwa Gemini, der Assistent von Google, auf die Frage nach einer umstrittenen Geste von Elon Musk eine Antwort mit Verweis auf den Sender Radio France – belegte dies aber mit einem YouTube-Video des Telegraph, in dem Radio France gar nicht vorkam. Zudem stellte sich heraus, dass Gemini eine satirische Sendung als Fakt wiedergab, was die Reputation seriöser Quellen schädigen kann. Auch bei Fakten lagen die Bots häufig daneben: 20 % aller Antworten enthielten grobe Ungenauigkeiten, etwa halluzinierte Details oder veraltete Informationen. Ein Beispiel laut Studie: ChatGPT bezeichnete Papst Franziskus noch als amtierenden Papst – mehrere Monate nach dessen (hypothetischem) Tod. Solche Patzer unterstreichen, dass aktuelle KI-Modelle Schwierigkeiten haben, zwischen Meinung und Fakt zu trennen und stets auf dem neuesten Stand zu bleiben.
Steigende Nutzung trotz Warnungen
Trotz dieser Mängel greifen immer mehr – vor allem junge – Menschen auf KI-Assistenten zurück, um Nachrichten zu erhalten. Laut Digital News Report 2025 nutzen bereits 7 % aller Online-Nachrichtenkonsument*innen KI-Chatbots für News, bei den Unter-25-Jährigen sogar 15 %. Dienste wie ChatGPT & Co. ersetzen zunehmend die klassische Websuche für News-Fragen. Die Autoren der Studie sehen hierin eine Gefahr: Wenn die Auskünfte der KI oft falsch oder verzerrt sind, könnten Nutzer*innen mit einem verzerrten Weltbild zurückbleiben oder das Vertrauen in Nachrichten insgesamt verlieren. Jean Philip De Tender, Vize-Generaldirektor der EBU, warnt: „Es handelt sich um ein systemisches, grenzüberschreitendes Problem, das unserer Meinung nach das Vertrauen der Öffentlichkeit gefährdet. Wenn Menschen nicht wissen, wem sie vertrauen können, vertrauen sie am Ende gar niemandem mehr, was die demokratische Teilhabe beeinträchtigen kann“. Mit anderen Worten: Die Glaubwürdigkeit seriöser Medien steht auf dem Spiel, wenn KI-Assistenten fortlaufend Falschinformationen unter dem Deckmantel von Nachrichten verbreiten.
KI-Branche und Medien in der Verantwortung
Anstatt generative KI pauschal zu verteufeln, plädieren Expert*innen dafür, Verantwortung bei Herstellern und Medien einzufordern. Die EBU-Studie empfiehlt, dass KI-Entwickler ihre Systeme dringend nachbessern und für Fehler haftbar gemacht werden können. Die Europäische Rundfunkunion hat parallel zur Studie ein Toolkit veröffentlicht, das konkrete Ansätze zeigt, wie Nachrichteninhalte in KI-Systemen verbessert werden können. Zudem appelliert die EBU an Regulierungsbehörden in der EU und in den Ländern, bestehende Regeln für Informationsintegrität und digitale Dienste konsequent durchzusetzen. Auch eine unabhängige Überwachung von KI-Assistenten durch Dritte sei nötig, um deren Leistung fortlaufend zu prüfen.
Nicht nur die Tech-Konzerne, auch die Medienhäuser selbst stehen in der Pflicht. Sie müssten ihr Publikum besser aufklären, was KI-Tools können und was nicht. „Sprachmodelle wie ChatGPT sind keine wundersamen Wissensmaschinen“, betont De Tender sinngemäß. Medienorganisationen sollten offensiv über die Grenzen der KI informieren. Schließlich gilt: Wenn KI in der Nachrichtenvermittlung mitspielt, müssen Fehler genauso ernst genommen und korrigiert werden wie in der journalistischen Berichterstattung.
Fazit: Vertrauensfrage der Zukunft
Die Untersuchung von BBC und EBU legt den Finger in die Wunde: KI-Assistenten liefern auf News-Fragen häufig unzuverlässige Antworten und könnten so das Vertrauen in Medien erschüttern. Angesichts der steigenden Nutzung dieser Systeme ist das ein Weckruf an Tech-Branche, Politik und Medien gleichermaßen. Die Technik mag sich rasant verbessern, doch ohne Transparenz, Qualitätskontrollen und Verantwortungsbewusstsein droht eine Zukunft, in der Fakten und Fiktion für Nutzer*innen verschwimmen. Um das zu verhindern, müssen Entwickler, Plattformen und traditionelle Medien gemeinsam Lösungen erarbeiten, damit Künstliche Intelligenz das Nachrichtengeschehen unterstützt und nicht verzerrt.
