Vorsicht vor künstlicher Intelligenz in den Nachrichten: 45% der Antworten enthalten Fehler

Eine neue internationale Studie, die von der British Broadcasting Corporation (BBC) in Zusammenarbeit mit der Europäischen Rundfunkunion (EBU) durchgeführt wurde, hat schockierende Ergebnisse hervorgebracht, die die Gefahren der Abhängigkeit von KI-Assistenten zur Nachrichtenbeschaffung beleuchten.
Es stellte sich heraus, dass fast die Hälfte der Antworten, die von den führenden KI-Anwendungen gegeben werden, eine erhebliche Verzerrung der Informationen enthalten!
* Was hat die Studie ergeben?
Es wurden 3000 Antworten von KI-Assistenten auf Fragen zu Nachrichten analysiert.
Die Studie umfasste die Bewertung der Antworten in 14 verschiedenen Sprachen hinsichtlich:
_ Genauigkeit
_Qualität der Quellen
_Unterscheidung zwischen Meinung und Wahrheit
Die Studie umfasste folgende Anwendungen:
ChatGPT, Copilot, Gemini, Perplexity.
* Besorgniserregende Ergebnisse in Zahlen :
• 45% der Antworten enthalten mindestens einen schwerwiegenden Fehler.
• 81% der Antworten wiesen eine Art von Problemen auf (Genauigkeit, Quelle oder Verzerrung).
• Ein Drittel der Antworten enthielt erhebliche Fehler in den Quellen (wie das Fehlen von Verweisen oder irreführende Verweise).
• Der Assistent "Gemini" von Google war der unzuverlässigste in Bezug auf die Quellen, da in 72% seiner Antworten Probleme festgestellt wurden.
• Im Vergleich dazu wiesen die anderen Assistenten eine Problematik in den Quellen von unter 25% auf.
• 20% der Antworten enthielten veraltete oder ungenaue Informationen.
* Beispiele für Fehler:
_ "ChatGPT" gab an, dass Papst Franziskus immer noch der aktuelle Papst sei, obwohl er vor Monaten verstorben ist!
_ "Gemini" lieferte falsche Informationen über Änderungen von Gesetzen zu Einweg-E-Zigaretten.
* Unternehmen reagieren ..
In einem Gespräch, das die Nachrichtenagentur "Reuters" mit den Entwicklern dieser Anwendungen führte:
Bestätigten sowohl OpenAI als auch Microsoft, dass sie an der Lösung des Problems der "Halluzination" von Informationen arbeiten, ein häufiges Phänomen, bei dem KI-Modelle irreführende Informationen aufgrund von Datenmangel oder Verarbeitungsproblemen erzeugen.
Das Unternehmen Perplexity gab auf seiner offiziellen Website an, dass eines seiner tiefen Suchmuster eine Genauigkeit von bis zu 93,9% in Bezug auf die Realität erreicht.
* Künstliche Intelligenz bedroht das Vertrauen der Öffentlichkeit in die Medien!
22 öffentliche Medieninstitutionen aus 18 Ländern, darunter Frankreich, Deutschland, Großbritannien, Spanien, die Ukraine und die Vereinigten Staaten, haben an der Erstellung dieses Berichts mitgewirkt.
Die Europäische Rundfunkunion warnte davor, dass die zunehmende Abhängigkeit von KI-Anwendungen als Hauptquelle für Nachrichten das Vertrauen der Öffentlichkeit in die Medien bedroht.
Jean Philippe de Tender, Medienleiter der Union, erklärte:
"Wenn die Menschen nicht wissen, wem sie vertrauen können, enden sie damit, niemandem zu vertrauen. Das stellt eine direkte Bedrohung für die demokratische Teilhabe dar."
* Die Jugend verlässt sich stärker auf KI in den Nachrichten
Laut dem Digital News Report 2025 des Reuters Instituts:
• 7% der Internetnutzer verlassen sich auf KI-Assistenten für Nachrichten.
• Der Anteil steigt auf 15% bei Nutzern unter 25 Jahren.
* Aufruf zur Rechenschaft und Überwachung
Der Bericht forderte die Unternehmen der künstlichen Intelligenz auf:
• Die Mechanismen zur Bearbeitung von Nachrichtenanfragen zu verbessern
• Die Informationen genau zu überprüfen
• Die Verantwortung zu übernehmen, wenn irreführende Informationen veröffentlicht werden
In einer Zeit, in der die Abhängigkeit von künstlicher Intelligenz als Informationsquelle zunimmt, wird Überprüfung und Rechenschaftspflicht unvermeidlich, um die Demokratie und das öffentliche Vertrauen zu schützen.
Sollte künstliche Intelligenz als zuverlässige Nachrichtenquelle genutzt werden?