⚠️ Studie zeigt: KI-Chatbots liefern oft unzuverlässige Antworten
ChatGPT, Gemini oder Copilot – viele nutzen sie mittlerweile, um sich schnell über aktuelle Ereignisse zu informieren. Doch gerade weil KI für viele zur täglichen Nachrichtenquelle wird, stellt sich die Frage: Wie verlässlich sind diese Antworten wirklich? Eine aktuelle Untersuchung der Europäischen Rundfunkunion (EBU) gibt darauf eine klare Antwort – und sie fällt ernüchternd aus. Laut Studie enthielten rund 45 % der geprüften KI-Antworten schwerwiegende Fehler, in über 80 % fanden sich kleinere Ungenauigkeiten oder problematische Quellen. Besonders häufig traten Mängel bei der Faktenlage, Kontextbewertung und Quellenangabe auf. Die Forschenden betonen, dass viele Assistenten selbstbewusst und plausibel klingen – auch dann, wenn ihre Aussagen schlicht falsch sind. Gerade das macht es für Nutzerinnen und Nutzer so schwierig, Fehlinformationen zu erkennen. 💬 Wie sind eure Erfahrungen damit? Habt ihr schon einmal gemerkt, dass eine KI falsche oder veraltete Infos ausgegeben hat? Und wie geht ihr persönlich mit dieser Unsicherheit um?