Peinlich für Microsoft & die Polizei: Ein "halluziniertes" Fußballspiel führte zu echten Einsatzmaßnahmen gegen Fans. Der Police Chief musste sich entschuldigen.
Die britische Polizei stufte ein Fußballspiel als Hochrisiko ein. Fans wurden ausgesperrt, es gab politischen Wirbel –nur blöd: Das Spiel hat nie stattgefunden.
Grund: Microsoft Copilot hat das Match halluziniert. Der KI-Output wurde trotzdem als Entscheidungsgrundlage genutzt. Erst hieß es: „Social Media war schuld“ –später dann: Okay… es war doch die KI.
Die eigentliche Lehre (und hier wird’s unbequem):
Viele sagen: „Wir prüfen KI-Ergebnisse.“
Aber ohne ML (Machine Learning)-Verständnis ist das keine Prüfung – sondern Bauchgefühl.
KI macht Fehler, weil ML so funktioniert .Halluzinationen und Bias sind systemisch, nicht zufällig.
Und die Moral von der Geschicht:
KI klingt überzeugend – Wissen bleibt trotzdem Pflicht.
Herzlichst,
Regina – die KI-Navigatorin 🧭💡