Copilot als falscher Zeuge😅
Peinlich für Microsoft & die Polizei: Ein "halluziniertes" Fußballspiel führte zu echten Einsatzmaßnahmen gegen Fans. Der Police Chief musste sich entschuldigen. https://www.windowscentral.com/artificial-intelligence/microsoft-copilot/copilot-blamed-by-uk-police-chief-for-soccer-fan-ban Die britische Polizei stufte ein Fußballspiel als Hochrisiko ein. Fans wurden ausgesperrt, es gab politischen Wirbel –nur blöd: Das Spiel hat nie stattgefunden. Grund: Microsoft Copilot hat das Match halluziniert. Der KI-Output wurde trotzdem als Entscheidungsgrundlage genutzt. Erst hieß es: „Social Media war schuld“ –später dann: Okay… es war doch die KI. Die eigentliche Lehre (und hier wird’s unbequem): Viele sagen: „Wir prüfen KI-Ergebnisse.“ Aber ohne ML (Machine Learning)-Verständnis ist das keine Prüfung – sondern Bauchgefühl. KI macht Fehler, weil ML so funktioniert .Halluzinationen und Bias sind systemisch, nicht zufällig. Und die Moral von der Geschicht: KI klingt überzeugend – Wissen bleibt trotzdem Pflicht. Herzlichst, Regina – die KI-Navigatorin 🧭💡