Copilot als falscher Zeuge😅
Peinlich für Microsoft & die Polizei: Ein "halluziniertes" Fußballspiel führte zu echten Einsatzmaßnahmen gegen Fans. Der Police Chief musste sich entschuldigen.
Die britische Polizei stufte ein Fußballspiel als Hochrisiko ein. Fans wurden ausgesperrt, es gab politischen Wirbel –nur blöd: Das Spiel hat nie stattgefunden.
Grund: Microsoft Copilot hat das Match halluziniert. Der KI-Output wurde trotzdem als Entscheidungsgrundlage genutzt. Erst hieß es: „Social Media war schuld“ –später dann: Okay… es war doch die KI.
Die eigentliche Lehre (und hier wird’s unbequem):
Viele sagen: „Wir prüfen KI-Ergebnisse.“
Aber ohne ML (Machine Learning)-Verständnis ist das keine Prüfung – sondern Bauchgefühl.
KI macht Fehler, weil ML so funktioniert .Halluzinationen und Bias sind systemisch, nicht zufällig.
Und die Moral von der Geschicht:
KI klingt überzeugend – Wissen bleibt trotzdem Pflicht.
Herzlichst,
Regina – die KI-Navigatorin 🧭💡
9
6 comments
Regina Laskowski
6
Copilot als falscher Zeuge😅
Community StarterClass
skool.com/community-starterclass
So startest du deine eigene Community, denkst sie von Anfang an als Business und gewinnst hochwertige Neu-Mitglieder.
Leaderboard (30-day)
Powered by