User
Write something
KI Q&A is happening in 42 hours
Pinned
Willkommen! ✅✅✅ Stellt Euch hier gerne hier vor 🎉
Stellt euch doch kurz vor: - Wer seid ihr und was macht ihr beruflich? - Wie nutzt ihr KI schon jetzt im Alltag oder Job? - Was wollt ihr mit KI erreichen – wo soll die Reise hingehen? Keine Romane nötig – ein paar Sätze reichen völlig! Ich fang mal an: Ich bin Jörg, Journalist, Autor, Speaker und KI-Experte. Ich nutze KI täglich Dutzende Male für Content-Erstellung, Recherche, Alltagsaufgaben und um komplexe Themen verständlich zu machen, auch visuell. Mein Ziel: Euch zeigen, wie ihr KI wirklich nutzbringend einsetzt – ohne Blabla, sondern praktisch. Jetzt seid ihr dran! 👇 Bin gespannt, wen wir hier alles an Bord haben. Los geht's! Wiederholen
Willkommen! ✅✅✅ Stellt Euch hier gerne hier vor 🎉
Humanoider Roboter gewinnt Halbmarathon
🤖 Heute morgen ist ein Roboter einen Halbmarathon in 50 Minuten gelaufen. Ich musste das zweimal lesen. Kurz zur Einordnung, warum mich das umhaut: Letztes Jahr beim selben Rennen in Peking brauchte der schnellste Roboter noch 2 Stunden 40 Minuten. Er wackelte, musste teilweise begleitet werden, sah aus wie ein betrunkener Praktikant auf Eis. Ein Jahr später: 50 Minuten. Schneller als jeder menschliche Teilnehmer. Fast drei Mal so schnell wie im Vorjahr. Ich kenne kaum eine Technologie, die in 12 Monaten so einen Sprung macht. Außer einer. Und genau die steckt drin. Die Hardware dieser Roboter ist seit Jahren ähnlich. Zwei Beine, Motoren, Sensoren, Akku. Nichts Magisches. Was sich verändert hat, ist das Gehirn: die KI, die in Echtzeit entscheidet, wie der Roboter bei Wind, unebenem Boden und Kopfsteinpflaster das Gleichgewicht hält. Vor zwei Jahren hätte diese Rechenleistung einen Serverraum gefüllt. Heute läuft sie in einem Rucksack mit. Das ist der eigentliche Wahnsinn an der Geschichte. Und deshalb schaue ich mir solche Shows genau an – nicht weil ich Robotik-Fan bin, sondern weil sie der ehrlichste Gradmesser für den KI-Fortschritt sind, den wir gerade haben. Ein Chatbot kann halluzinieren, ohne dass es sofort auffällt. Ein Roboter, der umfällt, fällt um. Punkt. Deshalb meine Frage an euch: Wo würdet ihr euch als Erstes einen Roboter wünschen? → In der Küche? → Im Haushalt (bügeln, putzen, aufräumen)? → In der Pflege (Stichwort Fachkräftemangel)? → Im Job? → Oder: Bloß nicht, lasst mich in Ruhe? Schreibt's in die Kommentare – ich bin wirklich neugierig. Das Bild, das daraus entsteht, sagt uns mehr über die Zukunft als jede Marktprognose. PS: Elon Musks "Optimus" soll Ende nächsten Jahres für 30.000 Dollar kommen. Sind wir darauf vorbereitet? Eher nicht. Genau darum machen wir hier in der Community das, was wir machen. 💪
Humanoider Roboter gewinnt Halbmarathon
Claude Opus 4.7 ist da – und ich muss euch davon erzählen (weil es mich direkt betrifft)
Heute hat Anthropic das neue Modell Claude Opus 4.7 veröffentlicht. Und normalerweise würde ich bei einem Modell-Update sagen: „Ja, nett, wieder ein paar Benchmarks besser." Aber dieses Update ist anders – und ich erkläre euch, warum. Was ist neu? Das Wichtigste zuerst: Opus 4.7 befolgt Anweisungen jetzt wörtlich. Klingt banal, ist es aber nicht. Wer Claude kennt, weiß: Bisher hat das Modell Prompts oft „kreativ interpretiert" – also Teile übersprungen, Dinge hinzugedichtet oder locker ausgelegt. Das neue Modell nimmt euch beim Wort. Wenn ihr sagt „Schreib genau drei Absätze", bekommt ihr drei Absätze. Nicht vier. Nicht zweieinhalb mit einer netten Ergänzung. Anthropic warnt sogar selbst: Alte Prompts, die bisher funktioniert haben, können jetzt unerwartete Ergebnisse liefern – weil das Modell sie jetzt endlich wörtlich nimmt. Wer also über Monate seine Prompts so formuliert hat, dass Claude „versteht, was gemeint ist", sollte die nochmal prüfen. Das Modell rät nicht mehr – es gehorcht. Warum mich das persönlich freut Ich arbeite jeden Tag intensiv mit Claude. Für meine Kurse, für Texte, für Automatisierungen, für Code. Und eine der größten Frustrationen war immer: Du gibst eine detaillierte Anweisung und bekommst 80% davon zurück, garniert mit Eigeninterpretation. Das ändert sich jetzt spürbar. Dazu kommt: Opus 4.7 kann Bilder in deutlich höherer Auflösung verarbeiten (dreimal so viele Pixel wie vorher). Für alle, die mit Screenshots, Diagrammen oder Dokumenten-Scans arbeiten – das ist ein echter Sprung. Was ihr wissen müsst Zwei Dinge, die Anthropic ehrlich kommuniziert (finde ich gut): 1. Der Token-Verbrauch kann steigen – bis zu einem Drittel mehr, je nach Input. Das liegt am neuen Tokenizer und daran, dass das Modell gründlicher „nachdenkt". Man kann das aber steuern, zum Beispiel mit dem neuen Effort-Parameter oder indem man das Modell auffordert, sich kürzer zu fassen. 2. Opus 4.7 ist nicht das stärkste Modell von Anthropic. Das ist „Claude Mythos Preview" – ein Modell, das so gut darin ist, Sicherheitslücken zu finden, dass Anthropic es unter Verschluss hält und nur ausgewählten IT-Sicherheitsfirmen zur Verfügung stellt. Opus 4.7 schlägt aber seinen Vorgänger Opus 4.6 in praktisch allen Bereichen.
Claude Opus 4.7 ist da – und ich muss euch davon erzählen (weil es mich direkt betrifft)
Manus "My Computer" – der KI-Agent, der auf deinem Rechner arbeitet 🤖💻
Manus ist ein KI-Agent (seit Ende 2025 gehört er zu Meta), der nicht nur chattet, sondern eigenständig Aufgaben erledigt. Recherchieren, Code schreiben, Dateien erstellen – alles ohne ständiges Händchenhalten. Seit März 2026 gibt es die Desktop-App mit dem Feature "My Computer". Und das verändert die Spielregeln. Was ist neu? Manus arbeitet jetzt direkt auf deinem Mac oder PC. Er nutzt dein Terminal, greift auf deine lokalen Dateien zu, kann installierte Programme steuern. In einer Demo hat er in 20 Minuten eine komplette macOS-App gebaut – ohne dass ein Mensch eine Zeile Code getippt hat. Praktische Beispiele: → Tausende Fotos automatisch sortieren lassen → Wöchentliche Reports aus lokalen Daten generieren → Von unterwegs per Handy dem Agenten sagen: "Finde das Dokument auf meinem PC und schick es per Mail raus" Wie unterscheidet sich das von Claude Cowork? Cowork (von Anthropic) ist der Spezialist für Dokumente – Word, Excel, PowerPoint auf einem sehr hohen Niveau. Manus ist eher der Allrounder: Web-Recherche + Code + lokale Dateien + Cloud-Dienste (Gmail, Notion, Slack) in einem Workflow. Kurz: Cowork = Büro-Profi. Manus = digitaler Alleskönner. Der Haken beim Datenschutz 🔒 "Lokal" klingt erstmal gut. Aber Achtung: Die Befehle werden zwar auf deinem Rechner ausgeführt, aber das eigentliche "Denken" passiert in der Cloud. Heißt: Wenn Manus eine Datei auf deiner Festplatte liest, wird der Inhalt an Cloud-Server geschickt. Bei Cowork ist es übrigens genauso – die Inferenz läuft auf Anthropics Servern. Wirklich komplett lokal geht nur mit eigenen Modellen (Ollama, LM Studio). Aber die spielen leistungsmäßig in einer anderen Liga. Was kostet das? Manus arbeitet mit Credits. Jede Aktion kostet – und zwar unvorhersehbar. Eine simple Recherche: ~50 Credits. Eine komplexe Aufgabe: 500–900 Credits. - Free: 300 Credits/Tag (zum Testen) - Standard: $20/Monat (~4.000 Credits) - Extended: $200/Monat (~40.000 Credits) Achtung: Credits verfallen am Monatsende. Und wenn sie mitten in einer Aufgabe ausgehen, stoppt Manus komplett.
Manus "My Computer" – der KI-Agent, der auf deinem Rechner arbeitet 🤖💻
Bildbearbeitung mit ChatGPT
Habe nach Hinweisen aus dem Schieb Newsletter erstmals ChatGPT als Bildbearbeitung genutzt. Insbesondere weil Adobe Photoshop Funktionen (begrenzte Anzahl) kostenlos eingebunden sind. Das Ergebnis seht ihr auf folgenden Fotos - Ausschnitt aus einer Modelleisenbahn-Anlage. Das Ergebnis ist sehenswert. Prompt; Tausche den Hintergrund aus mit einem Abendhimmel mit einigen wenigen Sternen. Benutze einen leichten den Glow Effekt die Fahrzeuge und die Personen. Die Konturen der Felsen sollten noch gut zu sehen sein.
Bildbearbeitung mit ChatGPT
1-30 of 104
Superkraft KI
skool.com/superkraft-ki
KI verstehen. KI nutzen. Superkräfte aktivieren.
Leaderboard (30-day)
Powered by