Activity
Mon
Wed
Fri
Sun
May
Jun
Jul
Aug
Sep
Oct
Nov
Dec
Jan
Feb
Mar
Apr
What is this?
Less
More

Memberships

3 contributions to Superkraft KI
Bild-KI: OpenAI greift Google an – und holt auf
Gestern hat OpenAI ChatGPT Images 2.0 rausgehauen. Und zum ersten Mal seit Monaten wird's im Bild-KI-Rennen wieder richtig interessant. Kurz zur Einordnung: Seit November führt Googles Nano Banana Pro den Markt an. Das Ding ist ein Biest – 4K-Auflösung, 14 Referenzbilder gleichzeitig, bis zu fünf Personen konsistent über mehrere Bilder hinweg, volle Kontrolle über Licht, Kamera und Tiefenschärfe. Studio-Qualität. Was OpenAI jetzt kontert: 🧠 „Thinking"-Modus – das Modell denkt vor dem Zeichnen. Es recherchiert im Web, prüft sich selbst und baut Layouts durch, bevor es rendert. 🎞 Bis zu 8 zusammenhängende Bilder aus einem Prompt – mit gleichen Figuren. Heißt: Storyboards, Comics, Kampagnen-Serien in einem Rutsch, statt mühsam Bild für Bild zu stitchen. 🌍 Sauberes Text-Rendering auch in Japanisch, Koreanisch, Hindi, Bengali. Genau da, wo Google bisher die Messlatte gesetzt hat. 📐 Bis zu 2K-Auflösung, flexible Formate von 3:1 bis 1:3. Wer liegt jetzt vorn? Ehrlich: Google noch. Nano Banana Pro bleibt bei Auflösung (4K), Referenzbildern (14 vs. OpenAIs geringere Zahl) und Feinkontrolle klar überlegen. OpenAI hat aber bei Text, Multilingualität und dem Thinking-Ansatz ordentlich aufgeholt – und in manchen Workflows (Sequenzen, Storyboards) könnte Images 2.0 sogar besser sein. Was bedeutet das für Dich? 👉 Keine Glaubensfrage. Werkzeugfrage. Für Infografiken, Produktmockups und alles, wo Du maximale Kontrolle brauchst: Nano Banana Pro. Für Storytelling, Comic-Serien, mehrteilige Kampagnen mit konsistenten Figuren: unbedingt Images 2.0 testen. Ich werde in den nächsten Tagen beide Modelle mit denselben Prompts durchjagen und die Ergebnisse hier teilen. Wer mitmachen will: Stellt Eure Testprompts gern in die Kommentare, dann nehm' ich sie mit rein. Was mich wirklich freut: Noch vor einem Jahr haben Bildmodelle an lesbarer Schrift gescheitert. Heute streiten zwei Tech-Giganten darum, wer Magazine layouten kann. Der Wettbewerb tut diesem Markt extrem gut. 🙌
Bild-KI: OpenAI greift Google an – und holt auf
0 likes • 16h
@Jörg Schieb @Rainer Doering Richtig. Aber nur die, die nicht sofort ersichtlich als KI generiert erkannt werden können. Also sicherheishalber alle, habe ich auf meiner Homepage in Bildern nud Videos auch so durchgezogen.
0 likes • 15h
@Albert Schaeffer eben. Genauso wie Fotografen unterschiedliche Kameras haben oder Künstler idealerweise Materialien und Techniken wechseln können.
Ich hab die Zeit angehalten – mit KI ⏸️
Klingt übertrieben? Schaut euch das Video an. Das ist kein After Effects. Das ist Seedance 2.0 – ein KI-Videomodell von ByteDance (ja, die TikTok-Leute). Und ehrlich gesagt hat mich das kurz sprachlos gemacht. Was Seedance 2.0 kann: Du gibst dem Modell Text, Bilder, Videos UND Audio – bis zu 12 Dateien gleichzeitig. Raus kommt ein fertiges Video mit synchronem Sound, Kamerabewegungen wie vom Regisseur und Figuren, die über mehrere Schnitte konsistent bleiben. Du kannst sogar ein Referenzvideo hochladen und sagen: "Mach genau diese Kamerabewegung, aber mit meinem Charakter." Das Modell versteht es einfach. Kein anderes Modell kann das aktuell so. Wo steht Seedance im Vergleich? - Sora 2 (OpenAI) → realistischste Physik - Veo 3.1 (Google) → poliertester Output, broadcast-tauglich - Kling 3.0 (Kuaishou, China) → günstig, schnell, native 4K - Seedance 2.0 → meiste kreative Kontrolle, Platz 1 in unabhängigen Benchmarks Was das gesellschaftlich bedeutet: Tage nach dem Launch gingen virale Clips um die Welt – Brad Pitt gegen Tom Cruise, Friends als Otter. Disney schickte eine Unterlassungserklärung. US-Senatoren forderten die Abschaltung. In China? Begeisterung. Zwei Welten, zwei Reaktionen. Und die unbequeme Frage: Wenn eine KI in Sekunden ein Video erzeugt, das aussieht wie Hollywood – was passiert mit Kameraleuten, VFX-Artists, Cuttern? Deadpool-Co-Autor Rhett Reese schrieb: Für uns ist es wahrscheinlich vorbei. Dazu kommt die Deepfake-Frage. Seedance beherrscht Lippensync in über 8 Sprachen auf Phonem-Ebene. Beeindruckend und gefährlich gleichzeitig. ByteDance hat Wasserzeichen und Sperren eingebaut – aber wer glaubt, dass das reicht, hat das Internet nicht verstanden. Meine Einschätzung: Die Frage ist nicht mehr, ob KI-Video den Mainstream erreicht. Die Frage ist, ob wir schnell genug Spielregeln dafür aufstellen. Was sagt ihr – mehr Faszination oder mehr Sorge? Schreibt's in die Kommentare 👇
Ich hab die Zeit angehalten – mit KI ⏸️
2 likes • 9d
@Flip Flop aber sicher wird sich das ändern. Es gibt ja schon komplette Movie Suiten, wo du den gesamten Produktionsprozess mit machen kannst.
1 like • 9d
@Walentina Sommer genau so sieht es aus. Was getan werden kann, wird getan.
📞 Die KI hört jetzt mit – beim Telefonieren
Vergangene Woche war mal wieder "Mobile World Congress" in Barcelona. Da geht es viel um Smartphones, Apps, Digitalisierung und KI. Eine Sache, die mir besonders gefallen hat, war keine App, auch keine Hardware. Sondern ein Serviceo: Stell dir vor, du rufst jemanden in Japan an. Ihr redet beide einfach drauflos – jeder in seiner Muttersprache. Keine App, kein Kurs, kein Missverständnis. Genau das hat die Telekom letzte Woche auf dem Mobile World Congress in Barcelona vorgestellt: den „Magenta AI Call Assistant". Eine KI, die sich live in laufende Telefongespräche einklinkt – direkt aus dem Netz, ohne Installation, auf jedem Gerät. So funktioniert es: Du sagst einfach „Hey Magenta" – und die KI übernimmt drei Dinge: 🌍 Live-Übersetzung – beide sprechen Muttersprache, KI übersetzt simultan (bis zu 50 Sprachen geplant) 📝 Mitschreiben & Zusammenfassen – automatisches Protokoll nach dem Gespräch 🤖 Aktiv werden – die KI sucht während dem Gespräch z.B. passende Restaurants oder Reiseangebote Der clevere Teil: Es steckt im Netz, nicht im Gerät. Läuft auf dem neuesten iPhone genauso wie auf dem alten Festnetztelefon. Apple und Google brauchen immer das neueste Gerät oder die richtige App – die Telekom macht das für alle verfügbar. Und jetzt kommt das Aber – das ich euch nicht verschweigen will: Dieselbe Technologie, die hier nützlich ist, steckt auch hinter KI-Fake-Anrufen und Stimmen-Klonen. Die Telekom sagt: Aktivierung nur per explizitem „Hey Magenta", Opt-in erforderlich, Gesprächspartner wird informiert. Klingt vernünftig. Aber die offenen Fragen bleiben: Wo werden die Gesprächsdaten verarbeitet? Wie lange gespeichert? Werden sie für KI-Training genutzt? Das muss die Telekom noch klar beantworten. Start: noch 2026 in Deutschland – Preise noch offen. Das klassische Telefonat, seit Jahrzehnten unverändert, wird zur intelligenten Plattform. Das ist – bei aller berechtigten Vorsicht – ein echter Paradigmenwechsel. Meine Frage an euch: Würdet ihr das nutzen? Und was wäre euer erster Use Case – Übersetzung, Protokoll, oder doch was ganz anderes? 👇
📞 Die KI hört jetzt mit – beim Telefonieren
1 like • Mar 10
Embedded Translation - Translation as a Service. Hatte das nicht mal Intel um 2000 mit ihren Video-Karten versucht? "Wo werden die Gesprächsdaten verarbeitet" - wenn's die Telekom macht vermutlich in Frankfurt, von daher also recht compliant. Spannend sind wie immer die rechtlichen Fragen: Wer garantiert für die Richtigkeit? Wird natürlich ausgechlossen sein. Aber wenn es um Verhandlungen oder Absprachen geht und die Nutzung obligatorisch wird, wird die Frage trotzdem irgendwann mal juristisch beleuchtet werden.
0 likes • Mar 10
@Sabine Hannert Das geht ja schon seit einer ganzen Weile mit Stimmen clonen, da braucht man keine Telekom-Übersetzung dazu. Wäre aber spannend, ob die Telekom-Übersetzung eine Bot Voice ist (vermutlich zu Beginn) oder auch die Stimme des Gesprächspartner live klont (vermutlich später oder als Sonder-Option), da muss der Translator die Stimme ja mal 30 Sekunden oder so gehört haben, um klonen zu können.
1-3 of 3
Frank Gassan
2
13points to level up
@frank-gassan
AI Excellence: Workshops, Automatisierungen, KI-Bots, -Agenten und komplette KI-Teams | Lehrbeauftragter "Entrepreneurial AI" | Speaker | Autor

Active 3h ago
Joined Mar 6, 2026
Powered by