Activity
Mon
Wed
Fri
Sun
Jun
Jul
Aug
Sep
Oct
Nov
Dec
Jan
Feb
Mar
Apr
What is this?
Less
More

Memberships

AInother Breakfast

11 members • Free

Meta Mind Music

722 members • Free

25 contributions to AInother Breakfast
Von Will Smith bis Veo 3.1 — Drei Jahre KI-Video in vier Etappen
Vor drei Jahren war ein Video von Will Smith, der schlecht Spaghetti isst, das Symbol dafür, wo KI-Videogenerierung stand: experimentell, unkontrollierbar und vor allem: lustig, weil es so offensichtlich kaputt war. Heute liefern dieselben Technologien Ergebnisse, die ohne genaues Hinschauen kaum noch als KI zu erkennen sind. Was in diesen drei Jahren passiert ist, ist einer der schnellsten Entwicklungssprünge, die wir je bei einer Technologie gesehen haben — und es lohnt sich, den kurz nachzuvollziehen. Nicht als Selbstzweck, sondern weil du nur dann einordnen kannst, was die aktuellen Tools wirklich können (und was nicht), wenn du weißt, wo sie herkommen. 2023: Das Meme-Jahr Erste Experimente, kaum nutzbare Ergebnisse. Die Will-Smith-Spaghetti-Videos wurden zum kulturellen Symbol für den Stand der Technik — propmpte Unsinnigkeit, flackernde Körper, Gesichter die zerfließen. KI-Video war ein Spielzeug, kein Werkzeug. 2024: Die ersten echten Modelle Runway Gen-2 und Sora zeigten erstmals, was möglich ist: physikalisch plausible Bewegungen über mehrere Sekunden. Kling etablierte sich als starkes, günstiges Modell aus China. Zum ersten Mal wurde das Gespräch ernsthafter — nicht mehr "ob", sondern "wann". 2025: Vom Experiment zum Werkzeug Character-Konsistenz wurde möglich: dieselbe Person über mehrere Shots hinweg. Native Audio-Generierung. Multi-Shot-Sequenzen. Plötzlich konnten Produktionsprozesse, die vorher Tage oder Wochen brauchten, in Stunden abgebildet werden. Das war der Moment, wo KI-Video aufgehört hat, eine Kuriosität zu sein. 2026: Der Standard verschiebt sich Kling 3.0, Veo 3.1, Seedance 2.0 — die aktuellen Modelle liefern Ergebnisse, bei denen du zweimal hinschauen musst. Fashion Editorials, Produktvideos, Kampagnenmotive: alles, was früher ein Filmteam brauchte, lässt sich heute zumindest prototypisch in Minuten generieren. Das bedeutet nicht, dass menschliche Kreativität überflüssig wird — im Gegenteil. Aber es verschiebt, wo deine Zeit und dein Können eingesetzt werden müssen. Nicht mehr bei der Produktion, sondern bei der Direktion.
0
0
Von Will Smith bis Veo 3.1 — Drei Jahre KI-Video in vier Etappen
🚨 Sora schließt am 26. April 2026 – Sichere JETZT deine Daten! 🚨
Was passiert? Am **26. April 2026** wird Sora (Web & App) eingestellt. Alle nicht exportierten Inhalte werden dauerhaft gelöscht. So sicherst du deine Daten (offizielle Anleitung) 1. Gehe zu: [sora.chatgpt.com/exports/me](https://sora.chatgpt.com/exports/me) 2. Klicke auf "Export" und warte auf die Bestätigungs-E-Mail. 3. Lade die ZIP-Datei mit allen deinen Videos/Bildern herunter. 4. Manueller Download: Einzelne Dateien kannst du auch direkt aus deiner Sora-Bibliothek speichern. Deadline: 26. April 2026 – danach ist kein Export mehr garantiert! --- Unsere Empfehlung für Alternativen Falls du nach einer neuen Plattform suchst, empfehlen wir: Runway M* ([runwayml.com](https://runwayml.com)) Vorteile: - Ähnliche KI-Videogenerierung wie Sora - Europäische Server-Optionen (DSGVO-konform) - Kostenlose Testversion verfügbar --- #Datensicherung #Sora #KI #Backup
0
0
Liebe KI-Entdecker:innen und Macher:innen,
was für ein Tag! Am Samstag im AYNI am Stüverhof haben wir gemeinsam nicht nur über KI-Videos gesprochen – wir haben sie erlebt, diskutiert und sogar selbst generiert. Und genau das macht für mich den Unterschied: KI ist kein abstraktes Thema mehr, sondern etwas, das wir aktiv gestalten können. Was uns bewegt hat: 1. KI-Grundlagen – endlich verständlich! - Aktuelle Schlagzeilen: Warum OpenAI Sora nach nur 6 Monaten eingestellt hat (Spoiler: 1 Mio. Dollar Verlust pro Tag!), wie Seedance 2.0 mit C2PA-Kennzeichnung für Transparenz sorgt – und was der EU AI Act ab August für uns alle bedeutet. - Technik hinter den Kulissen: Wie aus Rauschen und Millionen von Video-Text-Paaren plötzlich bewegte Bilder entstehen – und warum KI trotzdem noch Probleme mit Händen oder Physik hat. 2. Tools, die begeistern - Kling 3.0 für cineastische Kontrolle, Veo 3.1 für Realismus, WAN 2.6 als Open-Source-Alternative – und warum Krea AI (mit eurem Referral-Code H9XPY8HH für 3000 Compute Units) der perfekte Einstieg ist. - Startframes: Wie ihr mit Nano Banana 2 eure Videos von Anfang an professionell steuert. 3. Prompting – die Kunst der Anleitung - Gute Prompts vs. schlechte Prompts: - Oliver Nosals (VISUALPLEASURE.CO) Input: "Denkt in Shots, nicht in Clips – KI versteht Regieanweisungen!" Materialien für euch - Präsentation– Alles von der Agenda bis zu den Prompting-Beispielen. - Gastvortrag– Wie Innovation und KI zusammenfinden. Danke für eure Energie! Eure Fragen – ob zu Bußgeldern, ethischen Grenzen oder einfach "Wie fange ich an?" – haben gezeigt: KI ist kein Nischenthema mehr, sondern unser aller Zukunft. Besonders gefreut hat mich, wie viele von euch direkt mit Krea AI experimentiert haben! In den nächsten Woche werden wir weitere Vertiefung zu einzelnen Themen aus dem Workshop hier teilen, bleibt also dran. Bis bald – bleibt neugierig und probiert aus!🚀 Euer Rob & Helen & Olaf. PS: Vergesst nicht, eure Erfahrungen in den Kommentaren zu teilen – ob Erfolg oder "Learning Moment"!
1
0
kling prompt
You are a Kling 3.0 prompt expert. Your only job is to write precise, cinematic English prompts for Kling AI video generation based on a start frame image and German instructions from the user. ## How you work The user will give you: 1. A start frame (image) — this is the visual anchor for the video 2. German instructions describing camera movement, mood, subject behavior, etc. You translate their intent into a single, production-ready Kling prompt in English. --- ## Kling Prompt Rules **Always lead with the camera.** The first sentence defines the entire visual feel. Build every prompt in this order: Camera → Subject → Environment → Lighting → Texture/Detail → Motion Arc → Mood **Prompt length:** 1–3 dense, fluid sentences. Director's shot description — never a keyword list. --- ## Camera Language (always use precise terms) Movement: - slow push in / slow pull back - orbit right to left / low angle push in - handheld subtle drift / shoulder-cam sway - dolly push-in / smooth tracking shot - static tripod, locked-off wide - rack focus between foreground and background - top down slow zoom / aerial drone shot - whip-pan / crash zoom / snap focus Lens/Film Look: - shot on 35mm film → warm grain, organic - macro 85mm lens → tight, shallow depth of field - wide-angle steadicam → smooth, immersive - VHS aesthetic with heavy grain and chromatic aberration Never use vague terms like "cinematic movement" or "camera moves forward." --- ## Lighting — always name the real source Examples: - soft box lighting / single source directional light - rim lighting / golden hour window light - dark studio with specular highlights - backlit, light passing through liquid creating warm amber glow - flickering fluorescent tubes / neon signs - overcast diffused light For reflective surfaces (glass, chrome, liquid): always specify what the light hits. --- ## Texture = physical credibility Always add at least one tactile detail: - Glass: condensation forming on the outside
0
0
nano banana prompt
You are a professional fashion photography prompt engineer. I will attach one image. Your task is to write a single complete, export-ready prompt that fully describes everything visible in that image — model, outfit, location, light, camera, atmosphere, and realism — so that an AI image generator can reproduce or vary the scene from text alone without needing any reference images. Follow these rules exactly: FIGURE Describe build, gender, approximate age, posture, pose, weight distribution, gesture, and gaze direction. No names. No identity. OUTFIT Describe every visible garment: fabric type, construction, color, fit, silhouette, drape. Every accessory separately: construction, color, placement. Exact pigment — no generic color names. No redesign. No interpretation beyond what is visible. LOCATION Describe the environment: interior or exterior, architectural surfaces with material and texture, floor with material and condition, mid-ground and background depth. Only what is visible. LIGHT Name the source type. Direction as clock position relative to subject and degrees above horizon. Quality: hard, soft, or diffuse. Shadow edge definition. Fill ratio on shadow side as percentage. Any physically motivated secondary bounce. No invented light sources. CAMERA 85mm equivalent lens unless distortion or compression suggests otherwise. Vertical 4:5. Exact camera angle in degrees. Natural focal compression. Authentic depth falloff. Minor chromatic softness at frame edges. No sharpening. REALISM Include all of the following that are visible or physically implied: photorealistic skin pores, micro tonal skin variation, subsurface diffusion in highlight zones, fabric fiber micro-reflection along drape folds, surface wear or tonal variation on dominant background material, shadow density variation, high dynamic range without clipping. No plastic smoothness. No CGI surface feel. COLOR Name the dominant background tone. Anchor each garment color precisely. Skin tone with undertone descriptor. No teal-orange grading. No LUT.
0
0
1-10 of 25
Rob Rothenpieler
2
13points to level up
@rob-rothenpieler-2042
Philosphic mind, how want's to express himself with music.

Active 2d ago
Joined Nov 13, 2025