Mein erstes KI-Video mit Higgsfield
Ich wollte euch mal mein erstes generiertes KI-Video zeigen. Ich bin gerade wirklich baff, was mit KI inzwischen möglich ist. Den Raum habe ich zuerst mit einem Referenzbild in Higgsfield AI erstellt. Anschließend habe ich mit einem Avatar-Referenzbild weitergearbeitet und daraus eine kleine Filmszene gebaut. Die Idee war, aus einem Interior-Bild mehr zu machen als nur ein statisches Motiv – nämlich eine realistische Szene mit warmem Licht, flackernden Kerzen, Kaminfeuer, natürlicher Kamerabewegung und einem Avatar, der sich durch den Raum bewegt. Wichtig war mir, dass sowohl der Raum als auch der Avatar möglichst exakt übernommen werden und nicht verfälscht wirken. Für mein erstes generiertes Video bin ich mit dem Ergebnis echt sehr zufrieden. Gerade für Interior Design, virtuelles Home Staging und Immobilienmarketing sehe ich darin riesiges Potenzial. Prompt & Making-of: Der Raum wurde zuerst mit higgsfield.ai aus einem Referenzbild im Cinema Studio Image Modus erstellt. Danach habe ich ein Avatar-Referenzbild verwendet und daraus mit einem detaillierten Prompt eine kurze Filmszene generiert. Im Prompt war wichtig: Der Raum soll exakt erhalten bleiben, Kerzen und Kamin sollen realistisch flackern, der Avatar soll unverändert übernommen werden und sich natürlich durch den Raum bewegen. Das Video wurde im Cinema Studio Video Modus erstellt: 9:16 Format, 10 Sekunden, 35mm Look, f/1.4 Wide Open und 1080p. Für mich war das Ziel, aus einem statischen Interior-Bild eine emotionale, realistische Szene für virtuelles Home Staging und Immobilienmarketing zu machen. Es ist mein erstes generiertes KI-Video – und ich bin ehrlich gesagt ziemlich baff vom Ergebnis. Bin gespannt auf euer Feedback.