Activity
Mon
Wed
Fri
Sun
May
Jun
Jul
Aug
Sep
Oct
Nov
Dec
Jan
Feb
Mar
Apr
What is this?
Less
More

Owned by Lina

Transición del Duelo, Adiestramiento, Adopción. Sientes que le fallas a tu Pet-Mascota?Veterinaria con 27 años. Nunca estarás sol@ 🌎🐾💙

LG
Lina's Group

1 member • Free

Memberships

Leadership Skool

1.4k members • Free

Learn Any Language

347 members • Free

The Directory On Skool

494 members • Free

SKOOL PARTNERS ⭐️🚀

1.4k members • Free

Skool Add-ons

948 members • Free

Expertos invisibles 🚀

44 members • Free

Pinterest Skool

4.1k members • Free

GREAT Community Leaders

496 members • Free

El Barquito Skool

99 members • Free

41 contributions to Master en Avatares con IA 🤖
Noticias IA — Semana del 21 de abril
Higgsfield acaba de lanzar la mayor actualización del año para flujos de trabajo publicitarios. Y Sora 2 desaparece en 5 días. HIGGSFIELD Marketing Studio ya está disponible Desarrollado con Seedance 2.0. Introduces la URL de un producto y obtienes un anuncio terminado en 9 formatos: UGC, unboxing, reseñas, CGI, cinemático, probador virtual y más. Usas tu propia cara como avatar o creas uno dentro de la herramienta. Guion, planos, cámara y edición gestionados completamente por la IA. Los nuevos usuarios tienen hasta un 70% de descuento y 14 días ilimitados. Si haces anuncios UGC, esto reemplaza el 80% de tu flujo de trabajo actual. https://higgsfield.ai/marketing-studio HIGGSFIELD Seedance 2.0 ahora en 1080p 1080p nativo. Calidad de emisión, no solo para redes sociales. 12 entradas por generación: 9 imágenes, 3 clips de vídeo, 3 clips de audio y texto. Audio nativo, sincronización labial y movimiento con físicas realistas. Higgsfield publicó un piloto de ciencia ficción de 23 minutos hecho en 4 días usando este sistema. El paso de escalado con Topaz o Higgsfield Upscale se vuelve opcional para salidas en 1080p. Ahorras créditos y tiempo de renderizado. https://higgsfield.ai/seedance/2.0 HIGGSFIELD Cinema Studio 3.5 Director de IA integrado. Control de cámara y estilo plano por plano. Elementos colaborativos para que múltiples referencias se mantengan consistentes entre tomas. Sigue siendo la mejor herramienta de la plataforma para narrativa cinematográfica. Merece la pena volver a estudiarla si no la usas desde la versión 3.0. https://higgsfield.ai/cinema-studio SORA 2 cierra app y web el 26 de abril Faltan 5 días. OpenAI mantiene la API hasta el 24 de septiembre. Si Sora estaba en tu flujo de trabajo, migra esta semana. Seedance 2.0 y Kling 3.0 cubren todo lo que hacía y con mejores resultados. VEO 3.1 ahora gratis vía Google Vids 10 clips al mes, 8 segundos, 720p, con cualquier cuenta de Google. Útil para pruebas rápidas de planos antes de gastar créditos en Higgsfield. No tiene calidad para producción final.
1 like • 2d
Genial gracias ☺️ por esa gran información
0 likes • 40m
@German Aparicio muy amable
Cómo solucionar la consistencia en vídeo IA (Sistema Kling 3.0)
El problema de que tu avatar parezca una persona distinta en cada clip no es un error de la herramienta, es cómo funcionan por defecto. Cada clip se genera de forma independiente. Sin un anclaje, el modelo empieza de cero cada vez. Este es el sistema de tres pasos para fijar la identidad de tu avatar: PASO 1 — Crear una librería de ángulos primero Antes de animar nada, genera varias vistas del mismo personaje: frente, tres cuartos, perfil y cuerpo completo. La clave aquí es mantener la descripción del personaje idéntica en todas las generaciones. Solo cambia la instrucción del ángulo. Esto le da a Kling los datos visuales necesarios para entender quién es tu avatar. PASO 2 — Cargar todo en Kling Elements Elements es el sistema de consistencia integrado en Kling 3.0. Su función es bloquear la identidad del personaje en cada clip que generes. Hay una regla obligatoria: genera cada clip desde la sección de Elements. Si generas un solo clip en modo estándar, ese plano tendrá drift (variaciones de rostro) y romperá la secuencia. PASO 3 — Encadenamiento de frames (Start/End Frame) Para tomas consecutivas, exporta el último frame del clip 1 y úsalo como el frame de inicio (Start Frame) del clip 2. Esto elimina los saltos visuales entre cortes y hace que el movimiento sea fluido. ¿Es un sistema perfecto? No siempre. Pero es mil veces más estable que trabajar sin él. Nota: El sistema de la pizarra (Elements) es el flujo de trabajo nativo de Kling. Se puede replicar esta misma lógica de consistencia dentro de Higgsfield, aprovechando que ahora integra el motor de Kling 3.0, lo haremos dándole una buena imagen fija de referencia y mediante un Prompt de Personaje invariable, el motor de Kling 3.0 se encarga del resto para que la identidad no se pierda entre tomas. Prueba este sistema y deja tus resultados en los comentarios.👇
Cómo solucionar la consistencia en vídeo IA (Sistema Kling 3.0)
1 like • 12d
Uff genial porque eso me pasa mucho u la verdad que me tenía frustrada
Flujo de Trabajo : Ingeniería Inversa de Vídeos Virales con IA
Quiero compartir un sistema que utilizo para deconstruir contenido. Cuando identifico un Reel o TikTok con un rendimiento excepcional, en lugar de intentar adivinar cómo se hizo, aplico ingeniería inversa. Paso 1: Análisis y Extracción Descarga el vídeo objetivo y súbelo a Gemini. Su capacidad para procesar los datos visuales y el audio de forma simultánea es muy alta. Identificará el guion, separará las escenas, detectará los ángulos de cámara y analizará el ritmo general. Paso 2: El Prompt de Deconstrucción Esta es la estructura exacta que utilizo para obtener el esqueleto del vídeo. Puedes copiarla directamente: Rol: Eres un especialista en análisis de vídeo e ingeniería inversa con IA. Tu objetivo es deconstruir el vídeo adjunto en un desglose técnico detallado para entender su estructura y producción. Tarea: Realiza un análisis plano a plano. Debes extraer y organizar la siguiente información: - Marcas de tiempo: Segundo de inicio y fin para cada cambio de plano o ángulo. - Cinematografía: Tipo de plano (ej. primer plano, plano medio) y movimiento de cámara (estática, seguimiento, zoom). - Sujeto y Entorno: Descripción exhaustiva de la persona (apariencia, vestuario, actitud) y los elementos del fondo (iluminación, decoración). - Objetos: Lista de elementos clave visibles (modelos de teléfono, mobiliario, etc.). - Guion: Transcripción exacta del diálogo sincronizada con las marcas de tiempo. - Análisis IA (Opcional): Si el vídeo parece generado por IA, señala indicadores técnicos como texturas de piel, precisión de la sincronización labial o errores de iluminación. Formato de salida: Presenta el desglose en una tabla Markdown limpia, seguida de un breve resumen del "Gancho Visual" y la "Configuración Técnica". Tono: Analítico, preciso y profesional. Paso 3: Integración y Reconstrucción Una vez tienes el esqueleto, puedes escalar el proceso. Dentro de esa misma conversación, educa al modelo sobre tus propias herramientas. Proporciónale contexto sobre:
2 likes • 13d
Wow que interesante me gusta lo voy a colocar en práctica gracias ☺️
2 likes • 13d
@German Aparicio claro que si
🎥 La estrategia detrás del nuevo vídeo: Gancho potente
Compañer@s, acabo de subir un nuevo Reel a Instagram y quería compartirlo por aquí para desgranar un poco la estrategia que hay detrás del vídeo. Os dejo el enlace al Reel en Instagram. https://www.instagram.com/reel/DWwrEf9jM8T/?igsh=MzV2YTBlM3dzdG1n El Hook: Detener el scroll En este vídeo he querido llevar al extremo el hook inicial. Como veréis, los primeros 3 segundos muestran una chica cayendo a través del techo. El objetivo es puramente visual: crear una interrupción brusca. Si no conseguimos que el usuario frene en seco su scroll, da igual lo bueno que sea el guion o el producto que ofrezcamos después, porque nadie llegará a verlo. La herramienta para el realismo: Aprovecho porque varios me habéis escrito preguntando cómo conseguir que los avatares tengan aspecto cinematográfico y mantengan la cara tan estable en planos distintos. La herramienta clave para esto es Higgsfield. He conseguido un enlace para nosotros con un 65% de descuento en el Plan Anual. ⚠️ Transparencia ante todo: Este descuento se aplica si cogéis el plan Anual. Si vais en serio con la monetización y la creación de contenido a medio.largo plazo , es una buena inversión, porque a la larga os ahorráis una pasta frente a pagar mes a mes, y estan todos los recursos en un mismo lugar. 👉 https://higgsfield.ai?ref=anniversary_gTJn69HjNv4 ¡Mil gracias a todos y a seguir creando! 👇
🎥 La estrategia detrás del nuevo vídeo: Gancho potente
2 likes • 19d
Hola acabo de irlo a ver te dejé el comentario recuerda estoy como Sharick está interesante en mi opinión personal me gustaría más real, se nota mucho la IA 🤖
2 likes • 18d
@German Aparicio ah ok gracias ☺️ que genial
Diferencia lipsync Nativo vs Español
He generado este video de venta con tres avatares en inglés, porque quería probar la fluidez máxima del lipsync nativo y la microexpresión facial. El nivel de realismo que se alcanza cuando el modelo procesa en su idioma base es significativamente mejor, le he puesto subtítulos en español. ¿Notáis la diferencia en la naturalidad de la boca comparado con los renders en español?
Diferencia lipsync Nativo vs Español
1 like • 26d
@German Aparicio ah ok muchas gracias ☺️
0 likes • 24d
@German Aparicio
1-10 of 41
Lina Santos
4
4points to level up
@lina-santos-3870
Médica Veterinaria 🩺 Odontología ·Adiestramiento ·Duelo de Mascotas ·Cirugía ·Anestesióloga | 27 años 🇨🇴 + 🇺🇸 | PetPals Pets-Mascotas 🌎🐾💙

Online now
Joined Jan 7, 2026