🚀 Meta lanza SAM 3: segmentación y tracking con un simple prompt - 24/11/2025
Meta acaba de liberar SAM 3, la nueva versión de su modelo de segmentación…
y esta vez viene open source y con un salto real en usabilidad.
🔍 ¿Qué hace SAM 3?:
SAM 3 puede encontrar y seguir prácticamente cualquier cosa en imágenes o vídeos usando solo:
  • Un prompt de texto
  • O una imagen de ejemplo
Nada de cajas, clics o herramientas de precisión.
Le dices “coche”, “persona”, “botella”, “silla de diseño” → y lo detecta todo automáticamente.
🎥 Tracking estable en vídeo:
El modelo mantiene las máscaras estables a lo largo del tiempo, aunque el objeto:
  • Cambie de posición,
  • Salga del plano,
  • Vuelva a entrar,
  • O cambie la iluminación.
Esto antes solo se conseguía con modelos separados de detección + tracking.
Ahora todo va en un único sistema.
🧩 Mucho más accesible:
SAM 3 elimina la fricción de versiones anteriores.
Ya no necesitas saber segmentación:
text → objetos detectados
imagen → objetos detectados
hints simples → objetos detectados
Cualquiera puede usarlo.
🛠️ Aplicaciones directas:
  • Edición de vídeo
  • Product shots
  • Clips deportivos
  • Creatividad y VFX
  • Investigación científica
  • Análisis visual
  • Shopping y e-commerce
  • Contenido dinámico
Básicamente, seleccionar y seguir objetos deja de ser trabajo manual.
🧬 Open Source
Meta ha liberado código y weights.
Cualquiera puede descargarlo, estudiarlo o construir herramientas encima.
🔗 Descargar en GitHub:
🔗 Probar en el playground de Meta:
💬 ¿Qué opináis?
¿Es el siguiente paso hacia editores controlados totalmente por prompts?
¿O aún queda camino para sustituir los flujos manuales?
Comenta abajo — quiero ver perspectivas técnicas.
0:13
0
0 comments
Arnau Gutiérrez
1
🚀 Meta lanza SAM 3: segmentación y tracking con un simple prompt - 24/11/2025
powered by
Ampliar AI Academy
skool.com/ampliar-ai-academy-6140
La academia de Ampliar: gente hambrienta, sin excusas, construyendo sistemas, oportunidades y cambiando las reglas del juego.