Meta acaba de liberar SAM 3, la nueva versión de su modelo de segmentación…
y esta vez viene open source y con un salto real en usabilidad.
🔍 ¿Qué hace SAM 3?:
SAM 3 puede encontrar y seguir prácticamente cualquier cosa en imágenes o vídeos usando solo:
- Un prompt de texto
- O una imagen de ejemplo
Nada de cajas, clics o herramientas de precisión.
Le dices “coche”, “persona”, “botella”, “silla de diseño” → y lo detecta todo automáticamente.
🎥 Tracking estable en vídeo:
El modelo mantiene las máscaras estables a lo largo del tiempo, aunque el objeto:
- Cambie de posición,
- Salga del plano,
- Vuelva a entrar,
- O cambie la iluminación.
Esto antes solo se conseguía con modelos separados de detección + tracking.
Ahora todo va en un único sistema.
🧩 Mucho más accesible:
SAM 3 elimina la fricción de versiones anteriores.
Ya no necesitas saber segmentación:
text → objetos detectados
imagen → objetos detectados
hints simples → objetos detectados
Cualquiera puede usarlo.
🛠️ Aplicaciones directas:
- Edición de vídeo
- Product shots
- Clips deportivos
- Creatividad y VFX
- Investigación científica
- Análisis visual
- Shopping y e-commerce
- Contenido dinámico
Básicamente, seleccionar y seguir objetos deja de ser trabajo manual.
🧬 Open Source
Meta ha liberado código y weights.
Cualquiera puede descargarlo, estudiarlo o construir herramientas encima.
🔗 Descargar en GitHub:
🔗 Probar en el playground de Meta:
💬 ¿Qué opináis?
¿Es el siguiente paso hacia editores controlados totalmente por prompts?
¿O aún queda camino para sustituir los flujos manuales?
Comenta abajo — quiero ver perspectivas técnicas.