🚀 Meta lanza SAM 3: segmentación y tracking con un simple prompt - 24/11/2025
Meta acaba de liberar SAM 3, la nueva versión de su modelo de segmentación… y esta vez viene open source y con un salto real en usabilidad. 🔍 ¿Qué hace SAM 3?: SAM 3 puede encontrar y seguir prácticamente cualquier cosa en imágenes o vídeos usando solo: - Un prompt de texto - O una imagen de ejemplo Nada de cajas, clics o herramientas de precisión. Le dices “coche”, “persona”, “botella”, “silla de diseño” → y lo detecta todo automáticamente. 🎥 Tracking estable en vídeo: El modelo mantiene las máscaras estables a lo largo del tiempo, aunque el objeto: - Cambie de posición, - Salga del plano, - Vuelva a entrar, - O cambie la iluminación. Esto antes solo se conseguía con modelos separados de detección + tracking. Ahora todo va en un único sistema. 🧩 Mucho más accesible: SAM 3 elimina la fricción de versiones anteriores. Ya no necesitas saber segmentación: text → objetos detectados imagen → objetos detectados hints simples → objetos detectados Cualquiera puede usarlo. 🛠️ Aplicaciones directas: - Edición de vídeo - Product shots - Clips deportivos - Creatividad y VFX - Investigación científica - Análisis visual - Shopping y e-commerce - Contenido dinámico Básicamente, seleccionar y seguir objetos deja de ser trabajo manual. 🧬 Open Source Meta ha liberado código y weights. Cualquiera puede descargarlo, estudiarlo o construir herramientas encima. 🔗 Descargar en GitHub: https://github.com/facebookresearch/sam3 🔗 Probar en el playground de Meta: https://aidemos.meta.com/segment-anything/ 💬 ¿Qué opináis? ¿Es el siguiente paso hacia editores controlados totalmente por prompts? ¿O aún queda camino para sustituir los flujos manuales? Comenta abajo — quiero ver perspectivas técnicas.