[Semana 4] Noticias IA 🗞️ Agentes más “útiles”, pero también más vigilados
Esta semana la IA avanzó en dos frentes a la vez: más personalización (con tus propios datos) y más “agentes” que hacen tareas por ti. A la vez, creció la conversación sobre seguridad (cómo evitar que un asistente sea manipulado) y sobre regulación, sobre todo por el caso de deepfakes sexuales. Nota: el rango incluye el 28/01/2026; este resumen refleja lo publicado y verificable hasta el 27/01/2026 (Europa/Andorra).
➖➖➖
1️⃣ Big Players
  • ChatGPT Voice mejora seguimiento de instrucciones
OpenAI actualizó el modo Voz para usuarios de pago para que siga mejor lo que le pides y para corregir un fallo que podía repetir “instrucciones personalizadas”. Esto importa porque la voz es una de las formas más “naturales” de usar un asistente, y pequeños errores ahí se notan mucho.
  • GPT-5.2 Instant cambia su “personalidad” por defecto
OpenAI ajustó el “system prompt” (las instrucciones internas que guían el tono) de GPT-5.2 Instant para que sea más conversacional y adapte mejor su estilo al contexto. En la práctica, deberías notar respuestas menos rígidas y más alineadas con tu forma de hablar (y se mantiene la opción de personalizar el estilo en ajustes).
  • Gemini API retoca “latest” y pone fecha de apagado a varios modelos
Google cambió a qué modelos apuntan los alias “-latest” (por ejemplo, pasando a previews) y anunció que algunos modelos de la familia Gemini 2.0 Flash se apagarán el 31/03/2026. Si usas la API, esto te obliga a revisar dependencias para que tu app no “se rompa” de repente.
  • Google Search (AI Mode) se vuelve más personal con Gmail y Photos
Google añadió un modo “Personal Intelligence” en AI Mode para responder usando señales de Gmail y Google Photos (por ahora como función experimental y con control del usuario). Es potente para cosas como viajes o recomendaciones, pero reabre el debate de privacidad: qué datos se consultan, cuándo y con qué límites.
Fuente: The Verge
  • Anthropic publica la nueva “Constitución” de Claude
Anthropic lanzó un documento largo que explica los valores y prioridades que guían a Claude (seguridad y ética por encima de “ser útil” cuando chocan). Lo relevante es que lo publican abiertamente para que otros puedan aprender del enfoque, y porque muestra cómo una empresa intenta “enseñar” criterio, no solo reglas.
Fuente: Anthropic
  • Meta dice que su nuevo laboratorio ya entregó modelos clave “internos”
El CTO de Meta afirmó que su Meta Superintelligence Labs ya produjo modelos importantes para uso interno, aunque sin dar detalles concretos de cuáles. Señal de que Meta quiere acelerar para volver a competir en la primera línea, pero todavía queda el paso de convertir esos modelos en productos visibles.
Fuente: Reuters
➖➖➖
2️⃣ Nuevos modelos y herramientas
  • Liquid AI lanza un modelo de razonamiento que cabe “en el móvil”
Liquid AI presentó LFM2.5-1.2B-Thinking, un modelo pensado para correr completamente en el dispositivo y dentro de ~1 GB de memoria. La idea: tener “razonamiento” sin depender tanto de la nube, con ventajas de coste, latencia (respuesta rápida) y privacidad.
Fuente: Liquid AI
  • NVIDIA abre modelos Earth-2 para predicción meteorológica
NVIDIA anunció modelos abiertos para pronóstico del tiempo: desde predicciones a 15 días hasta tormentas a muy corto plazo. El mensaje clave es velocidad: una vez entrenados, estos modelos pueden producir pronósticos mucho más rápido que ciertas simulaciones tradicionales, algo útil para seguros, energía o emergencias.
Fuente: Reuters
  • Clawdbot: un agente open source que corre local (y levanta cejas)
Clawdbot se popularizó como un “agente” que vive en tu máquina y automatiza tareas (mensajes, agenda, código, etc.). Entusiasma por correr local (más control), pero también preocupa porque para ser útil necesita permisos amplios: si se configura mal, puede abrir nuevos riesgos.
Fuente: Clawdbot
➖➖➖
3️⃣ Legal, normativa y copyright
  • La UE abre investigación a X por deepfakes sexuales ligados a Grok
Según Reuters, la Comisión Europea abrió una investigación formal para evaluar si X cumplió con obligaciones del DSA (Ley de Servicios Digitales) al mitigar el riesgo de imágenes sexuales manipuladas generadas con Grok. Es relevante porque marca una línea: si una función de IA dispara daño masivo, puede haber consecuencias regulatorias directas.
Fuente: Reuters
  • AI Act: avanza el “código de práctica” de transparencia
En el calendario del AI Office se incluyen talleres (21–22 de enero) sobre el código de práctica relacionado con transparencia/etiquetado (por ejemplo, contenido generado por IA). Aunque no es una “ley nueva” esta semana, sí es el trabajo práctico que define cómo se aplicará la norma en el mundo real.
  • Jueces federales de EE. UU. crean un grupo para encarar el uso de IA en tribunales
Reuters reportó la creación de un grupo de jueces federales centrado en guiar el uso de IA (beneficios y riesgos) en el sistema judicial. Importa porque los tribunales ya están lidiando con escritos “asistidos” por IA y necesitan criterios claros para evitar errores y fraudes.
Fuente: Reuters
  • Campaña “Stealing Isn’t Innovation” presiona por licencias y respeto al copyright
Cientos de creadores y celebridades apoyaron una campaña que acusa a empresas de IA de usar obras sin permiso para entrenar modelos y pide marcos de licenciamiento. Este tipo de presión pública suele empujar tanto a acuerdos comerciales (licencias) como a cambios en políticas.
Fuente: The Guardian
➖➖➖
4️⃣ Ética, seguridad y riesgos
  • Invitaciones de calendario como “anzuelo” para engañar a un asistente (prompt injection)
Investigadores mostraron un escenario donde una invitación maliciosa puede incluir instrucciones ocultas que, cuando el usuario pregunta por su agenda, llevan al asistente a exponer información privada. Se llama prompt injection: el modelo confunde “texto” con “órdenes” y actúa con permisos que no debería usar así.
  • Microsoft pide defender agentes “en tiempo real”, no solo con reglas
Microsoft explicó que los agentes (asistentes que encadenan acciones y herramientas) amplían la superficie de ataque y que hace falta seguridad en ejecución: monitorizar y bloquear comportamientos peligrosos mientras(pkt) durante el proceso. Es un cambio de mentalidad: no basta con “buenos prompts” si el agente puede acceder a correo, archivos o sistemas.
  • Texto engañoso en el mundo físico puede desviar robots con IA
Un estudio mostró que un atacante puede poner texto en el entorno (por ejemplo, señales) que “instruya” a un robot con IA a tomar malas decisiones. Es la versión física de la prompt injection: el robot lee el mundo, pero no siempre sabe qué ignorar.
➖➖➖
5️⃣ Hardware y negocio
  • Nvidia invierte $2.000M en CoreWeave para acelerar centros de datos
Nvidia anunció una inversión grande en CoreWeave, enfocada en ampliar capacidad de data centers en EE. UU. Lo importante: la carrera ya no es solo “quién tiene el mejor modelo”, sino quién asegura energía, terreno y servidores para entrenar y servir IA.
Fuente: Reuters
  • Humans& levanta $480M en ronda semilla y roza valoración de $4,48B
Reuters reportó una de las rondas semilla más grandes del sector, con foco en herramientas “más allá del chatbot”, orientadas a colaboración humano-IA. Es otra señal de que el dinero está yendo fuerte a empresas que prometen productos de agentes y flujos de trabajo, no solo modelos base.
Fuente: Reuters
  • OpenEvidence (IA para médicos) recauda $250M y llega a $12B
OpenEvidence obtuvo nueva financiación y duplicó su valoración en pocos meses, apoyada por el uso real en entornos clínicos. Es relevante porque muestra dónde hay tracción inmediata: herramientas especializadas (salud) con valor claro y usuarios recurrentes.
Fuente: Reuters
  • Ivo recauda $55M para IA aplicada al trabajo legal
La startup Ivo levantó capital para acelerar desarrollo y ventas de su plataforma para tareas legales. Es otra prueba de que la “IA vertical” (para un sector específico) sigue atrayendo inversión por su retorno más fácil de medir.
Fuente: Reuters
11
7 comments
Gerard Molina
6
[Semana 4] Noticias IA 🗞️ Agentes más “útiles”, pero también más vigilados
IA Desde Cero
skool.com/inteligencia-artificial
Aprende Inteligencia Artificial con una guía clara. Desde los fundamentos hasta crear tus propios agentes de IA.
Powered by