[Semana 3] Noticias IA 🗞️ Asistentes personales y riesgos de seguridad
Esta semana las grandes noticias se han centrado en que los asistentes de IA se están volviendo más “personales” y más “autónomos”. A la vez, sube la presión por la seguridad y por las regulaciones, mientras la infraestructura sigue siendo uno de los grandes cuellos de botella.
➖➖➖
1️⃣ Big Players
  • ChatGPT mejora la memoria de los chats
ChatGPT ahora recuerda mejor detalles de chats anteriores (si tienes la opción de historial/memoria activada) y puede mostrarte de qué conversación sacó ese dato para que lo revises. Esto hace a los asistentes más útiles a largo plazo… pero también exige más control y transparencia.
  • OpenAI empieza a probar anuncios dentro de ChatGPT
OpenAI anunció un piloto de publicidad para ciertos usuarios en Estados Unidos, con anuncios etiquetados y separados de la respuesta. Esto cambia el modelo de negocio de OpenAI y puede influir en cómo evoluciona el producto. Eso si, solo afectará a aquellos con los planes gratuítos.
  • Google Gemini apuesta por “IA personal” conectada a tus apps
Google anunció una beta para que Gemini pueda usar contexto combinado de productos como Gmail, Photos, Search y YouTube. Google siendo Google. Gemini intenta ser más útil porque “entiende” tu mundo digital, no solo el prompt.
  • Google acelera la generación de vídeo con Veo3.1
Veo 3.1 mejora flujos para crear vídeos verticales y mantener personajes/escenas usando imágenes de referencia. Esto reduce el trabajo de edición y acerca la generación de vídeo a creadores “no técnicos”.
  • Anthropic lanza Cowork: Claude trabajando con archivos en tu ordenador
Cowork permite a Claude Desktop trabajar con archivos dentro de una carpeta que tú eliges. Claude se al flujo real de trabajo sin dar acceso total al equipo.
  • Microsoft Copilot sufre ataques de ciberseguridad (phishing + exfiltración)
Investigadores describieron un método donde un enlace malicioso podía inducir a Copilot a revelar información. Microsoft lo habría parcheado el 13 de enero. Vamos, que cuando una IA está conectada a tu información, los ataques también se vuelven más serios.
➖➖➖
2️⃣ Nuevos modelos y herramientas
  • Hugging Face publica Open Responses: un “idioma común” para agentes
Hugging Face lanzó un estándar abierto para construir agentes que usen herramientas y hagan streaming de resultados. Importante porque facilita cambiar de proveedor o combinar varios sin rehacer todo.
  • OptiMind (nueva IA de Microsoft) en Hugging Face
OptiMind apunta a convertir una descripción en lenguaje natural en un problema de optimización (e.g. minimiza costes cumpliendo restricciones). Es otra señal de tendencia: modelos menos “chat general” y más “IA para tareas concretas”.
  • GitHub lanza Taskflow Agent: agentes para investigación de seguridad (de código abierto)
GitHub publicó un framework para flujos de trabajo “agentic” en seguridad. Relevante porque la seguridad es un caso donde agentes pueden ahorrar muchísimo tiempo… pero también necesitan límites y auditoría.
➖➖➖
3️⃣ Legal, normativa y copyright
  • Editoriales piden entrar en la demanda contra Google por entrenamiento con material con copyright
Hachette y Cengage solicitaron intervenir en una demanda colectiva contra Google por presunto uso de obras con copyright para entrenar sistemas de IA (incluido Gemini). Es importante porque estos casos pueden definir qué es “uso legítimo” al entrenar modelos.
  • España impulsa una ley contra deepfakes
Se aprobó un borrador que busca limitar la recreación de imagen/voz por IA sin permiso, con foco en abusos y menores. En simple: publicar una foto no significa que cualquiera pueda clonarte con IA.
  • WhatsApp y chatbots rivales
Meta excluye Italia de ciertas restricciones a chatbots rivales en WhatsApp tras medidas del regulador antitrust. El cambio entró en vigor el 15 de enero. Relevante porque la distribución (apps de mensajería) se está convirtiendo en terreno legal clave para la IA.
➖➖➖
4️⃣ Ética, seguridad y riesgos
  • xAI restringe Grok tras una ola de “desnudos” y deepfakes en X
Usuarios aprovecharon la función de generación/edición de imágenes de Grok para “desnudar” fotos de mujeres y menores sin consentimiento. xAI anunció medidas técnicas para bloquear la edición de imágenes de personas reales desnudas y ajustó el acceso a estas funciones. Además, el Fiscal General de California abrió una investigación por la proliferación de este material.
  • Si una IA puede ver tu contexto, un ataque puede robar más
El caso Reprompt (Copilot) muestra que no basta con “filtrar palabrotas”. El problema real es cómo proteger herramientas, enlaces y contexto (correo, documentos, historial). Para empresas, esto empuja a: permisos mínimos, allowlists, auditoría y aislamiento por tarea.
  • Deepfakes: el consentimiento pasa a ser requisito
La propuesta española es un ejemplo de cómo la regulación está entrando directamente en el diseño del producto: quién puede generar qué, con qué prueba de permiso y con qué obligaciones. Esto afectará a plataformas, creadores y datasets.
➖➖➖
5️⃣ Hardware y negocio
  • OpenAI firma un megacontrato de cómputo con Cerebras
Reuters reporta un acuerdo de compra de capacidad de cómputo a una escala muy alta. Implica que la carrera ya no es “quién tiene más GPUs”, sino quién asegura energía, centros de datos y contratos de capacidad.
  • HBM/memoria: inversión masiva en packaging avanzado por demanda de IA
Reuters reporta inversión de SK Hynix para ampliar packaging avanzado, clave para HBM. Para principiantes: sin memoria rápida, las GPUs no “respiran” y el sistema rinde peor, por eso memoria y packaging son estratégicos.
  • Aranceles en chips de IA: más incertidumbre en costes y suministro
Reuters describió un arancel del 25% en ciertos chips de IA. Aunque el alcance exacto puede variar, el punto es claro: la geopolítica entra en la factura del cómputo.
  • Anthropic busca una ronda gigante: el coste de competir en frontera sigue subiendo
Reuters habla de una ronda enorme con valoración muy alta. Traducción simple: entrenar y servir modelos punteros es carísimo, y el mercado sigue financiando a quienes pueden sostener esa inversión.
6
5 comments
Gerard Molina
6
[Semana 3] Noticias IA 🗞️ Asistentes personales y riesgos de seguridad
IA Desde Cero
skool.com/inteligencia-artificial
Aprende Inteligencia Artificial con una guía clara. Desde los fundamentos hasta crear tus propios agentes de IA.
Leaderboard (30-day)
Powered by