La IA no aprende como creíamos… y este paper explica por qué
Como comentaban @Jaime Ernesto Castillo e Ingrid Molina en la última sesión de Conversemos de IA Acerca de la memoria reciente o de corto plazo de la IA adjunto un paper de la nueva propuesta de Google "Nested Learning" Que sinceramente creo que es uno de los primeros pasos para alcanzar la IA General. Adjunto Resumen del paper: Durante años hemos pensado que hacer la inteligencia artificial más grande y más potente era la forma correcta de volverla “más inteligente”. Sin embargo, este paper plantea algo incómodo pero clave: la IA actual no aprende realmente después de ser creada. Puede responder muy bien en una conversación, pero no conserva lo aprendido una vez termina. Es como alguien brillante que, al cerrar un libro, lo olvida todo. La propuesta del paper introduce una nueva forma de entender el aprendizaje de las máquinas, llamada Nested Learning. En palabras simples, la idea es que una IA debería aprender en varios niveles al mismo tiempo, algunos muy rápidos y otros más lentos, de forma parecida a como los humanos tenemos memoria a corto y largo plazo. Aprender no sería solo reaccionar bien en el momento, sino guardar experiencia para el futuro. Lo interesante es que esta idea también cambia cómo vemos el “entrenamiento” de la IA. En lugar de entrenar una sola vez y luego usarla, los autores proponen sistemas que siguen aprendiendo mientras funcionan, sin necesidad de reiniciarlos o volver a empezar desde cero. Esto abre la puerta a inteligencias artificiales que se adaptan, mejoran y evolucionan con el uso. Este trabajo no dice que ya existe una Inteligencia Artificial General, pero sí marca algo importante: por primera vez se ataca uno de los mayores límites actuales de la IA. No se trata de hacer modelos más grandes, sino de hacerlos capaces de aprender de verdad. Y ese cambio de mentalidad podría ser el inicio de una nueva etapa para la inteligencia artificial.