๐๐๐๐๐ ๐ ๐ข๐๐๐๐ข๐ฆ ๐๐ ๐๐ ๐ค๐จ๐ ๐ฅ๐๐ญ๐ข๐ก๐๐ก ๐๐ข๐ ๐ข ๐๐จ๐ ๐๐ก๐ข๐ฆ
Secciรณn Noticias No pienso que las maquinas puedan razonar como los humanos, es una forma de hablar. Pero me atrae mucho como los algoritmos y tรฉcnicas evolucionan para simular ese pensamiento. Ya he avanzado en otros post estudios al respecto, como en el que hable de losย "LARGE CONCEPT MODELS" (LCMS). https://lnkd.in/drP7zmfS En los รบltimos aรฑos, la IA ha avanzado a pasos agigantados, sobre todo desde la llegada de ChatGPT en 2022. Durante un tiempo, la carrera se centrรณ en crear modelos cada vez mรกs grandes y potentes, lo que llevรณ a enormes inversiones en centros de datos. Sin embargo, recientemente se ha visto que simplemente aumentar el tamaรฑo de los modelos ya no garantiza mejores resultados. El rendimiento de algunos de los modelos mรกs grandes, como GPT-4.5, no cumpliรณ con las expectativas, lo que ha llevado a un cambio de enfoque en la investigaciรณn de IA. Ahora, el reto no es solo hacer modelos mรกs grandes, sino hacer que piensen de forma mรกs parecida a los humanos. En vez de buscar respuestas rรกpidas, los investigadores estรกn enseรฑando a las IA a tomarse su tiempo y razonar paso a paso. Un ejemplo de esto es la tรฉcnica llamada โcadena de pensamientoโ, que permite a los modelos descomponer un problema en pasos intermedios antes de llegar a una soluciรณn. Este mรฉtodo ha demostrado mejorar mucho el rendimiento en tareas de lรณgica y matemรกticas. Gracias a este enfoque, han surgido modelos de nueva generaciรณn como OpenAI o3, Google Gemini 2.5, Anthropic Claude 3.7 y DeepSeek R1, que destacan por su capacidad de razonamiento. Ademรกs, la comunidad cientรญfica estรก desarrollando variantes como โรกrbol de pensamientoโ o โlรณgica de pensamientoโ, todas inspiradas en cรณmo las personas abordan problemas complejos. El funcionamiento de este razonamiento se basa en que los modelos, en lugar de dar una respuesta directa, generan una serie de pasos lรณgicos antes de llegar a la conclusiรณn. Incluso se utilizan tรฉcnicas de aprendizaje por refuerzo para premiar a los modelos cuando sus razonamientos intermedios llevan a una mejor respuesta final. Asรญ, la IA aprende a dividir problemas grandes en partes mรกs pequeรฑas y a corregir errores sobre la marcha, imitando estrategias humanas.