¿Puede una máquina que ha leído todos los artículos científicos del mundo entender realmente cómo funciona el universo? La inteligencia artificial parece haber alcanzado un techo de cristal donde la memoria infinita no basta para sustituir al razonamiento humano.
Madrid, España / Para poner a prueba los límites reales de la tecnología, un equipo liderado por Haoyu Guo y Michael P. Brenner ha diseñado un desafío sin precedentes. Publicado en la revista PNAS, el estudio evalúa la capacidad de diversos modelos de lenguaje para responder a preguntas de nivel experto sobre la física de los cupratos, un tipo de superconductores de alta temperatura. El equipo utilizó una base de datos de 1.726 artículos científicos y 67 preguntas formuladas por especialistas mundiales para demostrar que la inteligencia artificial carece todavía de un modelo de mundo sólido que le permita comprender las leyes físicas subyacentes.
Los resultados revelan una paradoja tecnológica. Aunque los modelos actuales son excelentes resumiendo textos complejos, su precisión se desploma cuando se enfrentan a matices técnicos que requieren razonamiento lógico. Los investigadores de instituciones como la Universidad de Cornell y Google DeepMind comprobaron que las máquinas son capaces de conectar términos con una precisión asombrosa pero fallan cuando se les exige una comprensión profunda de los fenómenos experimentales. Esto sugiere que los algoritmos operan bajo una lógica estadística y no mediante una asimilación real de los conceptos científicos.
El estudiante que memoriza pero no comprende
Este fenómeno se conoce como la ausencia de un modelo de mundo. Mientras que un científico utiliza la literatura para construir una estructura mental de cómo funciona la materia, la IA se limita a predecir la secuencia de palabras más probable basándose en sus datos de entrenamiento. El estudio señala que el sistema se comporta como un estudiante que memoriza el temario pero es incapaz de aplicar la lógica en problemas nuevos, lo que deriva en errores críticos cuando se le pregunta por fronteras del conocimiento donde no existen respuestas estandarizadas.
La investigación también subraya la importancia de la supervisión experta. En dominios donde un error de interpretación puede arruinar años de trabajo de laboratorio, la tendencia de la IA a la simplificación excesiva o a las alucinaciones técnicas supone un riesgo real. Los autores recalcan que los investigadores humanos siguen siendo esenciales para validar la información y detectar los fallos técnicos de los algoritmos, especialmente en áreas donde la precisión matemática y física es innegociable.
El factor humano frente al algoritmo
La conclusión del equipo es una cura de humildad para la narrativa del reemplazo tecnológico inminente. Aunque la IA es una herramienta poderosa para la exploración de la literatura científica, todavía está lejos de poseer la intuición necesaria para el descubrimiento de vanguardia. Al final, el conocimiento científico requiere una capacidad de abstracción y rigor que sigue siendo exclusivamente humana, recordándonos que el procesamiento de datos no equivale al entendimiento de la realidad.
Este estudio complementa hallazgos previos sobre la tendencia de la IA a la adulación de las opiniones del usuario. Si la máquina no solo intenta agradar, sino que además no comprende las reglas del mundo físico, su papel en la ciencia debe ser el de un asistente avanzado y nunca el de un juez final. La ciencia nos dice que, por ahora, el bolígrafo con el que se escriben las leyes del universo sigue estando en manos de los expertos.
