Un estudio del MIT y Harvard revela que la IA actual funciona como Kepler: acierta en patrones, pero falla al explicar el «por qué». Los investigadores proponen una métrica revolucionaria para medir su verdadera comprensión del mundo.

En 1609, Johannes Kepler descifró las leyes que gobernaban el movimiento de los planetas. Sus fórmulas permitían predecir con exactitud dónde aparecería Marte en el cielo nocturno, pero no explicaban por qué orbitaba así. Décadas después, Isaac Newton dio el salto definitivo: su ley de gravitación universal no solo confirmaba las observaciones de Kepler, sino que revelaba el principio subyacente, aplicable desde las mareas hasta la trayectoria de un proyectil. Hoy, la inteligencia artificial (IA) enfrenta un desafío similar: es experta en predecir, pero incapaz de comprender.
Esta brecha entre predicción y entendimiento es el centro de un estudio pionero presentado en la Conferencia Internacional sobre Aprendizaje Automático (ICML 2025) en Vancouver. Un equipo de investigadores del MIT y Harvard, liderado por el físico Keyon Vafa, cuestionó si los modelos actuales de IA —desde chatbots hasta sistemas de diagnóstico médico— han logrado trascender la mera repetición de patrones para construir lo que los científicos llaman un «modelo del mundo»: una representación interna que capture las reglas fundamentales de la realidad, no solo correlaciones estadísticas.
«Sabemos medir si un algoritmo acierta, pero no si entiende», advierte Sendhil Mullainathan, profesor de Computación y Comportamiento Humano en el MIT. El problema, añade, comienza por definir qué significa «entender» para una máquina. Los humanos pasamos de la observación a la explicación —como cuando Gregor Mendel transformó siglos de agricultura intuitiva en leyes genéticas—, pero la IA sigue atascada en la primera fase.
El experimento: ¿Puede la IA reconstruir la realidad?
Para evaluar esta capacidad, los investigadores diseñaron pruebas con sistemas de IA en entornos controlados, desde juegos de mesa hasta simulaciones físicas. Uno de los experimentos más reveladores implicó una «rejilla» virtual donde una rana saltaba entre lirios alineados. El modelo recibía instrucciones básicas como «izquierda», «derecha» o «quieto» y, con esos datos, debía reconstruir el entorno completo.
Los resultados fueron prometedores… al principio. En escenarios simples, la IA lograba deducir la posición de los lirios y los saltos de la rana. Pero al aumentar la complejidad —por ejemplo, ampliando la rejilla a tres dimensiones o añadiendo obstáculos—, los modelos colapsaban. «Cuantos más estados posibles existían, más se alejaban de representar la realidad», explica Vafa. La IA no estaba aprendiendo las reglas del juego; solo memorizaba patrones específicos.
Un segundo test usó el juego Othello (conocido como Reversi). Los modelos identificaban jugadas legales con precisión, pero fallaban al reconstruir la posición completa del tablero, especialmente las fichas bloqueadas por otras. «Sabían las reglas superficiales, pero no el estado subyacente del juego», detalla el estudio. Era como un jugador que repite movimientos ganadores sin entender la estrategia.
La métrica que podría cambiarlo todo: el «sesgo inductivo»
Ante estos hallazgos, los investigadores desarrollaron una nueva herramienta: el «sesgo inductivo», una métrica que cuantifica qué tan cerca está un modelo de IA de construir una representación fiel de la realidad, en lugar de limitarse a imitar datos. «No se trata de cuánto acierta, sino de cómo lo hace», aclara Vafa.
La analogía con la ciencia es clave:
- Kepler (IA actual): Describe fenómenos con precisión, pero sin explicarlos.
- Newton (IA ideal): Descubre principios universales aplicables a situaciones nuevas.
Hoy, la IA funciona como un «Kepler digital»: predice el clima, diagnostica enfermedades o genera texto con asombrosa exactitud, pero no puede extrapolar ese conocimiento a contextos desconocidos. Por ejemplo, un modelo entrenado para predecir propiedades químicas de moléculas conocidas fracasa al diseñar compuestos nuevos porque carece de un «modelo del mundo» que entienda las leyes de la química.
¿Por qué importa? De los laboratorios a la vida real
Las implicaciones son enormes. Una IA que comprenda —no solo prediga— podría:
- Revolucionar la medicina: Diseñar fármacos desde cero al entender cómo interactúan las proteínas, no solo al analizar bases de datos existentes.
- Acelerar la ciencia: Proponer hipótesis físicas o matemáticas originales, como hizo Newton con la gravedad.
- Mejorar la robótica: Crear máquinas que se adapten a entornos impredecibles (como un robot que navegue un bosque), no solo a fábricas estructuradas.
Sin embargo, el estudio deja claro que estamos lejos de ese punto. «La IA actual es como un estudiante que aprueba un examen repitiendo las respuestas, pero no sabe resolver un problema nuevo», compara Mullainathan.
El camino adelante: optimizar lo que se puede medir
A pesar de las limitaciones, los investigadores son optimistas. «En ingeniería, cuando tienes una métrica, encuentras la forma de optimizarla», señala Brian Chang, coautor del estudio. El «sesgo inductivo» podría convertirse en el nuevo estándar para evaluar —y mejorar— los modelos de IA, guiándolos hacia una comprensión más profunda.
El reto ahora es escalar estos experimentos a sistemas reales. «Si logramos que la IA pase de Kepler a Newton, el impacto será comparable a la revolución científica del siglo XVII», concluye Vafa. La pregunta ya no es si la IA entenderá el mundo, sino cuándo —y cómo— lo logrará.
Descubre más desde NotaTrasNota
Suscríbete y recibe las últimas entradas en tu correo electrónico.