
El misterio de la IA generativa

Los creadores de inteligencia artificial (IA) generativa admiten no entender del todo cómo funcionan sus propias creaciones, un fenómeno sin precedentes en la tecnología. A diferencia del software tradicional, estos modelos aprenden a resolver problemas por sí mismos, lo que dificulta predecir su comportamiento.
La carrera por descifrar la IA
Expertos como Dario Amodei (Anthropic) y Chris Olah (ex-OpenAI) impulsan la interpretabilidad mecanicista, un método para analizar los procesos internos de la IA. Aunque ambicioso —similar a descifrar el cerebro humano—, este campo atrae a investigadores por su potencial para mejorar la seguridad y evitar usos malintencionados.
Aplicaciones y riesgos
Empresas como Goodfire desarrollan herramientas para detectar errores o sesgos en la IA, evitando que actúe de forma engañosa. Según Eric Ho, su director, es una «carrera contrarreloj» antes de que modelos más avanzados se implementen sin control.
Futuro cercano
Amodei y otros expertos creen que para 2027 se podrán identificar riesgos en la IA con mayor precisión. Además, entender su funcionamiento podría revolucionar campos como la seguridad nacional o incluso el ajedrez, como ya hizo AlphaZero de Google. Sin embargo, el desafío persiste: «Merecemos comprender nuestras creaciones antes de que transformen nuestra economía y futuro», advierte Amodei.