<
La cobertura mediática sobre la inteligencia artificial a menudo oscila entre el pánico existencial y la promesa de una utopía inminente. Sin embargo, la realidad del desarrollo de la IA, vista desde adentro, es mucho más matizada, pragmática y, en muchos sentidos, más fascinante que cualquier titular.
Para obtener esa visión interna, pocos son tan calificados como Łukasz Kaiser. Investigador de OpenAI, Kaiser no es solo un experto más en el campo; es una figura fundamental en la historia de la IA moderna. Fue coautor del icónico paper de 2017, “Attention is All You Need“, el documento que introdujo la arquitectura Transformer y sentó las bases para modelos como ChatGPT.
En una reciente entrevista, Kaiser desveló ideas sorprendentes y contraintuitivas que desafían muchas de las narrativas populares sobre la IA. A continuación, exploramos siete de sus revelaciones más importantes, que ofrecen una visión clara de dónde estamos y hacia dónde nos dirigimos realmente.
1. El Próximo Salto de la IA ya está Aquí: Se Llama “Modelos de Razonamiento”
Mientras el mundo todavía se maravilla con la capacidad de los Grandes Modelos de Lenguaje (LLMs) para predecir la siguiente palabra, Kaiser revela que los investigadores de vanguardia ya están operando en un paradigma completamente nuevo: los modelos de razonamiento.
Explica que el enfoque anterior —simplemente escalar modelos más grandes con más datos— está chocando contra dos muros infranqueables: la saturación de datos (ya se ha utilizado prácticamente todo el internet disponible) y la viabilidad económica. Kaiser menciona un estudio que demostró que, bajo el viejo paradigma, resolver problemas matemáticos de sexto grado requeriría un modelo con “miles de billones de parámetros”, algo económicamente impracticable.
En contraste, el nuevo paradigma del “razonamiento” es “fundamentalmente muy diferente”, apenas está comenzando y se encuentra en una “curva de ascenso muy pronunciada”.
“…pero existe el nuevo paradigma que es el razonamiento, y ese apenas está comenzando, y siento que este paradigma es tan joven que apenas está en esa curva de ascenso tan pronunciada.”
2. Olvida el Debate sobre “AGI”: La Verdadera Revolución es la Automatización de Tareas
El término “Inteligencia Artificial General” (AGI) domina las discusiones sobre el futuro, pero Kaiser se muestra escéptico. Su crítica, sin embargo, no es genérica; proviene de una experiencia única. “Fui programador para Ben Goertzel, quien acuñó este término”, explica. “Y cuando lo acuñó, su significado era casi el opuesto a cómo la gente lo usa ahora. Se suponía que describía una inteligencia general en contraste con la nuestra, que es muy específica”.
Para él, este debate semántico es una distracción del impacto práctico y económico de la IA aquí y ahora. El foco debe estar en su creciente capacidad para automatizar tareas que realizamos en nuestros trabajos, especialmente aquellas que se hacen en una computadora. Este enfoque pragmático cambia la conversación de un futuro de ciencia ficción a una transformación tangible y presente del mercado laboral.
“…la llamemos AGI o no, está ahí, está haciendo cosas, estas cosas pueden ser súper útiles, pero cómo logramos un buen resultado al final es algo en lo que la sociedad en general tendrá que pensar.”
3. El Verdadero Freno de la IA no son las Ideas, sino la Energía y los GPUs
Contrario a la creencia popular de que el progreso de la IA depende de destellos de genialidad, Kaiser identifica un cuello de botella mucho más terrenal: los recursos físicos. El principal límite para la investigación en la frontera no es la falta de ideas, sino la escasez de GPUs (unidades de procesamiento gráfico) y la energía necesaria para alimentarlos.
Explica que los laboratorios como OpenAI podrían ejecutar muchos más experimentos en paralelo si simplemente tuvieran más capacidad de cómputo. Esto significa que el avance de la IA está directamente ligado a la infraestructura física y la inversión económica. El progreso se ha convertido en un desafío de ingeniería y economía a gran escala, no solo de inspiración científica.
“…ese es el cuello de botella definitivo, como que son las GPUs y la energía, creo que ese es el cuello de botella definitivo y creo que esta es la situación en todos los laboratorios.”
4. La Innovación no es Magia: Es un Proceso Desordenado y Lleno de “Arreglos”
Kaiser desmitifica la creación de la arquitectura Transformer. Lejos de ser un momento “eureka” de un genio solitario, fue el resultado desordenado de un grupo de personas donde “cada uno estaba apegado a su propio ajuste (tweak)”. El verdadero avance no surgió a pesar del desorden, sino gracias a él: la combinación de estas pequeñas mejoras, defendidas individualmente por cada miembro, creó un sistema robusto que un investigador solitario probablemente habría pasado por alto.
Esta cultura de imperfección y mejora constante continúa hoy. Kaiser admite que, incluso dentro de OpenAI, la percepción de sus propios sistemas es que están llenos de errores y aspectos “horribles”. Esta perspectiva revela que la innovación no es un acto de magia, sino un proceso iterativo, colaborativo y profundamente humano de resolver problemas constantes.
“…la mayoría de la gente en OpenAI piensa ‘esto es horrible, esto es horrible, esto es horrible, esto es horrible, esto claramente tiene errores’…”
5. No Habrá “Invierno de la IA”, Prepárate para una “Mejora Muy Brusca”
Mientras algunos analistas especulan sobre un posible “invierno de la IA” —un período de estancamiento—, Kaiser predice exactamente lo contrario. Argumenta que la poderosa sinergia entre dos fuerzas provocará una aceleración significativa: por un lado, el escalado masivo de modelos gracias a la llegada de más GPUs y, por otro, el nuevo y potente paradigma de razonamiento.
No se trata solo de que los modelos piensen mejor (razonamiento), sino de que pronto tendrán una cantidad de cómputo drásticamente mayor para hacerlo. Su predicción es audaz: podemos esperar una “mejora muy brusca en el próximo año o dos“, un avance tan rápido que es “casi para asustarse un poco”. En lugar de desacelerarse, el ritmo del cambio está a punto de intensificarse.
“No creo que vaya a venir ningún invierno en este sentido, de hecho, si acaso, podría tener una mejora muy brusca en el próximo año o dos, lo cual es algo de lo que, ya sabes, casi hay que asustarse un poco.”
6. Los Nuevos Modelos Rompen la Vieja Dependencia de Datos Masivos
Una de las críticas más comunes a los LLMs es su insaciable necesidad de datos. Kaiser revela un secreto que se remonta al origen de los Transformers: en realidad, son sorprendentemente eficientes con los datos. Narra una anécdota del paper original de 2017: incluyó un ejemplo de parsing (análisis sintáctico) porque le fascinó cómo el Transformer aprendió de un pequeño conjunto de datos, algo que los modelos anteriores (RNNs) no podían hacer sin una expansión masiva de datos.
Los nuevos modelos de razonamiento llevan esta eficiencia a un nivel completamente nuevo, aprendiendo de “un orden de magnitud menos de datos“. Esto es crucial: sugiere que estos modelos no dependen de la fuerza bruta, sino que generalizan mejor el conocimiento, abriendo la puerta a capacidades más avanzadas y al aprendizaje en dominios donde los datos son escasos.
“…los modelos de razonamiento aprenden de un orden de magnitud menos de datos…”
7. Conclusión: Una Realidad Más Compleja y Fascinante
La perspectiva de Łukasz Kaiser nos aleja de los mitos y nos acerca a la realidad operativa de la inteligencia artificial. Su visión revela un campo impulsado por desafíos de ingeniería, pragmatismo económico y un proceso de innovación iterativo y humano, muy lejos de la imagen de una caja negra mágica que avanza por sí sola.
El cambio fundamental no es solo que las máquinas se vuelven más grandes, sino que están aprendiendo a “pensar” de una manera nueva y más eficiente. El paradigma del “razonamiento” artificial ya está en marcha. La pregunta ya no es si estas máquinas pueden “pensar”, sino cómo adaptaremos nuestro trabajo, nuestra ciencia y nuestra sociedad cuando puedan hacerlo a una escala sin precedentes.








