Elisandro Santos

La inteligencia artificial no avanza en línea recta. Su desarrollo se parece más a una danza caótica entre tres fuerzas fundamentales que, como cuerpos celestes en gravedad mutua, chocan, se atraen y redefinen constantemente el sistema: el cómputo, los datos y el capital. Esta trilogía forma lo que algunos expertos ya llaman El Problema de los Tres Cuerpos de la Escalada de la IA, un dilema sistémico que marcará el rumbo de la inteligencia artificial en la próxima década.

1. Cómputo: la fuerza imparable que encuentra su límite

Durante la última década, el progreso de la IA ha estado alimentado por un incremento brutal del poder de cómputo. Pero esta expansión empieza a mostrar signos de agotamiento.

El crecimiento del poder computacional ha sido exponencial. Desde 2010, la cantidad de cómputo usada para entrenar modelos ha aumentado 4,6 veces al año, duplicándose cada cinco meses. Este crecimiento ha sido posible por la combinación de más chips especializados (principalmente GPU de NVIDIA) y una mejora constante en su rendimiento.

Sin embargo, esta carrera ha traído consigo una explosión de costos: entrenar GPT-4 costó cerca de 78 millones de dólares, y Gemini Ultra alcanzó los 191 millones. Esta curva ascendente plantea un problema grave de sostenibilidad, ya que sólo las grandes corporaciones o estados pueden sostener este ritmo.

A esto se suma el cuello de botella energético. El entrenamiento de modelos consume cantidades ingentes de electricidad. Por ejemplo, GPT-3 utilizó aproximadamente 1.300 MWh, equivalente al consumo anual de 130 hogares en EE.UU. Las proyecciones más conservadoras estiman que para 2028 un solo entrenamiento de IA podría requerir la energía equivalente a un reactor nuclear completo.

La conclusión es clara: escalar a cualquier costo ya no es viable. La industria se ve forzada a buscar un nuevo paradigma, uno donde la eficiencia y la optimización cobren más protagonismo que la mera magnitud.

2. Datos: el objeto inamovible y el auge de lo sintético

A medida que los modelos crecen, su apetito por datos también lo hace. Pero hay un problema: los datos humanos de alta calidad son finitos.

Según proyecciones de Stanford y Epoch AI, podríamos quedarnos sin datos textuales útiles para entrenamiento entre 2026 y 2032. Algunos investigadores sugieren incluso que el agotamiento ya comenzó en 2024.

La solución que ya se está implementando es la creación de datos sintéticos, generados por modelos de IA para alimentar otros modelos. Esta práctica tiene ventajas: permite generar volúmenes ilimitados de datos, respeta la privacidad y permite equilibrar sesgos.

Pero también entraña un gran riesgo: el temido “colapso del modelo”. Si las IAs se entrenan únicamente con información generada por otras IAs, sus errores y sesgos pueden amplificarse en cada iteración, llevando a una degradación progresiva de su capacidad para representar la realidad.

Esta paradoja exige un giro técnico urgente: crear datos sintéticos de alta fidelidad y desarrollar mecanismos de purificación que filtren contenido generado por IA para evitar bucles de retroalimentación erróneos.

3. Capital: el combustible que crea una oligarquía tecnológica

El cómputo y los datos necesitan un combustible para existir: el capital. Y en la era actual de la IA, este flujo se ha vuelto no solo masivo, sino extremadamente concentrado.

En 2024, la inversión en IA superó los 100 mil millones de dólares, y más de la mitad fue absorbida por tan solo 10 empresas. Esta concentración marca el ascenso de una oligarquía de la IA, liderada por gigantes como Microsoft, Google, Amazon, Meta y NVIDIA.

Estas empresas no solo financian, también controlan el acceso al cómputo y a los canales de distribución. Ha surgido un modelo llamado “cómputo por capital”, donde los grandes proveedores de nube otorgan acceso privilegiado a su infraestructura a cambio de alianzas estratégicas. Microsoft con OpenAI, Google con Anthropic y Amazon con sus propios chips Trainium e Inferentia son ejemplos claros.

El resultado es un sistema de jardines amurallados, donde elegir una IA es también elegir una nube. Esto implica bloqueo tecnológico, pérdida de neutralidad y una barrera casi infranqueable para nuevos competidores.

Conclusión: una nueva física para la IA

El campo de la inteligencia artificial se enfrenta a un punto de inflexión. El trinomio cómputo-datos-capital, que impulsó su explosión reciente, ha alcanzado un equilibrio inestable y comienza a mostrar sus límites físicos, económicos y éticos.

Para no repetir errores históricos —como la dependencia ciega del crecimiento o el centralismo oligárquico—, será necesario repensar profundamente la arquitectura del desarrollo de IA:

  • Diseñar modelos más eficientes y sostenibles.
  • Crear datos sintéticos robustos pero responsables.
  • Democratizar el acceso al cómputo y al conocimiento.

El futuro no está escrito. Pero entender esta interacción de fuerzas es el primer paso para imaginar uno mejor.