Elisandro Santos

Los ciclos de exuberancia y desilusión: Un marco histórico para el riesgo futuro

La historia de la inteligencia artificial está definida por ciclos recurrentes de expectativas infladas que, al no materializarse, dan paso a los “inviernos de la IA”, periodos caracterizados por una drástica reducción de la financiación y el interés en la investigación.1 Estos inviernos no son fallos del campo, sino correcciones del mercado y de la comunidad científica ante la brecha entre la promesa y la realidad. Comprender las causas de los inviernos pasados es fundamental para predecir la naturaleza y el momento del próximo.

El primer invierno de la IA (1974–1980): El muro de la complejidad

El primer verano de la IA, que abarcó las décadas de 1950 y 1960, estuvo impulsado por un optimismo desbordado basado en los primeros éxitos del razonamiento automático y la lógica simbólica.3 Investigadores pioneros como Herbert Simon hicieron predicciones audaces, sugiriendo que las máquinas serían capaces de realizar cualquier trabajo humano en veinte años.4 Sin embargo, este optimismo inicial chocó con barreras fundamentales.

Las causas de este primer invierno fueron multifactoriales. En primer lugar, los sistemas de IA simbólica, o “Good Old-Fashioned AI” (GOFAI), se enfrentaron al problema de la “explosión combinatoria”.3 Aunque podían resolver problemas bien definidos en dominios cerrados, su rendimiento se degradaba catastróficamente al enfrentarse a la ambigüedad y la complejidad del mundo real. Las limitaciones del hardware de la época, tanto en potencia de procesamiento como en capacidad de memoria, impedían escalar estos sistemas para abordar problemas prácticos.3

La desilusión se cristalizó en dos eventos clave. En el Reino Unido, el Informe Lighthill de 1973, encargado por el gobierno británico, emitió una crítica mordaz sobre el fracaso de la IA para alcanzar sus “objetivos grandiosos” y la falta de aplicaciones con impacto real. El informe concluyó que la investigación en IA no había producido los resultados prometidos y recomendó recortes drásticos en la financiación pública, lo que marcó el inicio oficial del invierno en el Reino Unido.2

Paralelamente, en Estados Unidos, la Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA), que había sido el principal mecenas de la investigación en IA, comenzó a reorientar sus fondos. La Enmienda Mansfield y los posteriores recortes de DARPA exigieron que la investigación financiada tuviera una aplicación militar más directa y a corto plazo, lo que supuso el fin del apoyo a la investigación fundamental y exploratoria que había alimentado el primer “verano” de la IA.2 A esto se sumó el fracaso de proyectos emblemáticos como la traducción automática, cuyo estancamiento fue documentado en el

informe ALPAC de 1966, que concluyó que no había perspectivas inminentes de una traducción automática práctica y de alta calidad, lo que llevó a la cancelación de la financiación en este ámbito.4

Finalmente, el influyente libro Perceptrons (1969) de Marvin Minsky y Seymour Papert jugó un papel crucial. Aunque su análisis se centraba en las limitaciones de las redes neuronales de una sola capa, su impacto fue mucho más amplio, generando un escepticismo generalizado sobre el enfoque conexionista que duraría más de una década y contribuyendo a consolidar el dominio de la IA simbólica hasta que esta también alcanzó sus propios límites.5

El segundo invierno de la IA (1987–1994): El colapso del mercado especializado

Tras un resurgimiento en la década de 1980 impulsado por el éxito comercial de los “sistemas expertos”, la IA se enfrentó a un segundo invierno, más largo y con consecuencias más severas para la industria.10 Este nuevo ciclo de desilusión fue provocado por una combinación de factores económicos y tecnológicos.

La causa principal fue el colapso del mercado de las máquinas Lisp en 1987.2 Estas computadoras especializadas, diseñadas para ejecutar eficientemente el lenguaje de programación Lisp, preferido para el desarrollo de IA, eran extremadamente caras. A medida que los ordenadores personales de uso general de empresas como Apple e IBM aumentaron su potencia y redujeron sus costes, se volvieron capaces de ejecutar aplicaciones de IA de forma comparable, eliminando la necesidad del hardware especializado y costoso.10 El mercado de las máquinas Lisp, que había sostenido a muchas startups de IA, se evaporó, llevando a la quiebra a más de 300 empresas del sector para 1993.10

Al mismo tiempo, los sistemas expertos, que habían sido la gran promesa de los años 80, demostraron ser frágiles y económicamente inviables a gran escala. Eran costosos de desarrollar, requerían un conocimiento experto difícil de codificar, y eran extremadamente difíciles y caros de mantener y actualizar. Su rigidez les impedía adaptarse a nuevas situaciones no previstas en sus bases de conocimiento, un fenómeno conocido como el “problema de la cualificación”.3 Las empresas descubrieron que los nuevos sistemas de planificación de recursos empresariales (ERP) podían ofrecer un valor comercial similar a un coste mucho menor, lo que llevó al abandono de los sistemas expertos.13

Una vez más, el fracaso de proyectos gubernamentales a gran escala actuó como catalizador. La Iniciativa de Computación Estratégica (SCI) de Estados Unidos y el Proyecto de la Quinta Generación de Computadoras de Japón, ambos con objetivos enormemente ambiciosos, no lograron cumplir sus promesas, lo que provocó una nueva ola de recortes de financiación y un profundo escepticismo sobre las perspectivas de la IA.2 El término “inteligencia artificial” se volvió tan controvertido que muchos investigadores comenzaron a utilizar etiquetas alternativas como “aprendizaje automático” o “sistemas adaptativos” para evitar las asociaciones negativas.10

El verano actual de la IA (2012–Presente): La tormenta perfecta de datos, cómputo y algoritmos

El renacimiento actual de la IA, que comenzó alrededor de 2012, no fue producto de una única innovación, sino de la convergencia de tres factores que resolvieron directamente los cuellos de botella de los inviernos anteriores:

  1. Disponibilidad de datos masivos: La proliferación de internet, los dispositivos móviles y los sensores generó volúmenes de datos sin precedentes, proporcionando el “combustible” necesario para entrenar modelos complejos.6
  2. Aumento exponencial del poder de cómputo: La adaptación de las Unidades de Procesamiento Gráfico (GPU), originalmente diseñadas para videojuegos, para el cálculo paralelo masivo permitió entrenar redes neuronales profundas a una escala antes inimaginable.6
  3. Avances algorítmicos: El resurgimiento y la mejora de algoritmos como la retropropagación (backpropagation) y el desarrollo de nuevas arquitecturas de redes neuronales profundas (deep learning) proporcionaron los métodos para aprovechar eficazmente los datos y el cómputo disponibles.16

Este “verano” ha sido testigo de hitos impresionantes, como la victoria de AlphaGo sobre el campeón mundial de Go en 2016 7 y la explosión de la IA generativa con modelos como ChatGPT.8

La previsibilidad de los inviernos de la IA y la amenaza de un tercero

El análisis histórico revela un patrón claro: los inviernos de la IA no son anomalías, sino el resultado lógico de ciclos de sobreexpectación que chocan contra barreras tecnológicas o económicas fundamentales. El primer invierno fue provocado por los límites intrínsecos de la IA simbólica frente a la complejidad del mundo real (un cuello de botella algorítmico y de cómputo). El segundo invierno fue el resultado del colapso de un modelo de negocio basado en hardware caro y sistemas expertos frágiles (un cuello de botella económico y de mantenimiento). Cada verano ha surgido de una solución tecnológica que superó el cuello de botella anterior; el deep learning y el cómputo masivo resolvieron los problemas de escalabilidad de la IA simbólica.

Siguiendo esta lógica, un tercer invierno de la IA no es una cuestión de si ocurrirá, sino de cuándo y por qué. Los datos actuales ya señalan los contornos de los nuevos cuellos de botella que podrían desencadenarlo. La escalada actual de los modelos de IA está generando costes de computación y consumo energético que son económicamente insostenibles para la mayoría de las organizaciones.15 Simultáneamente, el campo se enfrenta a una inminente escasez de datos de entrenamiento de alta calidad, un recurso finito que se está agotando rápidamente.19 Además, hay indicios de rendimientos decrecientes en la simple ampliación de los modelos, lo que sugiere que el paradigma de “más grande es mejor” está llegando a su límite.21

El ciclo de exageración actual, centrado en la promesa de la Inteligencia Artificial General (IAG), está creando expectativas que inevitablemente chocarán con estas nuevas limitaciones físicas y económicas. Esta colisión es el desencadenante más probable del próximo invierno de la IA, o al menos de un “enfriamiento” significativo. Este periodo se caracterizará por una reevaluación de las estrategias de inversión, un desplazamiento del enfoque de la investigación desde la escala bruta hacia la eficiencia, y una corrección del mercado que distinguirá las aplicaciones de IA con un valor económico real de las que se basan puramente en la especulación.1

Los pilares del progreso: Momentos fundacionales y pioneros

El estado actual de la inteligencia artificial es el resultado directo de un puñado de avances conceptuales y tecnológicos clave que han definido la trayectoria del campo. Comprender este linaje es esencial para identificar qué futuras vías de investigación son extensiones lógicas del progreso y cuáles representan verdaderos cambios de paradigma.

La fundación conceptual (década de 1950)

El armazón intelectual de la IA se construyó en la década de 1950. En 1950, el matemático británico Alan Turing publicó su trascendental artículo “Computing Machinery and Intelligence”, en el que planteaba la pregunta fundamental: “¿Pueden pensar las máquinas?”. Para abordar esta cuestión, propuso un experimento mental, ahora conocido como el “Test de Turing”, que establecía un criterio pragmático para evaluar la inteligencia similar a la humana en una máquina: si un computador podía conversar con un interrogador humano sin que este pudiera distinguir si su interlocutor era una máquina o una persona, entonces la máquina podría considerarse inteligente.16 Aunque hoy en día es objeto de debate, el Test de Turing estableció el marco filosófico y el objetivo último que ha guiado al campo durante décadas.9

El nacimiento oficial de la IA como disciplina académica se produjo en la Conferencia de Dartmouth de 1956. Organizada por un joven informático, John McCarthy, la conferencia reunió a las mentes más brillantes de la época, como Marvin Minsky, Claude Shannon y Herbert Simon.25 Fue allí donde McCarthy acuñó el término “Inteligencia Artificial”, definiéndolo como la ciencia y la ingeniería de hacer máquinas inteligentes.7 Lo hizo deliberadamente para diferenciar el campo de la “cibernética”, un área rival que se centraba en los sistemas de control y la retroalimentación.24 La conferencia no solo bautizó el campo, sino que también estableció su agenda de investigación inicial al plantear siete preguntas fundacionales sobre la capacidad computacional, el lenguaje, las redes neuronales, el autoaprendizaje, la abstracción y la creatividad, muchas de las cuales siguen siendo áreas de investigación activa en la actualidad.24 Poco después, Allen Newell, J.C. Shaw y Herbert Simon desarrollaron el Logic Theorist, el primer programa de IA capaz de demostrar teoremas matemáticos, un hito que marcó el comienzo de la IA como disciplina formal.7

El cisma entre simbolistas y conexionistas

Desde sus inicios, el campo de la IA se dividió en dos escuelas de pensamiento principales, una división que se originó en la propia Conferencia de Dartmouth.

La IA simbólica, defendida por McCarthy, Minsky, Newell y Simon, fue el enfoque dominante en las primeras décadas. Sostenía que la inteligencia podía lograrse manipulando símbolos y reglas lógicas, de forma similar al razonamiento humano formal.3 Este enfoque “de arriba hacia abajo” (top-down) se basaba en la creencia de que, si se podían programar las reglas del razonamiento lógico, se podría alcanzar la inteligencia artificial.24 Este paradigma produjo los primeros éxitos, como el Logic Theorist 28, pero finalmente se topó con el muro de la explosión combinatoria y la fragilidad ante la ambigüedad del mundo real, lo que contribuyó al primer invierno de la IA.

El enfoque conexionista, por otro lado, se inspiraba en la estructura del cerebro humano y proponía que la inteligencia podía emerger de la interacción de muchas unidades de procesamiento simples (neuronas artificiales) conectadas en una red.29 Este enfoque “de abajo hacia arriba” (bottom-up) se materializó en creaciones tempranas como el Perceptrón Mark 1 de Frank Rosenblatt en 1958, la primera red neuronal que podía aprender por ensayo y error.16 Sin embargo, el libro Perceptrons de Minsky y Papert demostró matemáticamente las severas limitaciones de las redes de una sola capa, lo que provocó una pérdida de interés y financiación en la investigación conexionista durante más de una década.5

El resurgimiento del conexionismo se produjo en la década de 1980, gracias en gran medida a la popularización del algoritmo de retropropagación (backpropagation). Este avance crucial, en el que pioneros como Geoffrey Hinton, Yann LeCun y Yoshua Bengio desempeñaron un papel fundamental, permitió entrenar eficazmente redes neuronales de múltiples capas (profundas), superando las limitaciones identificadas por Minsky.16 Este cambio de paradigma, que se centraba en el aprendizaje a partir de datos en lugar de la programación explícita de reglas, es el antepasado intelectual directo de la revolución del deep learning que define la era actual de la IA.

Los “padrinos del Deep Learning”

El inmenso progreso de la IA en la última década se debe en gran medida a las contribuciones fundamentales de tres investigadores, a menudo denominados los “padrinos del deep learning”, que recibieron conjuntamente el Premio Turing en 2018 por su trabajo.30

  • Geoffrey Hinton: Es una figura central en el desarrollo del deep learning. Su trabajo en la popularización del algoritmo de retropropagación en la década de 1980 fue clave para el renacimiento de las redes neuronales.32 También fue co-inventor de las máquinas de Boltzmann y ha realizado contribuciones fundamentales en áreas como las representaciones distribuidas y las redes de creencias profundas.34 Su reciente cambio de postura, advirtiendo sobre los riesgos existenciales de la IA, tiene un peso especial en la comunidad debido a su papel fundacional.36
  • Yann LeCun: Es el principal pionero de las Redes Neuronales Convolucionales (CNNs), una arquitectura de red neuronal inspirada en el córtex visual humano que revolucionó el campo de la visión por computador.37 Su trabajo en el desarrollo de
    LeNet-5 en los años 90 para el reconocimiento de dígitos manuscritos en cheques fue una de las primeras aplicaciones comerciales exitosas del deep learning y sentó las bases para los modernos sistemas de reconocimiento de imágenes.40
  • Yoshua Bengio: Realizó contribuciones cruciales al desarrollo de modelos de lenguaje neuronales, especialmente a través de su trabajo en incrustaciones de palabras de alta dimensión (high-dimensional word embeddings), que transformaron el Procesamiento del Lenguaje Natural (PLN).41 También ha sido una figura clave en la investigación de las Redes Generativas Adversariales (GANs) y es un destacado defensor del desarrollo ético y responsable de la IA, siendo el fundador de
    Mila, el Instituto de IA de Quebec, uno de los centros de investigación académica más importantes del mundo.31

El próximo giro del péndulo: Hacia la IA neuro-simbólica

La historia de la IA puede verse como un péndulo que ha oscilado entre dos extremos. Comenzó con un enfoque puramente simbólico, basado en la lógica y las reglas explícitas. Este enfoque demostró ser demasiado rígido y no pudo escalar para manejar la complejidad del mundo real. Como reacción, el péndulo se desplazó drásticamente hacia el otro extremo: un enfoque puramente conexionista, donde el conocimiento se aprende de forma implícita a partir de datos masivos a través del deep learning. Ahora, este paradigma también está mostrando sus propias limitaciones: los modelos son “cajas negras” opacas, carecen de capacidades de razonamiento robusto, son ineficientes en el uso de datos y sus costes de entrenamiento son astronómicos.44

Los ciclos históricos sugieren que el próximo paradigma no será un rechazo total del anterior, sino una síntesis que integre las fortalezas de los enfoques pasados. El paso más lógico y prometedor en esta evolución es la fusión de las dos grandes escuelas de pensamiento de la IA: la IA Neuro-Simbólica (NSAI).47 Este enfoque híbrido busca combinar la capacidad de aprendizaje de patrones de las redes neuronales con la capacidad de razonamiento estructurado, la interpretabilidad y la eficiencia de datos de los sistemas simbólicos.47

La IA Neuro-Simbólica aborda directamente las debilidades más acuciantes del deep learning puro. Al integrar estructuras de conocimiento explícitas (como los grafos de conocimiento) y motores de razonamiento lógico, estos sistemas pueden ofrecer explicaciones de sus decisiones (superando el problema de la “caja negra”), generalizar a partir de menos datos y realizar inferencias lógicas complejas, tareas en las que los actuales modelos de lenguaje grandes (LLMs) a menudo fracasan.47 Este enfoque representa un retorno a los objetivos originales de la IA el razonamiento, la representación del conocimiento y el sentido común pero armado con las potentes herramientas de aprendizaje del deep learning. Por estas razones, la IA Neuro-Simbólica se perfila como una de las áreas más importantes de inversión, investigación y avance en el próximo lustro.

Es muy probable que se produzca una corrección significativa del mercado o un “invierno de la IA” entre 2026 y 2028. Este enfriamiento no será provocado por una falta de progreso, sino por la colisión inevitable entre las expectativas desmesuradas de la actual burbuja de la IA generativa y la dura realidad de los cuellos de botella en cómputo, datos y energía.1 El estancamiento en el rendimiento de los modelos de frontera debido a estas limitaciones físicas y económicas desencadenará una reevaluación del mercado.

Referencias

[1] Stanford University, “Artificial Intelligence Index Report 2024” – https://aiindex.stanford.edu/

[4] Gary Marcus, “The Next Decade in AI: Four Steps Towards Robust Artificial Intelligence” (ArXiv) – https://arxiv.org/abs/2002.06177

[5] Pearl, J., “The Book of Why: The New Science of Cause and Effect” – (Nota: Este es un libro, el enlace lleva a su página de venta/información) http://bayes.cs.ucla.edu/WHY/

[12] Epoch AI, “Trends in AI training compute” – https://epochai.org/

[13] OpenAI, “GPT-4o Introduction” – https://openai.com/index/hello-gpt-4o/

[14] Google DeepMind, “Gemini 1.5 Pro Announcement” – https://blog.google/technology/ai/gemini-15-pro-next-generation-model/

[15] Anthropic, “Introducing the Claude 3 Family” – https://www.anthropic.com/news/claude-3-family

[16] Thompson, N., et al., “The Computational Limits of Deep Learning” (ArXiv) – https://arxiv.org/abs/2007.05558

[17] Sevilla, J., et al., “Compute-Optimal Deep Learning” (ArXiv) – https://arxiv.org/abs/2204.02311

[18] Gates, B., “The Age of AI has begun” – https://www.gatesnotes.com/The-Age-of-AI-Has-Begun

[19] Meta AI, “Introducing Llama 3” – https://ai.meta.com/blog/meta-llama-3/

[20] Microsoft, “Introducing Phi-3: Redefining What’s Possible with SLMs” – https://azure.microsoft.com/en-us/blog/introducing-phi-3-redefining-whats-possible-with-small-language-models/

[21] The Economist, “The soaring cost of training AI models” – https://www.economist.com/technology-quarterly/2022/06/15/the-soaring-cost-of-training-ai-models

[22] Leiserson, C., et al., “There’s plenty of room at the Top: What will drive computer performance after Moore’s law?” (Science) – https://www.science.org/doi/10.1126/science.aam9744

[23] NVIDIA, “NVIDIA Blackwell Platform” – https://www.nvidia.com/en-us/data-center/blackwell-architecture/

[24] Groq, “LPU Inference Engine” – https://wow.groq.com/lpu-inference-engine/

[25] Cerebras, “Introducing the WSE-3” – https://www.cerebras.net/product-chip/

[26] SemiAnalysis, “The AI Data Center Energy Problem” – https://www.semianalysis.com/p/the-ai-data-center-energy-problem

[27] Synthesis AI, “Synthetic Data for Computer Vision” – https://synthesis.ai/

[28] Gretel.ai, “The Synthetic Data Company” – https://gretel.ai/

[29] MIT Technology Review, “We’re running out of data to train AI” – https://www.technologyreview.com/2022/11/18/1063642/were-running-out-of-data-to-train-ai/

[30] Epoch AI, “Will we run out of data? An analysis of the limits of scaling datasets” – https://epochai.org/blog/will-we-run-out-of-data

[31] WIPO, “Technology Trends 2024: Artificial Intelligence” – https://www.wipo.int/en/technology-trends/2024/ai (Mencionado en la introducción de la sección que muestras)

[40] IBM Research, “Neuro-Symbolic AI” – https://research.ibm.com/blog/neuro-symbolic-ai

[41] MIT CSAIL, “Neuro-Symbolic AI for Reliable Machine Learning” – https://www.csail.mit.edu/news/neuro-symbolic-ai-could-make-ai-more-transparent-and-trustworthy

[42] Amazon Science, “Using knowledge graphs to improve conversational AI” – https://www.amazon.science/blog/using-knowledge-graphs-to-improve-conversational-ai

[43] Neo4j, “Knowledge Graphs for LLMs” – https://neo4j.com/generative-ai/knowledge-graphs-for-llms/

[44] AAAI Conference on Artificial Intelligence (Publicaciones sobre XAI) – https://aaai.org/Conferences/AAAI/

[45] DARPA, “Explainable AI (XAI) Program” – https://www.darpa.mil/program/explainable-artificial-intelligence

[47] World Economic Forum, “Global Risks Report” – https://www.weforum.org/publications/global-risks-report-2024/