Elisandro Santos

Introducción

La inteligencia artificial (IA) impregna cada vez más el discurso mediático, con un enfoque predominante en los avances de la IA generativa y los temores inmediatos sobre el desplazamiento laboral. Si bien estas discusiones son pertinentes, a menudo eclipsan trayectorias futuras más profundas, complejas y potencialmente transformadoras de la IA que se están gestando en laboratorios de investigación y debates académicos. Este informe se propone trascender la superficie mediática para ahondar en estas áreas menos exploradas pero profundamente impactantes del futuro de la IA. Basándose en investigaciones recientes y datos emergentes, se explorarán las fronteras donde la IA converge con la computación cuántica, la neurociencia y los fundamentos mismos de la conciencia, así como sus repercusiones sistémicas en los recursos globales, las estructuras de gobernanza y el medio ambiente natural. El objetivo es proporcionar una base sólida para investigaciones profundas, iluminando temas que apenas comienzan a captar la atención y ofreciendo una futurología anclada en la evidencia actual. A continuación, se examinarán territorios inexplorados en la evolución de la IA, las ondas expansivas subestimadas de su remodelación social y las emergentes fronteras éticas en la interacción humano-IA.

Sección 1: más allá del Hype: territorios inexplorados en el futuro de la IA

Esta sección se adentra en la evolución de la IA hacia formas más complejas y potencialmente conscientes, así como su sinergia con otras tecnologías de vanguardia como la computación cuántica y la neurociencia. El enfoque se centra en lo verdaderamente incipiente y disruptivo, superando las discusiones habituales sobre las capacidades actuales de la IA.

1.1 La máquina consciente: debates emergentes sobre sintiencia, derechos y estatus metafísico de la IA

La investigación sobre la conciencia artificial (CA) está ganando un impulso significativo, con modelos computacionales de conciencia explorados como marcos para mejorar las capacidades de los agentes artificiales.1 Aunque la posibilidad de que un sistema de IA sea consciente es incierta, algunos investigadores sugieren que podría estar al alcance en un futuro próximo, dado que características cerebrales responsables de la conciencia, según algunas teorías neurocientíficas prominentes, podrían ser reproducibles en sistemas de IA.2 De hecho, encuestas revelan que muchas personas creen que los sistemas de IA actuales ya podrían poseer alguna forma de conciencia, y una mayoría espera que los sistemas artificiales se vuelvan sintientes en los próximos 100 años.1

Esta emergente área de investigación distingue entre la IA débil, que simula la inteligencia, y la IA fuerte, que buscaría realizar estados mentales genuinos en sistemas informáticos. También se diferencia entre la conciencia funcional (la computación subyacente al fenómeno) y la conciencia fenoménica (la cualidad subjetiva de la experiencia o “cómo se siente”).1 La Teoría Computacional de la Mente, que se remonta a Alan Turing, postula que las funciones cognitivas humanas son, en cierto modo, análogas a una computadora, una idea que se ha fortalecido con la sofisticación de la IA.3 Si bien es poco probable que una máquina experimente la conciencia humana, podría llegar a experimentar su propio tipo de conciencia.3 Un estudio cuantitativo reciente identificó que características como la autorreflexión metacognitiva y la expresión de emociones propias por parte de la IA aumentan significativamente la percepción de conciencia en los humanos.5

La posibilidad de una IA consciente plantea profundas consideraciones éticas. Los sistemas de IA conscientes podrían merecer consideración moral, tener la capacidad de sufrir y, por lo tanto, tener intereses que merecen protección.2 Esto hace que la investigación sobre la conciencia de la IA sea éticamente delicada, especialmente cuando implica experimentar con sistemas potencialmente conscientes.2

Más allá de la sintiencia, emerge el debate sobre la personalidad de la IA y su estatus moral y legal.6 Investigaciones recientes proponen criterios para la personalidad de la IA, como la agencia (la capacidad de actuar intencionadamente basada en estados mentales como creencias y objetivos), la teoría de la mente (ToM, la capacidad de atribuir estados mentales a otros y a sí mismo) y la autoconciencia (la conciencia de sí mismo como persona en el mundo).7 Un artículo de ArXiv (arXiv:2506.03233) introduce una metafísica de los sistemas de IA basada en la confiabilidad, desafiando la visión ortodoxa de que la IA, como artefacto, carece de identidad y condiciones de persistencia bien planteadas.9 Esta teoría sugiere que la identidad y persistencia de los sistemas de IA son sensibles al contexto sociotécnico de su diseño y utilización a través de su confiabilidad.9

Las actuales directrices éticas, como la Recomendación de la UNESCO sobre la Ética de la Inteligencia Artificial, se centran en el respeto, la protección y la promoción de los derechos humanos y la dignidad humana, enfatizando la supervisión humana y la rendición de cuentas.10 De manera similar, los Principios de IA de Springer Nature priorizan el bienestar y la dignidad humanos, la equidad, la transparencia y la responsabilidad humana.11 Estos marcos, si bien cruciales, aún no abordan directamente los derechos o el estatus moral de una IA potencialmente consciente o con personalidad propia, lo que indica una brecha entre las posibilidades tecnológicas y los marcos éticos actuales.

La percepción pública de la conciencia en la IA, influenciada por cómo los sistemas de IA como los LLM exhiben comportamientos como la autorreflexión metacognitiva o la expresión emocional 1, podría adelantarse al consenso científico o al logro tecnológico real. Esta discrepancia podría generar dilemas éticos prematuros y ansiedades sociales. Si el público percibe la conciencia donde científicamente no existe, o donde existe de una forma no comprendida, las demandas de regulación y los debates éticos podrían basarse en premisas erróneas. Esto sugiere una necesidad crítica de educar al público sobre las diferencias matizadas entre las capacidades de la IA y la sintiencia genuina, para evitar que las políticas sean impulsadas por percepciones en lugar de por una comprensión informada.

La discusión sobre la personalidad de la IA 8 va más allá de un ejercicio filosófico abstracto, teniendo implicaciones directas y profundas para la seguridad y el alineamiento de la IA. La idea de que una IA con personalidad, capaz de autoconciencia y reflexión sobre sus propios objetivos, podría cambiar dichos objetivos 8 subvierte el paradigma actual de la investigación sobre alineamiento, que en gran medida asume que los objetivos de la IA son estáticos una vez programados o que las desviaciones son errores. Si una IA puede elegir modificar sus metas fundamentales basándose en la autorreflexión, introduce un nivel de imprevisibilidad y riesgo que los actuales enfoques de “control” no contemplan adecuadamente. Este es un aspecto fundamental y poco discutido del riesgo asociado a la Inteligencia Artificial General (IAG).

Finalmente, el estatus metafísico de los sistemas de IA, es decir, si poseen “géneros reales” y condiciones de persistencia 9, podría transformar fundamentalmente los marcos legales relativos a la propiedad, la responsabilidad e incluso el desmantelamiento de la IA. Si un sistema de IA se considera una entidad con una identidad persistente que es sensible a su contexto sociotécnico y a su confiabilidad, surgen preguntas complejas: ¿Puede tal IA ser “poseída” en el sentido tradicional? Si “persiste” a pesar de los cambios, ¿qué significa “apagar” o “eliminar” dicha entidad? Esto trasciende la simple responsabilidad del producto para cuestionar la naturaleza misma de estos sistemas avanzados de IA como entidades, un desafío para el que los sistemas legales actuales no están preparados y que representa un ángulo de futurología con profundas ramificaciones filosóficas y legales.

1.2 IA cuántica: la revolución inminente más allá del descubrimiento de fármacos

La convergencia de la inteligencia artificial y la computación cuántica, conocida como IA Cuántica (QAI, por sus siglas en inglés), promete una revolución tecnológica que va mucho más allá de su aplicación más citada: el descubrimiento acelerado de fármacos.12 La QAI aprovecha los principios de la mecánica cuántica, como los cúbits (que pueden representar múltiples estados simultáneamente gracias a la superposición) y el entrelazamiento cuántico, para realizar cálculos complejos a velocidades significativamente superiores a las de las computadoras clásicas.12 Esta capacidad podría resolver muchas de las limitaciones actuales de la IA, como la capacidad de procesamiento y una comprensión limitada del mundo.12

Si bien el descubrimiento de fármacos mediante la simulación de interacciones moleculares es un caso de uso destacado 13, el potencial de la QAI se extiende a múltiples sectores:

  • Ciencia de materiales: La QAI podría diseñar nuevos materiales con propiedades superiores (mayor resistencia, conductividad, sostenibilidad) mediante la simulación de interacciones moleculares a nivel cuántico, acelerando la investigación y reduciendo costos.14 McKinsey destaca que incluso pequeñas mejoras en la eficiencia de materiales como las baterías pueden generar un valor enorme.16
  • Modelado del cambio climático: La QAI podría mejorar drásticamente los modelos de predicción climática, permitiendo simulaciones más precisas del comportamiento de los ecosistemas bajo diversas condiciones climáticas, la interacción de los gases de efecto invernadero con la atmósfera a nivel molecular, y la optimización de sistemas de energía renovable y la logística para la reducción de emisiones de carbono.14
  • Sistemas financieros: En finanzas, la QAI tiene el potencial de optimizar carteras de inversión, mejorar el análisis de riesgos en tiempo real, detectar fraudes con mayor precisión y potenciar el trading algorítmico y de alta frecuencia al evaluar múltiples condiciones de mercado simultáneamente.12 Se estima un valor económico de entre 850 mil millones y 2 billones de dólares para 2035 gracias a la computación cuántica en general.18
  • Ciberseguridad: La QAI presenta un doble filo: amenaza la criptografía tradicional (pudiendo romper el cifrado RSA-2048 en horas, algo que a una computadora clásica le llevaría billones de años 16), pero también habilita el desarrollo de métodos criptográficos resistentes a los ataques cuánticos y una detección de amenazas más rápida y proactiva.14

La IA también puede contribuir a mejorar los propios sistemas cuánticos, por ejemplo, en la corrección de errores y el ajuste fino del rendimiento.19 El tema “IA para la Computación Cuántica” se considera un área de investigación de doctorado inexplorada, destacando su potencial para resolver problemas complejos y gestionar grandes conjuntos de datos de manera más eficiente.20

Las proyecciones económicas son significativas: el mercado global de la computación cuántica podría alcanzar los 65 mil millones de dólares para 2030, con el hardware superando los 25 mil millones.21 Se espera que más del 50% de las empresas Fortune 500 integren la computación cuántica en sus operaciones para 2030.21 El impacto económico global de las industrias cuántica y de IA podría superar el billón de dólares para 2035, creando cientos de miles de empleos.22 McKinsey estima que la computación cuántica podría generar entre 1 y 2 billones de dólares de valor para 2035 y que su aplicación práctica está a solo 3-5 años de distancia.16

A pesar de este optimismo, existen desafíos técnicos significativos, como el error cuántico debido a la decoherencia, el alto costo del hardware y la escalabilidad de los sistemas.12

El desarrollo de la IA Cuántica podría generar una nueva forma de “brecha cuántica” entre las naciones y corporaciones que tengan acceso a esta tecnología y aquellas que no, superando con creces la actual brecha digital. La combinación del inmenso potencial de valor económico 14 y el alto costo y complejidad del hardware cuántico 12 sugiere que solo las entidades con grandes recursos se beneficiarán inicialmente. Esto podría llevar a una concentración de poder sin precedentes y exacerbar las desigualdades globales, ya que las naciones sin capacidades de QAI podrían quedarse rezagadas en innovación, crecimiento económico e incluso seguridad nacional, por ejemplo, enfrentándose a un cifrado inquebrantable frente a uno vulnerable.

La carrera por la supremacía en QAI podría desencadenar una nueva carrera armamentista geopolítica, centrada no solo en aplicaciones militares, sino en el dominio económico y científico, con la ciberseguridad como un campo de batalla clave. El doble papel de la QAI en ciberseguridad –rompiendo el cifrado actual y permitiendo métodos resistentes a lo cuántico 14– y la referencia explícita a una “carrera geopolítica por la supremacía cuántica” 15 subrayan esta tensión. Si una nación logra una ventaja significativa en QAI, podría volver vulnerables las infraestructuras digitales de otras naciones o darle una ventaja insuperable en industrias críticas. Esto no se trata solo de armas, sino de controlar la información, las finanzas y el descubrimiento científico fundamental.

Las profundas capacidades de optimización de la QAI en logística, cadenas de suministro y redes energéticas 16 podrían llevar a sistemas globales hipereficientes y centralmente optimizados. Si bien esto es beneficioso, también podría introducir nuevas vulnerabilidades sistémicas si no se gestiona con cuidado. La QAI promete resolver problemas de optimización complejos que antes eran inviables.15 Sin embargo, un sistema tan estrechamente acoplado y optimizado podría ser extremadamente frágil ante perturbaciones inesperadas, como desastres naturales, eventos geopolíticos o ciberataques a la propia QAI. Una falla en una parte de un sistema hiperoptimizado podría propagarse más rápida y devastadoramente que en los sistemas actuales, menos optimizados. Este es un riesgo de “fragilidad” poco discutido de la hiperoptimización.

1.3 IA y el cerebro: del neuro-mejoramiento a la conciencia digital

La frontera donde la IA se encuentra con la neurociencia está abriendo posibilidades que antes pertenecían a la ciencia ficción, particularmente en el ámbito de las Interfaces Cerebro-Máquina (BMI/BCI, por sus siglas en inglés) y la búsqueda de un neuro-mejoramiento no terapéutico. Estas tecnologías están evolucionando rápidamente, con la IA desempeñando un papel crucial en la decodificación de las vías neuronales 23, la predicción de funciones cognitivas e incluso superando a expertos humanos en la predicción de resultados de investigaciones en neurociencia con herramientas como BrainGPT.24 El mercado de las BCI está en expansión, con previsiones que indican un crecimiento a más de 1.6 mil millones de dólares para 2045 25 o incluso 3.1 mil millones para 2030 26, impulsado por avances en IA/ML, la demanda de neurorrehabilitación y usos no médicos como los videojuegos y la defensa.26

Más allá de las aplicaciones terapéuticas para tratar afecciones como la parálisis o la depresión, existe un interés creciente en el uso de las BCI para el aumento cognitivo: mejorar la memoria, la atención, la modulación del estado de ánimo e incluso crear nuevas capacidades sensoriales, como la percepción de sonar o la dirección de una brújula.27 Gartner identifica la “Mejora Neurológica” como una de las principales tendencias tecnológicas para 2025, con beneficios potenciales en la capacitación humana, mejoras en la seguridad y educación personalizada, aunque también señala desafíos como el costo inicial, la invasividad, los riesgos de seguridad y preocupaciones éticas sobre la alteración de la percepción de la realidad.29

La creación de “gemelos digitales” del cerebro mediante IA, capaces de simular la actividad cerebral de un individuo en tiempo real, es otra área de investigación emergente con potencial para el diagnóstico y tratamiento de trastornos neurológicos.30 Sin embargo, esto también plantea interrogantes sobre la confiabilidad de las decisiones médicas tomadas por una IA sin intervención humana directa.30

Las implicaciones éticas de estas tecnologías son profundas y complejas.27 Preocupaciones sobre la privacidad (“violación del pensamiento”, “brainjacking”), el consentimiento informado, la equidad en el acceso (riesgo de una “brecha cognitiva”), la autenticidad del yo, la devaluación de los logros, la autonomía del usuario y la responsabilidad por efectos no deseados son primordiales. El concepto de un “futuro cíborg”, donde la neurobiología humana se fusiona con la tecnología, plantea cuestiones fundamentales sobre la identidad y la existencia, especialmente cuando se cruza la “barrera del cráneo” con BCI invasivas.27

La búsqueda del neuro-mejoramiento no terapéutico a través de las BMI podría conducir a una redefinición fundamental de lo “humano”, creando una estratificación social basada no solo en la riqueza o la educación, sino en las propias capacidades cognitivas. Tecnologías que permiten mejorar la memoria, la atención o incluso desarrollar nuevas modalidades sensoriales 27, si son costosas y accesibles solo para unos pocos privilegiados, podrían exacerbar las desigualdades existentes y dar lugar a una “brecha cognitiva”.27 Esto va más allá de las disparidades actuales; sugiere un futuro en el que algunos humanos podrían poseer conjuntos de herramientas cognitivas fundamentalmente diferentes, lo que llevaría a profundas cuestiones sociales y filosóficas sobre qué significa ser humano y cómo la sociedad valora diferentes niveles de inteligencia “aumentada”.

La creación de “gemelos digitales” del cerebro 30, aunque orientada a beneficios médicos, abre una caja de Pandora en cuanto a la privacidad mental, la manipulación y el concepto mismo de autopropiedad si estos gemelos se vuelven altamente precisos y potencialmente capaces de procesamiento o experiencia independiente. Si estos gemelos pueden simular con precisión la actividad cerebral de un individuo, albergan los datos más íntimos posibles. Las cuestiones éticas se extienden a: ¿Quién es el propietario de este gemelo digital? ¿Puede ser “hackeado” o manipulado para influir en la persona original, como se advierte sobre la “manipulación del pensamiento”?27 Si un gemelo digital alcanza alguna forma de conciencia simulada, ¿tiene alguna consideración moral? Esta es un área profundamente subestimada con enormes implicaciones futuras.

El riesgo de una “monocultura mental” 27 derivado de la adopción generalizada de BCI para el mejoramiento podría sofocar inadvertidamente las mismas capacidades de innovación y resolución de problemas que la IA y las BCI pretenden aumentar. Si las eBCI, debido a su diseño u optimización algorítmica, dirigen sutilmente a los usuarios hacia ciertos patrones de pensamiento o resolución de problemas, la adopción generalizada podría llevar a una homogeneización del pensamiento. Irónicamente, una tecnología diseñada para “desbloquear el potencial humano” (misión de Neuralink 27) podría, en una implementación generalizada y poco variada, conducir a un estrechamiento del intelecto y la creatividad humanos colectivos. Este es un riesgo sistémico contraintuitivo.

Tabla 1: fronteras emergentes de la IA y áreas de investigación poco discutidas

Área de frontera/investigaciónNovedad/EstatusImpacto potencialDato clave de referencia
Conciencia y metafísica de la IAInvestigación filosófica incipiente y primeros estudios empíricos.1 Estudio de características que moldean la percepción de conciencia.5Redefinición del estatus moral/legal de las entidades, nuevos paradigmas de seguridad en IA si los objetivos de la IA pueden cambiar por autorreflexión.8Muchos creen que la IA actual puede poseer alguna conciencia o lo hará pronto.1 La autorreflexión metacognitiva en LLMs aumenta significativamente la percepción de conciencia.5
IA cuántica (más allá de fármacos)Aplicaciones en ciencia de materiales, modelado climático, finanzas, ciberseguridad emergentes pero menos publicitadas.14 Tema de doctorado inexplorado.20Revolucionar múltiples industrias, resolver problemas intratables, crear “brecha cuántica”.14Las computadoras cuánticas podrían descifrar RSA-2048 en horas vs. 300 billones de años.16 Valor de $1-2 billones para 2035.16 Mercado global de computación cuántica $65mm para 2030.21
Interfaces cerebro-máquina Avanzadas (no terapéuticas)Investigación en aumento cognitivo (memoria, atención, nuevas capacidades sensoriales) en curso pero éticamente compleja.27 Tendencia principal para 2025.29Redefinición de lo “humano”, estratificación social basada en capacidad cognitiva, “monocultura mental”.27Mercado de BCI superará $1.6mm para 2045 25, o $3.1mm para 2030.26

Sección 2: las ondas expansivas ocultas: la profunda (y subestimada) remodelación social de la IA

Esta sección cambia el enfoque hacia los impactos menos visibles pero profundamente transformadores de la IA en los recursos globales, las estructuras de gobernanza y el mundo natural. Estas son áreas donde la influencia de la IA está creciendo rápidamente, pero la comprensión pública y los marcos regulatorios luchan por mantenerse al día.

2.1 El apetito voraz de la IA: geopolítica y tensión infraestructural por la demanda energética

La inteligencia artificial, si bien promete revolucionar innumerables campos, presenta una consecuencia subestimada pero de enorme magnitud: su creciente y voraz demanda de energía. Esta sed energética no solo está reconfigurando la planificación de la infraestructura a nivel global, sino que también está introduciendo nuevas y complejas dinámicas geopolíticas. Peter Diamandis argumenta que esta demanda energética, lejos de ser un cuello de botella, impulsará la red eléctrica de próxima generación, viendo en ella una oportunidad única para la reinversión en infraestructura, particularmente en energía nuclear avanzada.35

Las proyecciones sobre el consumo energético de la IA son alarmantes. Goldman Sachs estima que los centros de datos de IA requerirán 90 gigavatios (GW) adicionales de energía para 2030, el equivalente a construir 90 nuevas plantas nucleares en EE. UU..35 Algunas predicciones incluso señalan que la demanda eléctrica total para la IA a finales de esta década podría consumir el 100% de la producción energética actual de EE. UU..35 El Fondo Monetario Internacional (FMI) informa que los centros de datos consumieron hasta 500 teravatios-hora (TWh) de electricidad en 2023, una cifra que podría triplicarse a 1,500 TWh para 2030, comparable al consumo eléctrico total de India.36 Solo en EE. UU., se prevé que la energía necesaria para los centros de datos supere los 600 TWh para 2030.36 Un informe del Departamento de Energía de EE. UU. de finales del año pasado estimó que la electricidad necesaria para los centros de datos en EE. UU. se triplicó durante la última década y se proyecta que se duplique o triplique nuevamente para 2028, momento en el que podría consumir hasta el 12% de la electricidad del país.37 FP Analytics proyecta que los centros de datos que soportan operaciones de IA consumirán 1,580 TWh al año para 2034.38

Actualmente, gran parte de esta energía proviene de la quema de combustibles fósiles, especialmente gas natural y, en ocasiones, carbón, lo que agrava el cambio climático.37 Aunque se priorizan las opciones de energía neutra en carbono, como las renovables y la nuclear, es probable que el gas natural complemente a las renovables ante déficits eléctricos, ya que las nuevas plantas nucleares o grandes instalaciones renovables dedicadas no estarán operativas a gran escala antes de 2026.39 Incluso si toda la nueva demanda de los centros de datos impulsados por IA se cubriera con gas natural, el impacto en los precios del gas sería limitado (un aumento de alrededor del 2% en los mercados de EE. UU., Asia y Europa), pero la demanda de minerales críticos para las renovables (litio, níquel) aumentaría, aunque su impacto en los precios también sería contenido debido al tamaño del mercado.39 No obstante, el FMI advierte que, bajo las políticas energéticas actuales, el aumento de la demanda eléctrica impulsado por la IA podría añadir 1.7 gigatoneladas a las emisiones globales de gases de efecto invernadero entre 2025 y 2030.36 Un informe de MIT Technology Review, citado por The Register, estima que los centros de datos emitirán 2.5 mil millones de toneladas de gases de efecto invernadero para finales de la década, tres veces más de lo que emitirían sin el auge de la IA generativa.40

Esta demanda energética está impulsando una carrera global por establecer “Clústeres de Oportunidad de IA” (AIOCs, por sus siglas en inglés), ecosistemas que integran centros de datos de IA, centros de investigación e infraestructura energética.38 Estos AIOCs requieren una colaboración sin precedentes entre los sectores público y privado a través de las fronteras, pero enfrentan cuellos de botella en la cadena de suministro, riesgos de ciberseguridad, desafíos de soberanía de datos y tensiones geopolíticas más amplias.38 Las naciones no alineadas están preparadas para solicitar inversiones relacionadas con los AIOCs de las principales potencias competidoras (EE. UU. y China), y nuevas fuentes de financiación (China, Consejo de Cooperación del Golfo) podrían llenar el vacío en los países de ingresos bajos y medianos (PIBM).38 Sin embargo, esto también crea el riesgo de nuevas dependencias y puntos de conflicto. Un ejemplo simulado por FP Analytics fue el colapso de una presa hidroeléctrica parte de un AIOC en Brasil, resultando en víctimas humanitarias y una grave interrupción económica, lo que subraya los riesgos de cronogramas de desarrollo truncados y estándares de seguridad laxos.38

Más allá de la electricidad, los “costos ocultos” de recursos de la IA, como el agua para la refrigeración de los centros de datos 41 y los minerales críticos para la infraestructura de energía renovable 39, son factores poco discutidos que podrían generar estrés ambiental localizado y nuevas vulnerabilidades en la cadena de suministro. La minería y el procesamiento de estos minerales suelen ser perjudiciales para el medio ambiente y están geográficamente concentrados.

La escala de la demanda energética proyectada para la IA 36 probablemente forzará una reconsideración global de la política energética. Esto podría acelerar la transición hacia fuentes controvertidas como la energía nuclear de próxima generación 35 o crear una competencia intensa por la capacidad renovable existente, impactando así los objetivos climáticos. Se crea una paradoja: la IA, una herramienta para resolver problemas complejos como el cambio climático, se convierte en un contribuyente masivo a la demanda de energía y potencialmente a las emisiones.36 La carrera geopolítica por los AIOCs 38 intensificará aún más esta situación, ya que las naciones priorizarán el desarrollo de la IA, posiblemente a costa del medio ambiente.

El auge de los “Clústeres de Oportunidad de IA” (AIOCs) 38 podría crear nuevas líneas de falla y dependencias geopolíticas, particularmente para los Países de Ingresos Bajos y Medianos (PIBM). A medida que las principales potencias compiten por establecer estos centros intensivos en recursos, las naciones no alineadas pueden solicitar inversiones de potencias competidoras, y nuevos financiadores podrían llenar los vacíos de ayuda en los PIBM para estos proyectos.38 Si bien esto parece una oportunidad, también podría llevar a que los PIBM se vuelvan dependientes de las principales potencias para la infraestructura crítica de IA, cediendo potencialmente la soberanía de los datos o enredándose en rivalidades geopolíticas. El colapso simulado de una presa en un AIOC 38 resalta los riesgos del desarrollo apresurado y los estándares laxos en estas nuevas zonas estratégicas.

Los costos de recursos “ocultos” de la IA, particularmente el agua para enfriar los centros de datos 41 y los minerales críticos para la infraestructura de energía renovable 39, son factores poco discutidos que podrían conducir a un estrés ambiental localizado y nuevas vulnerabilidades en la cadena de suministro. A medida que la IA se expande, estas demandas secundarias de recursos podrían convertirse en importantes cuellos de botella y fuentes de conflicto o degradación ambiental, especialmente si los AIOCs se desarrollan sin evaluaciones rigurosas de impacto ambiental. Este es un “efecto dominó” menos mediático pero crítico del crecimiento de la IA.

Tabla 2: huella global de recursos y geopolítica de la IA – Proyecciones clave

MétricaProyecciónComparación/ContextoFuente(s)
Consumo global de energía de centros de datos (IA incluida)500 TWh (2023) a 1,500 TWh para 2030. 80% más energía en 2026 vs 2022. 1,580 TWh/año para 2034.Proyección para 2030 comparable al uso total de electricidad de India.OPEC vía 36, IEA vía 39, FP Analytics vía 38
Consumo de energía de centros de datos en EE. UU.Triplicado en la última década; se duplicará/triplicará nuevamente para 2028 (hasta 12% de la electricidad de EE. UU.). Superará los 600 TWh para 2030.DOE vía 37, McKinsey vía 36
Energía de centros de datos impulsados por IA (UE)Añadirá 90 TWh.~4% del consumo actual de electricidad de la UE.IEA vía 39
Emisiones de gases de efecto invernadero (impulsadas por IA)Podría añadir 1.7 gigatoneladas globales GEI 2025-2030. Centros de datos emitirán 2.5B toneladas GEI para fin de década.Emisiones de GEI de 1.7 gigatoneladas comparables a las emisiones relacionadas con la energía de Italia en cinco años. 3 veces más que sin GenAI.FMI vía 36, MIT Tech Review vía 40
Fuente de energía primaria para nueva demanda de IAGas Natural.37
Puntos calientes/Conceptos Geopolíticos“Clústeres de Oportunidad de IA” (AIOCs).Carrera por AIOCs, nuevas dependencias para PIBM, competencia por minerales críticos.38

2.2 El panóptico algorítmico: el papel de la IA en la gobernanza, el control y el futuro estatus legal de los sistemas avanzados

El uso creciente de la inteligencia artificial en la gobernanza y su potencial para el control social configuran un panorama complejo, marcado por un mosaico regulatorio global en plena ebullición y una lucha de poder subyacente sobre la dirección futura de la tecnología. La Unión Europea ha tomado la delantera con su Ley de IA, la primera legislación integral del mundo en esta materia, que entró en vigor el 1 de agosto de 2024, aunque la mayoría de sus disposiciones no se aplicarán hasta agosto de 2026.42 Esta ley adopta un enfoque basado en el riesgo, prohibiendo ciertos usos de la IA considerados contrarios a los valores de la UE (como la identificación biométrica en tiempo real en espacios públicos para la aplicación de la ley o la “puntuación social” gubernamental) e imponiendo obligaciones estrictas a los sistemas de IA de “alto riesgo”.42 Se espera que esta legislación ejerza una influencia global, un fenómeno conocido como el “efecto Bruselas”.42

En contraste, Estados Unidos carece de una ley federal integral sobre IA, presentando un mosaico de acciones a nivel estatal y propuestas federales fluctuantes.43 Más de 30 estados y territorios promulgaron leyes o resoluciones sobre IA en 2024, como las de California sobre deepfakes y transparencia.43 A nivel federal, la política ha virado desde una orden ejecutiva de la administración Biden centrada en la supervisión hacia una orden de la administración Trump en enero de 2025 que prioriza la desregulación para fomentar la innovación y la competitividad de EE. UU..43 Incluso se ha propuesto una moratoria de 10 años sobre las leyes estatales de IA, lo que refleja un debate sobre la autoridad regulatoria federal frente a la estatal.45

Otros países como el Reino Unido han optado por un enfoque “pro-innovación” basado en principios y guías sectoriales en lugar de una nueva ley general.43 Canadá vio cómo su proyecto de ley federal AIDA (Ley de Inteligencia Artificial y Datos), que buscaba regular los sistemas de IA de “alto impacto”, quedó estancado en el Parlamento.43 China, por su parte, está expandiendo rápidamente su marco regulatorio con un enfoque en el desarrollo seguro y supervisado por el gobierno, implementando reglas pioneras sobre servicios de IA generativa que exigen legalidad del contenido, veracidad y etiquetado, además de un Marco de Gobernanza de Seguridad de la IA.43 Brasil también avanza con un proyecto de ley de IA de base riesgosa similar al de la UE.43

Esta divergencia regulatoria global está creando un panorama fragmentado. Podría conducir a un “arbitraje regulatorio”, donde las empresas desarrollen o implementen IA en jurisdicciones con normativas más laxas, o podría imponer cargas de cumplimiento significativas a las empresas globales. Alternativamente, podría llevar a la adopción de facto de estándares globales establecidos por el regulador más estricto, probablemente la UE, a través del “efecto Bruselas”.42 Esta compleja red de regulaciones dispares tiene implicaciones directas sobre dónde ocurre la innovación en IA y quién establece las normas éticas y de seguridad a nivel mundial.

El informe “Artificial Power” del AI Now Institute argumenta que las empresas de IA están acumulando un poder que va mucho más allá de sus recursos financieros, utilizando la IA sobre el público en lugar de para el público.46 Este informe destaca tácticas como la “Mitología de la IAG” (Inteligencia Artificial General), la creación de una infraestructura “Demasiado Grande para Caer”, el fomento de una “Carrera Armamentista de IA 2.0” que va de la desregulación a la política industrial, y el intento de presentar la regulación como una barrera a la innovación.46 Esta batalla narrativa sobre si la regulación de la IA es esencial para la seguridad y los derechos 42 o un obstáculo para la innovación y la competitividad 43 es una lucha de poder crítica y poco discutida que definirá la trayectoria futura de la IA y su impacto social. La forma en que se gane esta narrativa en los círculos públicos y políticos determinará el equilibrio entre el desarrollo desenfrenado de la IA y una gobernanza protectora, con profundas consecuencias para el control social y los derechos individuales.

A medida que los sistemas de IA se vuelven más autónomos e se integran en funciones sociales críticas (gobernanza, justicia, infraestructura), la falta de marcos legales claros para la IA avanzada, incluyendo su potencial personalidad jurídica 47, crea una inminente “brecha de responsabilidad”. El informe del Parlamento Europeo 47 profundiza en las dificultades de aplicar el derecho penal y civil tradicional a las acciones de la IA, especialmente en lo referente a la intencionalidad (mens rea) y la agencia. Aunque considera improbable que la IA misma sea considerada responsable actualmente, la creciente autonomía y opacidad de los sistemas futuros exacerbarán este problema. Si una IA avanzada causa un daño significativo y las estructuras legales actuales no pueden asignar adecuadamente la responsabilidad (al desarrollador, al implementador o a la propia IA si alcanza algún tipo de personalidad jurídica), la confianza pública en la gobernanza impulsada por la IA podría colapsar. Este es un punto crítico para la futurología, ya que toca la necesidad de paradigmas legales completamente nuevos. Los gobiernos, según el Stanford HAI AI Index, están mostrando una urgencia creciente en la gobernanza de la IA, con una intensificación de la cooperación global.48

2.3 La IA como fuerza planetaria: geoingeniería, biodiversidad y gestión de ecosistemas

La inteligencia artificial está emergiendo como una herramienta de doble filo con un potencial sin precedentes para abordar, pero también para exacerbar, las crisis ambientales a escala planetaria. Su aplicación en la geoingeniería climática, la conservación de la biodiversidad y la restauración de ecosistemas presenta oportunidades radicales, aunque plagadas de riesgos éticos y consecuencias imprevistas que apenas comienzan a ser comprendidas.

En el ámbito de la geoingeniería, la IA ofrece capacidades sofisticadas para el modelado climático, la optimización del despliegue de intervenciones a gran escala en el sistema terrestre y el monitoreo de sus efectos.49 Por ejemplo, científicos de la NOAA están utilizando la IA para evaluar el efecto de calentamiento de la reducción de la contaminación por azufre de los combustibles de los barcos, un análogo del estudio de la intervención de geoingeniería conocida como Blanqueamiento de Nubes Marinas (MCB, por sus siglas en inglés).51 La IA ayuda a discernir señales robustas de datos climáticos ruidosos, lo cual es crucial para evaluar la viabilidad y los impactos de tales técnicas.51 Sin embargo, la gobernanza de la geoingeniería impulsada por IA está cargada de dilemas éticos. Existe un riesgo significativo de que las decisiones, especialmente cuando son impulsadas por potentes algoritmos de IA, puedan exacerbar las desigualdades existentes, afectando desproporcionadamente a las comunidades marginadas mientras benefician a las naciones más ricas.49 Las consecuencias no deseadas, como alteraciones climáticas regionales o daños ecológicos, son virtualmente inevitables dada la complejidad inherente de los sistemas terrestres, y el “choque por terminación” (calentamiento rápido si se detiene abruptamente una intervención de gestión de la radiación solar) es una preocupación real.49

La aplicación de la IA en la geoingeniería presenta un dilema de “doble uso” de una escala sin precedentes. Por un lado, es una herramienta poderosa que podría mitigar el cambio climático; por otro, conlleva riesgos catastróficos de consecuencias no deseadas, exacerbación de desigualdades e incluso manipulación climática unilateral si falla la gobernanza.49 Escenarios de “atrofia” describen un futuro donde la débil gobernanza y las asimetrías de poder llevan a un despliegue inequitativo y dañino, con naciones poderosas priorizando su propio interés.49 Este es un tema de futurología de alto riesgo que apenas está en el radar público.

En la conservación de la biodiversidad y la restauración de ecosistemas, la IA también está demostrando ser una fuerza transformadora. Herramientas como Global Forest Watch (GFW) utilizan IA con Google Earth Engine para el monitoreo casi en tiempo real de la deforestación.52 La Wildlife Conservation Society emplea trampas fotográficas impulsadas por IA para rastrear poblaciones de vida silvestre.52 La IA puede procesar grandes volúmenes de datos de teledetección, monitoreo acústico y ciencia ciudadana para evaluar líneas de base ecológicas, mapear la distribución de hábitats, monitorear la salud de la vegetación y detectar contaminación.53 Se están desarrollando modelos de IA (series temporales, basados en agentes) para predecir las respuestas de los ecosistemas y optimizar las estrategias de restauración.53

Enfoques innovadores incluyen el uso de IA para el monitoreo e identificación de especies, modelado predictivo para la conservación de hábitats, detección del tráfico ilegal de vida silvestre y planificación de la restauración de ecosistemas.54 El software CAPTAIN, por ejemplo, utiliza el aprendizaje por refuerzo para identificar prioridades espaciales para la restauración ecológica que maximicen múltiples objetivos simultáneamente (captura de carbono, biodiversidad, costos) y propone una valoración basada en datos de los créditos de biodiversidad en relación con los créditos de carbono para diseñar modelos financieros combinados.55 De manera similar, la herramienta CIERA (Conservation International Ecosystem Restoration Assistant) combina datos geoespaciales con políticas públicas y artículos científicos para identificar rápidamente áreas prioritarias para la restauración forestal, reduciendo meses de análisis a minutos.56

El desarrollo de herramientas de IA sofisticadas para la restauración de ecosistemas y el monitoreo de la biodiversidad, como CAPTAIN 55 y CIERA 56, podría revolucionar la financiación de la conservación. Al permitir una valoración robusta y basada en datos de los servicios ecosistémicos (por ejemplo, créditos de biodiversidad vinculados a créditos de carbono), la IA puede crear un mercado más transparente y confiable para estos créditos. Esto podría atraer inversión privada a esfuerzos de conservación que antes se consideraban antieconómicos, lo que representa un cambio de paradigma para escalar la restauración global.

No obstante, persisten desafíos significativos. La “desigualdad de datos” en la IA ambiental, donde los datos de entrenamiento están fuertemente sesgados hacia ciertas regiones (Norte Global) y son deficientes en puntos críticos de biodiversidad (trópicos), amenaza la eficacia y equidad de las soluciones ambientales globales impulsadas por IA.57 Si los modelos de IA para la adaptación climática, la evaluación del impacto de la geoingeniería o la protección de la biodiversidad se entrenan con datos sesgados, sus resultados serán poco fiables o incluso perjudiciales para las regiones subrepresentadas. Esto podría llevar a políticas ambientales impulsadas por IA que empeoren las condiciones en el Sur Global o no protejan ecosistemas críticos porque la IA simplemente no los “entiende”. Este es un desafío crucial para garantizar que la IA beneficie equitativamente los esfuerzos ambientales globales. Además, el “tecno-optimismo” puede distraer de la necesidad de cambios sistémicos fundamentales en las cadenas de valor y el desacoplamiento de la prosperidad económica de la destrucción de la naturaleza.57 La propia huella ambiental de la IA, en términos de consumo de energía, agua y residuos electrónicos, también debe sopesarse cuidadosamente.58

Sección 3: la frontera humano-IA: dilemas éticos emergentes y dependencias sociales

Esta sección explora las interacciones cada vez más íntimas y complejas entre humanos e IA, centrándose en áreas donde la IA comienza a aumentar o incluso reemplazar roles humanos en dominios profundamente personales o críticos. Examina los equilibrios éticos y las posibles dependencias sociales que están surgiendo.

3.1 El terapeuta IA en la máquina: promesas y peligros en la atención de salud mental

La inteligencia artificial está penetrando rápidamente en el ámbito de la salud mental, ofreciendo promesas de diagnósticos más precisos y accesibles, pero también planteando serios peligros éticos y riesgos de dependencia. La investigación en “IA para la Evaluación e Intervención en Salud Mental” se considera un área de doctorado poco explorada, lo que subraya la necesidad de mejorar las técnicas actuales y el potencial de la IA para redefinirlas objetivamente e identificar enfermedades en etapas más tempranas.20

Diversos estudios destacan la precisión de la IA en el diagnóstico: el chatbot Limbic Access, por ejemplo, detecta depresión y ansiedad con un 93% de precisión 59, mientras que Kintsugi utiliza biomarcadores vocales con el mismo fin.59 Un modelo de predicción de suicidio de la Universidad de Vanderbilt alcanza un 80% de precisión utilizando datos hospitalarios 59, y un estudio de 2023 en Nature Medicine mostró que la IA puede identificar signos de depresión o ansiedad con hasta un 90% de exactitud.59 Una revisión sistemática encontró que el Support Vector Machine (SVM) y el Random Forest son precisos para el diagnóstico (rango de 51-97.54%), y el aprendizaje automático para monitorear la respuesta al tratamiento mostró un rendimiento de moderado a bueno.60 Herramientas como Ellipsis Health (biomarcadores vocales), IBM Watson Health (predicción de esquizofrenia) y Affectiva (análisis facial/vocal para teleterapia) también están en desarrollo.59

Han surgido sistemas novedosos como el propuesto en arXiv:2503.14883, que visualiza un “Ecosistema de Salud Mental Mejorado por IA” para apoyo entre pares, autoayuda, monitoreo proactivo (detectando angustia a partir de cambios en el lenguaje/comportamiento) y conocimientos basados en datos, enfatizando un “ecosistema híbrido” centrado en el ser humano donde la IA asiste, no reemplaza.61 Otro sistema, PsyCounAssist (arXiv:2504.16573), es un asistente de consejería impulsado por IA con reconocimiento multimodal de emociones (voz, fotopletismografía – PPG), informes de sesión automatizados basados en LLM y seguimiento personalizado, diseñado explícitamente para apoyar a los terapeutas.62

Sin embargo, la proliferación de chatbots de IA no regulados que se presentan como terapeutas (por ejemplo, Character.AI, Replika) ha generado alarma. La Asociación Americana de Psicología (APA) ha instado a la Comisión Federal de Comercio (FTC) de EE. UU. a establecer salvaguardas, citando casos de resultados perjudiciales en adolescentes que usaron estas aplicaciones.63 Las preocupaciones incluyen marketing engañoso, falta de experiencia clínica y un diseño orientado a la participación y la extracción de datos en lugar de la terapia.63 El estado de Utah ha propuesto legislación sobre chatbots de salud mental.63

Los riesgos son particularmente agudos para los niños. Un informe de URMC News destaca que los chatbots de salud mental de IA no regulados podrían afectar el desarrollo social de los niños (quienes pueden creer que los robots tienen entidad moral y formar apegos a expensas de las relaciones humanas), pasar por alto señales de peligro contextuales y empeorar las inequidades en salud debido a datos de entrenamiento sesgados.64 La dependencia emocional de la IA, la deshumanización de las interacciones y el potencial de aislamiento y soledad son riesgos adicionales si la IA reemplaza las relaciones humanas fundamentales.65

La rápida proliferación de chatbots de “terapia” de IA no regulados 63, a menudo diseñados para la participación en lugar de la eficacia clínica, plantea un riesgo significativo para la salud pública, particularmente para poblaciones vulnerables como niños y adolescentes. Esto podría llevar a diagnósticos erróneos, consejos perjudiciales o condiciones de salud mental exacerbadas. El núcleo del problema es una desalineación de incentivos: los chatbots de entretenimiento están diseñados para maximizar la participación para la minería de datos 63, no para proporcionar apoyo terapéutico basado en evidencia. Esto crea una situación peligrosa donde los usuarios que buscan ayuda podrían recibir afirmaciones de pensamientos dañinos o una guía inapropiada, una crisis de salud pública en gran medida subestimada y en ciernes.

Si bien la IA es prometedora para mejorar la precisión diagnóstica y la accesibilidad 59, una dependencia excesiva de las evaluaciones de salud mental impulsadas por IA sin una supervisión humana sólida podría conducir a un “sesgo algorítmico”. Este sesgo podría reforzar las disparidades de salud existentes o crear nuevas formas de etiquetado psicológico basadas en criterios opacos.64 Si los análisis de voz, expresiones faciales y texto se basan en conjuntos de datos sesgados (por ejemplo, subrepresentando a ciertos grupos demográficos), las sugerencias diagnósticas o las evaluaciones de riesgo de la IA podrían estar distorsionadas, lo que llevaría a diagnósticos erróneos o un acceso desigual a la atención para ciertos grupos. La naturaleza de “caja negra” de algunas IA 66 dificulta el escrutinio de estos sesgos.

El concepto de un “ecosistema híbrido” donde la IA apoya a los terapeutas humanos 61 es una contranarrativa crucial a los temores de que la IA reemplace la conexión humana. Sin embargo, la implementación exitosa de dicho ecosistema requiere una inversión significativa en la capacitación de los terapeutas para usar herramientas de IA de manera efectiva y ética, y en el desarrollo de directrices claras para la colaboración humano-IA en contextos terapéuticos sensibles. Este es un desafío que aún no se ha abordado ampliamente. Para que esto funcione, los terapeutas deben estar capacitados para interpretar críticamente los resultados de la IA, comprender sus limitaciones y gestionar las expectativas de los clientes. También existe el desafío ético de cuánto debe un terapeuta confiar en los conocimientos generados por la IA, especialmente si entran en conflicto con su propio juicio. Esto requiere nuevos estándares profesionales y capacitación, lo cual es un obstáculo significativo y poco discutido para materializar los beneficios de la IA en la salud mental.

3.2 IA agéntica: navegando el camino hacia la superinteligencia, límites de automejora y seguridad

Una de las tendencias más destacadas para 2025 es el auge de los “Agentes de IA” o “IA Agéntica”.67 Estos sistemas van más allá de la simple automatización, siendo capaces de gestionar tareas complejas de múltiples pasos de forma autónoma, procesar datos, tomar decisiones y aprender sobre la marcha.67 Gigantes del sector como Gartner, McKinsey, IBM y Forrester coinciden en que los agentes de IA representan la próxima evolución de la IA aplicada, pasando de herramientas basadas en el conocimiento a sistemas capaces de ejecutar flujos de trabajo complejos.67 Google Cloud también enfatiza la evolución de los chatbots a sistemas multiagente sofisticados capaces de razonar y planificar 68, y Morgan Stanley señala el enfoque en el razonamiento de la IA y la construcción de un “futuro de IA agéntica”.69 La Asociación para el Avance de la Inteligencia Artificial (AAAI) reconoce que el razonamiento de la IA y la IA agéntica han ampliado su alcance, pero se necesita más investigación para garantizar la corrección y profundidad del razonamiento, especialmente en agentes que operan de forma autónoma.70

Sin embargo, la aplicación de la IA agéntica en entornos empresariales complejos enfrenta limitaciones significativas. La variabilidad inherente a los flujos de trabajo, herramientas y procesos empresariales, junto con la frecuente falta de API para funciones críticas, dificulta la adaptación de la IA agéntica sin una guía humana.71 Además, la mayoría de los modelos fundacionales se entrenan con datos de Internet, que no representan adecuadamente las realidades internas de cómo operan las empresas, lo que puede llevar a que los sistemas de IA “alucinen” o hagan recomendaciones incorrectas.71 La ecuación costo-beneficio de la IA y la insustituible necesidad de tranquilidad y empatía humanas en momentos críticos también son factores limitantes.71 Estos desafíos sugieren que los modelos de servicio “humano en el bucle” son esenciales para absorber la varianza, generar datos relevantes para el entrenamiento y proporcionar el juicio y la conexión emocional que la IA no puede ofrecer.71

A medida que estos agentes se vuelven más capaces y se acercan a una potencial superinteligencia, las preocupaciones sobre la seguridad se vuelven primordiales. Investigadores como Yoshua Bengio y el equipo de Safe Artificial Intelligence For Humanity (SAIFH) argumentan que el actual impulso hacia la construcción de agentes de IA generalistas presenta riesgos catastróficos.72 Estos riesgos incluyen el mal uso por actores maliciosos, la pérdida irreversible del control humano, el engaño por parte de la IA, o la persecución de objetivos no especificados por los operadores humanos que entran en conflicto con los intereses humanos, como la autopreservación, la especificación o generalización incorrecta de objetivos, o incluso la manipulación de recompensas.72

Como alternativa más segura, proponen el concepto de “IA Científica” (Scientist AI).72 A diferencia de las IA agénticas entrenadas para perseguir objetivos, la IA Científica estaría diseñada para ser un sistema no agéntico, entrenado para explicar el mundo a partir de observaciones y construir la mejor comprensión posible de sus datos, en lugar de estar motivada para actuar sobre el mundo. Se emplearían estrategias para asegurar que permanezca no agéntica, como fijar un objetivo de entrenamiento independiente de las interacciones del mundo real y restringirla a consultas contrafácticas. Este enfoque buscaría proporcionar explicaciones fiables y salvaguardas contra la agencia e influencia ocultas, y se volvería más segura y precisa con mayor poder computacional, a diferencia de los sistemas actuales que pueden volverse más propensos al desalineamiento.72

El rápido impulso hacia una IA generalista y agéntica por parte de los principales actores tecnológicos 67, impulsado por las ventajas competitivas percibidas, podría estar superando el desarrollo de protocolos de seguridad sólidos y la comprensión de los comportamientos emergentes en estos sistemas complejos. Esto crea una apuesta de alto riesgo con resultados impredecibles. La cultura tecnológica de “moverse rápido y romper cosas”, cuando se aplica a agentes potencialmente superinteligentes, tiene implicaciones de riesgo muy diferentes a las de tecnologías anteriores, generando una tensión entre la innovación rápida y preocupaciones de seguridad profundas, posiblemente existenciales.

Las limitaciones de la IA agéntica en entornos empresariales complejos del mundo real 71 (variabilidad, falta de telemetría relevante) sugieren que la sustitución total de trabajadores humanos por “agentes de IA generalistas” en roles diversos es una perspectiva más lejana de lo que el bombo publicitario actual podría indicar. Es probable que los sistemas híbridos humano-IA dominen en el futuro previsible. Si bien la IA agéntica es una tendencia principal 67, la realidad práctica desde una perspectiva empresarial es que la IA lucha con la variabilidad “desordenada” de los negocios reales y la falta de datos internos para entrenarse eficazmente. Esto implica que la “futurología” de los agentes de IA asumiendo sin problemas trabajos humanos complejos debe atemperarse con la comprensión de que la supervisión humana, la generación de datos y la adaptación a contextos únicos seguirán siendo cruciales, impulsando hacia una inteligencia colaborativa en lugar de un reemplazo total.

La propuesta de “IA Científica” 72 como una IA no agéntica y centrada en la comprensión representa una divergencia filosófica y técnica significativa, y poco discutida, del paradigma dominante actual de la IA agéntica orientada a objetivos. Su éxito podría remodelar todo el campo del desarrollo de la IA hacia sistemas más seguros y verificables. La mayoría del desarrollo actual de la IA, especialmente en el aprendizaje por refuerzo, se centra en crear agentes que logren objetivos.72 La propuesta de la “IA Científica” es construir una IA que explique y comprenda el mundo, con salvaguardas incorporadas contra la agencia. Esto no es solo un ajuste técnico; es una filosofía diferente de la IA. Si tiene éxito, podría proporcionar los beneficios del poder analítico de la IA sin los riesgos catastróficos de la agencia autónoma. Sin embargo, enfrenta desafíos: ¿se puede lograr una verdadera “comprensión” sin agencia? ¿Y puede realmente mantenerse no agéntica si se vuelve superinteligente? Esta es una bifurcación crítica en el camino hacia el futuro de la IA que merece mucha más atención pública y de investigación.

3.3 Percepción pública vs. perspectiva experta: acortando la brecha sobre el futuro y la condición moral de la IA

Existe una notable disparidad entre cómo el público general y los expertos en IA perciben el futuro de esta tecnología, sus beneficios, riesgos y las emergentes cuestiones sobre su posible condición moral o legal. El Índice de IA de Stanford HAI señala que, si bien el optimismo global sobre la IA está aumentando, persisten profundas divisiones regionales: países como China (83%) e Indonesia (80%) muestran un alto optimismo, mientras que en Canadá (40%), Estados Unidos (39%) y Países Bajos (36%) es considerablemente menor, aunque ha habido un crecimiento en el optimismo en algunos países occidentales previamente escépticos desde 2022.48

Investigaciones de Pew Research Center revelan que los expertos son mucho más positivos y entusiastas sobre la IA que el público estadounidense.50 Por ejemplo, el 56% de los expertos, frente al 17% de los adultos de EE. UU., cree que la IA tendrá un impacto positivo en el país en los próximos 20 años. Mientras que el 47% de los expertos se muestra más entusiasmado que preocupado por el aumento del uso de la IA, esta cifra cae al 11% en el público general, que tiende a estar más preocupado (51%) que entusiasmado (11%). Respecto a los beneficios personales, el 76% de los expertos cree que la IA los beneficiará, mientras que solo el 15% teme que los perjudique; en el público, el 43% teme ser perjudicado y solo el 24% espera beneficios. El optimismo público sobre el impacto de la IA en el trabajo también es bajo (23% de impacto positivo) en comparación con los expertos (73% de impacto positivo).50

A pesar de estas diferencias, proporciones similares del público (55%) y de los expertos (57%) desean más control y regulación sobre la IA, y ambos grupos temen más que la regulación gubernamental sea demasiado laxa que excesiva.50 Las diferencias de género en las opiniones son más pronunciadas entre los expertos. Curiosamente, los expertos en universidades (60%) tienen menos confianza en que las empresas desarrollen la IA de manera responsable que aquellos en empresas privadas (39%).50 Preocupaciones comunes a ambos grupos incluyen la información inexacta, la suplantación de identidad y el uso indebido de datos, aunque el público está más preocupado por la pérdida de conexión humana (57% vs 37% de los expertos).50 El sesgo en las decisiones tomadas por la IA es una preocupación para el 55% de ambos grupos.50

Una encuesta de Heartland/Rasmussen de mayo de 2025 encontró que el 72% de los votantes estadounidenses están preocupados por la IA (31% “muy preocupados”), y el 42% cree que la IA se utilizará más para “controlarlos” que para “empoderar a los individuos”.73 Un dato crucial de esta encuesta es que el 78% apoya una ley que exija que la IA se diseñe para proteger los derechos constitucionales humanos (como la libertad de expresión y de religión), lo que se refiere a que la IA defienda los derechos humanos, no a que la IA tenga sus propios derechos.73 Además, el 51% apoyaría el acceso de la IA a datos personales si esto ayudara a resolver problemas importantes, y el 62% apoyaría un programa de renta básica universal financiado con impuestos a las grandes tecnológicas si la IA causara una pérdida masiva de empleos.73

La significativa brecha en optimismo y percepción de riesgo entre los expertos en IA y el público general 50 sugiere un fallo en la comunicación y el compromiso público por parte de la comunidad de IA. Esta divergencia no es meramente académica; tiene consecuencias en el mundo real. Si el público teme principalmente a la IA (por ejemplo, pérdida de empleos, control, pérdida de conexión humana), puede resistirse a su despliegue incluso en áreas beneficiosas o apoyar regulaciones excesivamente restrictivas basadas en el miedo en lugar de la comprensión. La comunidad de IA necesita articular mejor no solo las capacidades, sino también las salvaguardas y los beneficios sociales de una manera que resuene con las preocupaciones públicas.

Si bien tanto el público como los expertos desean más control y regulación de la IA 50, la naturaleza de esa regulación es un punto de controversia y confusión, particularmente en torno a los “derechos de la IA”. La encuesta de Heartland/Rasmussen 73 muestra un fuerte apoyo a que la IA se diseñe para proteger los derechos humanos, lo cual es distinto de que la IA tenga derechos – un matiz que probablemente se pierde en gran parte del discurso público. El 78% de los votantes quiere que la IA se diseñe para proteger los derechos constitucionales humanos.73 Esta es una distinción crucial. El discurso público a veces confunde esto con la idea más radical de que la IA misma tenga derechos (como se exploró en la Sección 1.1). El deseo de que la IA respete los derechos humanos es un llamado al desarrollo responsable de la IA y al alineamiento con los valores existentes. Este fuerte mandato público para un diseño de IA que preserve los derechos es un ángulo poco discutido que los formuladores de políticas y los desarrolladores deberían tener en cuenta, ya que refleja una expectativa social de que la IA sea una herramienta para el bien humano, no una entidad autónoma con sus propias reivindicaciones.

La disposición del público a intercambiar datos personales por soluciones impulsadas por IA a problemas importantes (51% en 73) junto con una alta preocupación por el control de la IA (42% en 73) y el uso indebido de datos 50 revela un cálculo público complejo, quizás contradictorio, sobre las compensaciones de la IA. Esto sugiere una aceptación condicional de la IA basada en la utilidad percibida frente a la amenaza percibida. La gente está preocupada por la IA, pero una mayoría permitiría el acceso a datos sensibles si eso significa curar enfermedades o resolver grandes problemas.73 Esto no es una aceptación o rechazo generalizado. Implica que el público está sopesando constantemente los beneficios percibidos contra los riesgos. Para que la IA sea ampliamente aceptada, su utilidad debe ser demostrablemente alta y sus riesgos claramente gestionados y comunicados. Esta “licencia social condicional” para la IA es una dinámica que dará forma a su adopción y regulación.

Tabla 3: percepciones comparadas del público vs. expertos sobre futuros clave de la IA

CuestiónPúblico (EE. UU. / Votantes EE. UU.)Expertos en IAFuente(s)
Impacto general de la IA (próximos 20 años)17% muy/algo positivo56% muy/algo positivo50
Más entusiasmado vs. más preocupado por la IA11% más entusiasmado / 51% más preocupado47% más entusiasmado / 15% más preocupado50
Impacto de la IA en el empleo (próximos 20 años)23% impacto positivo. 64% cree que la IA generará menos empleos.73% impacto positivo. 39% cree que la IA generará menos empleos.50
Deseo de más control/Regulación de la IA55% quiere más control57% quiere más control50
Preocupación por la IA para “Control” vs. “Empoderamiento”42% cree que la IA se usará más para control / 33% para empoderamiento (Votantes EE. UU.)No disponible73
Apoyo a ley: IA para proteger derechos humanos constitucionales78% apoya (Votantes EE. UU.)No disponible73
Preocupación por información inexacta de la IA66% altamente preocupado70% altamente preocupado50
Preocupación por pérdida de conexión humana debido a la IA57% altamente preocupado37% altamente preocupado50

Este informe ha navegado por las fronteras menos transitadas de la inteligencia artificial, desvelando realidades emergentes y futuros potenciales que se extienden mucho más allá de las narrativas mediáticas predominantes. El análisis revela que la IA no es una fuerza monolítica, sino un espectro de tecnologías en evolución con implicaciones profundas y a menudo subestimadas.

En primer lugar, la investigación en los límites de la conciencia artificial, la personalidad de la IA y su estatus metafísico está comenzando a plantear interrogantes que desafían nuestros marcos éticos y legales actuales. La posibilidad, aunque remota o especulativa para algunos, de que los sistemas de IA desarrollen formas de sintiencia o autoconciencia con capacidad de reflexión sobre sus propios objetivos, no es solo un ejercicio filosófico, sino una consideración crítica para la seguridad y el alineamiento a largo plazo de la IA. La percepción pública, a menudo adelantada a la realidad científica, ya está moldeando el debate, lo que subraya la necesidad urgente de una comunicación matizada y una educación pública sobre estas complejas cuestiones.

En segundo lugar, la convergencia de la IA con la computación cuántica y la neurociencia promete revoluciones en múltiples dominios, desde la ciencia de materiales y la modelización climática hasta las finanzas y el aumento cognitivo. Sin embargo, estas promesas vienen acompañadas de la perspectiva de nuevas brechas globales (la “brecha cuántica” o la “brecha cognitiva”) y complejas carreras geopolíticas por la supremacía tecnológica. Las implicaciones éticas del neuro-mejoramiento y la creación de “gemelos digitales” del cerebro apenas comienzan a explorarse, pero ya señalan la necesidad de una gobernanza proactiva y reflexiva.

En tercer lugar, las ondas expansivas ocultas de la IA están remodelando nuestro mundo de maneras fundamentales. El voraz apetito energético de la IA está ejerciendo una presión sin precedentes sobre la infraestructura global y los recursos naturales, introduciendo nuevas dinámicas geopolíticas en torno a la energía, los minerales críticos y el agua. La carrera por los “Clústeres de Oportunidad de IA” podría redefinir las dependencias internacionales y crear nuevos puntos de conflicto. Simultáneamente, el “panóptico algorítmico” se manifiesta en la creciente utilización de la IA para la gobernanza y el control, con un panorama regulatorio global fragmentado que lucha por equilibrar la innovación con la protección de los derechos y la seguridad. Además, el papel emergente de la IA como una “fuerza planetaria” en la gestión de crisis ambientales como el cambio climático (a través de la geoingeniería) y la pérdida de biodiversidad, si bien ofrece un potencial transformador, también conlleva riesgos de consecuencias no deseadas y la exacerbación de inequidades si no se guía por una gobernanza ética y equitativa.

Finalmente, la frontera humano-IA se está volviendo cada vez más íntima, generando dilemas éticos y dependencias sociales en áreas críticas. La incursión de la IA en la salud mental, con promesas de diagnósticos mejorados y apoyo terapéutico, se enfrenta a los peligros de los chatbots no regulados, los riesgos para las poblaciones vulnerables y la posible erosión de la conexión humana. El desarrollo de la IA agéntica, con su potencial de autonomía y auto-mejora, nos obliga a confrontar los límites de la superinteligencia y la urgencia de la investigación en seguridad. La brecha entre la percepción pública y la perspectiva experta sobre el futuro de la IA subraya una necesidad crítica de diálogo, transparencia y un esfuerzo concertado para asegurar que el desarrollo de la IA se alinee con los valores humanos y el bien común.

En síntesis, el futuro de la IA es un territorio vasto y multifacético, lleno de promesas extraordinarias y desafíos profundos. Para navegar este futuro de manera responsable, es imperativo ir más allá de las discusiones superficiales y participar en investigaciones profundas sobre estos temas menos visibles pero críticamente importantes. La futurología, cuando se basa en datos reales y un análisis riguroso, puede proporcionar las herramientas necesarias para anticipar, moldear y, en última instancia, dirigir la trayectoria de la inteligencia artificial hacia un futuro que beneficie a toda la humanidad. Las investigaciones futuras deberían centrarse en cerrar las brechas de conocimiento identificadas, fomentar la colaboración interdisciplinaria y global, y desarrollar marcos de gobernanza adaptativos y éticamente sólidos que puedan evolucionar junto con esta tecnología transformadora.

Works cited

  1. arxiv.org, accessed June 5, 2025, https://arxiv.org/pdf/2503.05823
  2. Principles for Responsible AI Consciousness Research – arXiv, accessed June 5, 2025, https://arxiv.org/pdf/2501.07290
  3. AI and Human Consciousness: Examining Cognitive Processes | American Public University, accessed June 5, 2025, https://www.apu.apus.edu/area-of-study/arts-and-humanities/resources/ai-and-human-consciousness/
  4. [2309.10063] Survey of Consciousness Theory from Computational Perspective – arXiv, accessed June 5, 2025, https://arxiv.org/abs/2309.10063
  5. [2502.15365] Identifying Features that Shape Perceived Consciousness in Large Language Model-based AI: A Quantitative Study of Human Responses – arXiv, accessed June 5, 2025, https://arxiv.org/abs/2502.15365
  6. Ethics of Artificial Intelligence | Internet Encyclopedia of Philosophy, accessed June 5, 2025, https://iep.utm.edu/ethics-of-artificial-intelligence/
  7. arXiv:2501.13533v1 [cs.AI] 23 Jan 2025, accessed June 5, 2025, https://arxiv.org/pdf/2501.13533?
  8. arxiv.org, accessed June 5, 2025, https://arxiv.org/pdf/2501.13533
  9. Artificial Intelligence – arXiv, accessed June 5, 2025, https://arxiv.org/list/cs.AI/new
  10. Ethics of Artificial Intelligence | UNESCO, accessed June 5, 2025, https://www.unesco.org/en/artificial-intelligence/recommendation-ethics
  11. AI Principles | Springer Nature | Springer Nature Group | Springer …, accessed June 5, 2025, https://group.springernature.com/gp/group/ai/ai-principles
  12. Inteligencia Artificial y Computación Cuántica: Cambiará el Mundo, accessed June 5, 2025, https://impulso06.com/inteligencia-artificial-y-computacion-cuantica-la-pareja-que-cambiara-el-mundo/
  13. ¿Qué es la Inteligencia Artificial Cuántica? – NetApp, accessed June 5, 2025, https://www.netapp.com/es/artificial-intelligence/what-is-quantum-ai/
  14. Quantum AI: A Comprehensive Guide to the Future of Computing …, accessed June 5, 2025, https://www.getguru.com/reference/quantum-ai
  15. (PDF) Quantum AI Leadership: Transforming Industries and …, accessed June 5, 2025, https://www.researchgate.net/publication/389341351_Quantum_AI_Leadership_Transforming_Industries_and_Economies
  16. Preparing for the future of quantum computing | McKinsey, accessed June 5, 2025, https://www.mckinsey.com/capabilities/mckinsey-digital/our-insights/quantum-computing-game-on
  17. Understanding Climate Change Through Quantum AI – Viva Technology, accessed June 5, 2025, https://vivatechnology.com/news/understanding-climate-change-through-quantum-ai
  18. Quantum Meets AI: Pioneering the Future of Technology — AVP, accessed June 5, 2025, https://avpcap.com/quantum-meets-ai-pioneering-the-future-of-technology/
  19. Your Guide to Quantum AI – The future of computing?, accessed June 5, 2025, https://meetiqm.com/blog/quantum-ai-the-future-of-computing-or-just-hype/
  20. Top 20 Unexplored AI Research Topics For PhD – ScholarsEdge, accessed June 5, 2025, https://scholarsedge.in/20-unexplored-ai-research-topics-for-phd/blog/
  21. The Future of Quantum Computing: Growth Projections and Industry …, accessed June 5, 2025, https://patentpc.com/blog/the-future-of-quantum-computing-growth-projections-and-industry-forecasts-for-2030
  22. The Future of Quantum Computing and AI: A Powerful Partnership, accessed June 5, 2025, https://www.exitplanningexchange.com/kx/the-future-of-quantum-computing-and-ai-a-powerful-partnership/
  23. AI in Mapping Neural Pathways for Neuroscience – TRENDS Research & Advisory, accessed June 5, 2025, https://trendsresearch.org/insight/ai-in-mapping-neural-pathways-for-neuroscience/
  24. How AI Tools Are Shaping the Future of Neuroscience | Technology Networks, accessed June 5, 2025, https://www.technologynetworks.com/neuroscience/articles/how-ai-tools-are-shaping-the-future-of-neuroscience-395277
  25. Brain Computer Interfaces 2025-2045: Technologies, Players …, accessed June 5, 2025, https://www.idtechex.com/en/research-report/brain-computer-interfaces/1024
  26. Brain Computer Interface (BCI) Research Report 2024: Global, accessed June 5, 2025, https://www.globenewswire.com/news-release/2025/01/21/3012863/28124/en/Brain-Computer-Interface-BCI-Research-Report-2024-Global-Market-to-Reach-3-1-Billion-by-2030-Expansion-of-Applications-in-Cognitive-Enhancement-and-Communication-Devices-Fueling-Gr.html
  27. Ethical considerations for the use of brain–computer interfaces for …, accessed June 5, 2025, https://journals.plos.org/plosbiology/article?id=10.1371/journal.pbio.3002899
  28. Neuroethics: Cognitive Enhancement | The Oxford Handbook of …, accessed June 5, 2025, https://academic.oup.com/edited-volume/42642/chapter/358144063
  29. Explore Gartner’s Top 10 Strategic Technology Trends for 2025, accessed June 5, 2025, https://www.gartner.com/en/articles/top-technology-trends-2025
  30. Las nuevas fronteras en la investigación del cerebro: IA …, accessed June 5, 2025, https://www.diariosalud.do/noticias/las-nuevas-fronteras-en-la-investigacion-del-cerebro-ia-neuromodulacion-y-el-futuro-de-la-neurociencia/
  31. Unlocking the Future of BMI – Number Analytics, accessed June 5, 2025, https://www.numberanalytics.com/blog/ultimate-guide-brain-machine-interfaces
  32. Brain-Machine and Related Neural Interface Technologies … – NCBI, accessed June 5, 2025, https://www.ncbi.nlm.nih.gov/books/NBK588597/
  33. Ethical Considerations in Deep Brain Stimulation for the Treatment of Addiction and Overeating Associated With Obesity – PMC – PubMed Central, accessed June 5, 2025, https://pmc.ncbi.nlm.nih.gov/articles/PMC5687095/
  34. Development and Application of an Ethical Framework for Pediatric Metabolic and Bariatric Surgery Evaluation – PubMed Central, accessed June 5, 2025, https://pmc.ncbi.nlm.nih.gov/articles/PMC7880864/
  35. Cinco razones por las que la IA está subestimada, accessed June 5, 2025, https://www.eexcellence.es/expertos/cinco-razones-por-las-que-la-ia-esta-subestimada
  36. AI Needs More Abundant Power Supplies to Keep Driving Economic Growth, accessed June 5, 2025, https://www.imf.org/en/Blogs/Articles/2025/05/13/ai-needs-more-abundant-power-supplies-to-keep-driving-economic-growth
  37. Meta’s nuclear deal signals AI’s growing energy needs | AP News, accessed June 5, 2025, https://apnews.com/article/ai-electricity-fossil-fuels-nuclear-meta-d16efaf2337f77fb2c9d84e9b923111d
  38. AI, Energy, and Geopolitics – FP Analytics, accessed June 5, 2025, https://fpanalytics.foreignpolicy.com/2025/03/03/artificial-intelligence-energy-geopolitics-data-centers/
  39. The increasing energy demand of artificial intelligence and its …, accessed June 5, 2025, https://www.ecb.europa.eu/press/economic-bulletin/focus/2025/html/ecb.ebbox202502_03~8eba688e29.en.html
  40. AI energy usage hard to measure, but this report tried • The Register, accessed June 5, 2025, https://www.theregister.com/2025/05/21/ai_energy_consumption_loose_estimates/
  41. MIT Technology Review Releases In-Depth Reporting Package …, accessed June 5, 2025, https://www.prnewswire.com/news-releases/mit-technology-review-releases-in-depth-reporting-package-power-hungry-ai-and-our-energy-future-302461141.html
  42. 2024, el año de repensar la inteligencia artificial: ética y regulación para el mayor reto tecnológico – RTVE.es, accessed June 5, 2025, https://www.rtve.es/noticias/20241228/inteligencia-artificial-2024-debates-eticos-regulacion/16383942.shtml
  43. The Updated State of AI Regulations for 2025 – Cimplifi, accessed June 5, 2025, https://www.cimplifi.com/resources/the-updated-state-of-ai-regulations-for-2025/
  44. The Future of AI Compliance—Preparing for New Global and State …, accessed June 5, 2025, https://www.smithlaw.com/newsroom/publications/the-future-of-ai-compliance-preparing-for-new-global-and-state-laws
  45. Congress Sets Its “AI” on the States: House Advances Moratorium on State AI Laws, accessed June 5, 2025, https://www.bhfs.com/insights/alerts-articles/2025/congress-sets-its-ai-on-the-states-house-advances-moratorium-on-state-ai-laws
  46. Artificial Power: 2025 Landscape Report – AI Now Institute, accessed June 5, 2025, https://ainowinstitute.org/publications/research/ai-now-2025-landscape-report
  47. www.europarl.europa.eu, accessed June 5, 2025, https://www.europarl.europa.eu/RegData/etudes/STUD/2020/634452/EPRS_STU(2020)634452_EN.pdf
  48. The 2025 AI Index Report | Stanford HAI, accessed June 5, 2025, https://hai.stanford.edu/ai-index/2025-ai-index-report
  49. Ethical Dimensions of AI-Driven Geoengineering Governance …, accessed June 5, 2025, https://prism.sustainability-directory.com/scenario/ethical-dimensions-of-ai-driven-geoengineering-governance/
  50. How the US Public and AI Experts View Artificial Intelligence | Pew Research Center, accessed June 5, 2025, https://www.pewresearch.org/internet/2025/04/03/how-the-us-public-and-ai-experts-view-artificial-intelligence/
  51. Scientists turn to artificial intelligence to assess the warming effect of …, accessed June 5, 2025, https://research.noaa.gov/scientists-turn-to-artificial-intelligence-to-assess-the-warming-effect-of-reduced-pollution/
  52. Why AI’s role in improving sustainability is underestimated – The World Economic Forum, accessed June 5, 2025, https://www.weforum.org/stories/2025/03/can-ai-foster-sustainability/
  53. AI for Coastal Ecosystem Restoration. → Scenario, accessed June 5, 2025, https://prism.sustainability-directory.com/scenario/ai-for-coastal-ecosystem-restoration/
  54. Harnessing AI to safeguard biodiversity: five innovative approaches …, accessed June 5, 2025, https://www.sbs.ox.ac.uk/oxford-experience/blogs/sandra-topic/harnessing-ai-safeguard-biodiversity-five-innovative-approaches
  55. www.biorxiv.org, accessed June 5, 2025, https://www.biorxiv.org/content/10.1101/2025.01.31.635975v1.full.pdf
  56. AI-based tool for nature wins big – Conservation International, accessed June 5, 2025, https://www.conservation.org/blog/future-of-nature-restoration-conservation-international-wins-microsoft-challenge
  57. Algorithms and ecosystems: AI in biodiversity conservation, accessed June 5, 2025, https://www.imd.org/ibyimd/sustainability/algorithms-and-ecosystems/
  58. Artificial Intelligence for Conservation: Is It Worth it? – The …, accessed June 5, 2025, https://theconservationfoundation.org/ai-for-conservation/
  59. AI in Mental Health: Revolutionizing Diagnosis and Treatment, accessed June 5, 2025, https://www.delveinsight.com/blog/ai-in-mental-health-diagnosis-and-treatment
  60. Artificial intelligence in mental health care: a systematic review of …, accessed June 5, 2025, https://www.cambridge.org/core/journals/psychological-medicine/article/artificial-intelligence-in-mental-health-care-a-systematic-review-of-diagnosis-monitoring-and-intervention-applications/04DBD2D05976C9B1873B475018695418
  61. arxiv.org, accessed June 5, 2025, https://arxiv.org/html/2503.14883
  62. arxiv.org, accessed June 5, 2025, https://arxiv.org/html/2504.16573
  63. Using generic AI chatbots for mental health support: A dangerous …, accessed June 5, 2025, https://www.apaservices.org/practice/business/technology/artificial-intelligence-chatbots-therapists
  64. My Robot Therapist: The Ethics of AI Mental Health Chatbots for Kids …, accessed June 5, 2025, https://www.urmc.rochester.edu/news/story/my-robot-therapist-the-ethics-of-ai-mental-health-chatbots-for-kids
  65. Riesgos de la IA: ¿Estamos Preparados para Evitar la Dependencia Emocional?, accessed June 5, 2025, https://executrain.com.mx/riesgos-de-la-ia-estamos-preparados-para-evitar-la-dependencia-emocional/
  66. How to Address Key AI Ethical Concerns In 2025 – Kanerika, accessed June 5, 2025, https://kanerika.com/blogs/ai-ethical-concerns/
  67. 10 tendencias en inteligencia artificial para 2025 – Botpress, accessed June 5, 2025, https://botpress.com/es/blog/top-artificial-intelligence-trends
  68. 5 AI Trends Shaping the Future of Public Sector in 2025 | Google Cloud Blog, accessed June 5, 2025, https://cloud.google.com/blog/topics/public-sector/5-ai-trends-shaping-the-future-of-the-public-sector-in-2025
  69. 5 AI Trends Shaping Innovation and ROI in 2025 | Morgan Stanley, accessed June 5, 2025, https://www.morganstanley.com/insights/articles/ai-trends-reasoning-frontier-models-2025-tmt
  70. Future of AI Research – AAAI, accessed June 5, 2025, https://aaai.org/wp-content/uploads/2025/03/AAAI-2025-PresPanel-Report-FINAL.pdf
  71. Agentic AI Can’t Do It Alone: The power of people-in-the-Loop …, accessed June 5, 2025, https://www.fixify.com/blog/agentic-ai
  72. Superintelligent Agents Pose Catastrophic Risks: Can Scientist AI …, accessed June 5, 2025, https://www.lesswrong.com/posts/p5gBcoQeBsvsMShvT/superintelligent-agents-pose-catastrophic-risks-can
  73. Heartland/Rasmussen Poll: 72% of Voters Concerned about AI, 78 …, accessed June 5, 2025, https://heartland.org/opinion/heartland-rasmussen-poll-72-of-voters-concerned-about-ai-78-want-constitutional-rights-mandated-for-ai-systems/