Elisandro Santos

La irrupción de la inteligencia artificial (IA) en la vida cotidiana de niños y jóvenes despierta en mí una profunda preocupación. Como sociedad, estamos frente a una tecnología que promete beneficios increíbles, pero que también plantea interrogantes serios sobre el desarrollo de las nuevas generaciones. No podemos encarar este fenómeno desde un solo ángulo; el impacto de la IA en la infancia y la adolescencia debe analizarse desde todas las perspectivas: sociológica, psicológica, neurológica, educativa y ética. A continuación, propongo una mirada integral –y profundamente preocupada– sobre cómo la IA está afectando a nuestros chicos, apoyándome en ejemplos reales, voces de expertos y casos tanto de éxito como de advertencia.

Una generación rodeada de IA, entre el asombro y la inquietud

Vivimos un momento histórico donde los niños y adolescentes crecen rodeados de IA. Desde asistentes de voz en el hogar hasta algoritmos en sus aplicaciones favoritas, la IA se ha vuelto casi invisible por lo común que es. Es cierto que esta tecnología ofrece oportunidades sin precedentes –por ejemplo, personalizar la educación o incluso ayudar en diagnósticos médicos complejos–, pero también conlleva riesgos que no podemos ignorar.

Especialistas en salud mental advierten que estamos frente a “la generación joven más enferma de la historia del mundo”, en palabras del neurocientífico Daniel Amen[1]. Él y otros expertos señalan que la actual juventud ya enfrenta niveles inéditos de problemas de salud mental, en parte por el uso intensivo de dispositivos digitales, y alertan que la IA podría agravar aún más esta situación[2]. En pocas palabras, nos preocupa el costo oculto que la IA podría tener sobre la mente y el bienestar de nuestros chicos.

Por supuesto, no se trata de satanizar la tecnología. La IA también ha sido un aliado en muchos casos: pensemos en la madre desesperada que, tras consultar a 17 médicos sin obtener respuestas sobre la dolencia de su hijo, recurrió a ChatGPT y logró hallar el diagnóstico correcto de una enfermedad rara[3][4]. Este “milagro” tecnológico permitió iniciar el tratamiento adecuado y evidencia el potencial positivo de la IA en campos como la medicina. Sin embargo, incluso en estos casos de éxito, los mismos expertos piden cautela: la IA debe ser un complemento, no un reemplazo de la experiencia humana, y usarla sin controles puede conllevar errores graves[5].

En resumen, mis sentimientos son encontrados. Como padre, madre o docente (o simplemente como adulto preocupado), ¿cómo no maravillarse ante lo que la IA puede lograr, pero a la vez ¿cómo no alarmarse ante lo que puede estar haciendo silenciosamente en la formación de las próximas generaciones? Para responder, es necesario desglosar esta cuestión en sus múltiples facetas.

Impacto en el desarrollo cognitivo y neurológico: ¿estamos “dejando de pensar”?

Una de las principales inquietudes neurológicas es cómo la IA puede afectar el cerebro en desarrollo de niños y jóvenes. Estudios recientes empiezan a arrojar luz sobre este tema, y los hallazgos son preocupantes. Un experimento del MIT midió la actividad cerebral de estudiantes al escribir ensayos: algunos lo hicieron solos, otros con ayuda de Google, y otros asistidos por ChatGPT. Los resultados preliminares (aún en revisión) mostraron que quienes usaron IA tuvieron 47% menos actividad cerebral que quienes escribieron sin asistencia[6]. No solo eso: estos estudiantes asistidos por IA tuvieron peores resultados en memoria y confesaron sentir menos autoría sobre sus propios textos[7]. Dicho de otro modo, delegar parte del esfuerzo mental a una máquina parecía “apagar” ciertas áreas del cerebro involucradas en el aprendizaje.

Los expertos llaman a este fenómeno “descarga cognitiva”, y lo explican de forma muy gráfica: “Es como pasar de levantar una pesa de 10 kilos a una de uno: el músculo se atrofia”, compara el especialista Daniel Amen[8]. Si dejamos que la IA piense por nosotros, nuestro “músculo” cerebral se ejercita menos y podría debilitarse con el tiempo. Terry Sejnowski, pionero de la neurociencia computacional, coincide en este punto: el uso pasivo de la IA (por ejemplo, dejar que haga nuestras tareas sin nosotros esforzarnos) puede erosionar la memoria y la creatividad, mientras que un uso activo y crítico podría, en cambio, potenciar el aprendizaje[9]. La clave está en cómo se usa. Si la IA se emplea para “hacer el trabajo más fácil” exclusivamente, el cerebro se acostumbra a no esforzarse; pero si se usa para “interactuar y aprender”, puede ser beneficiosa[9].

El problema es que muchos chicos y jóvenes tienden más al uso cómodo que al uso crítico. La periodista Allysia Finley advertía recientemente que el uso excesivo de IA entre niños y estudiantes “podría estar afectando el desarrollo de sus habilidades cognitivas fundamentales”[10]. Se han observado estudiantes que dependen de aplicaciones para tomar notas o resolver ejercicios presentando niveles más bajos de actividad cerebral, comparados con quienes aún escriben a mano o resuelven problemas sin ayuda digital[11]. Y recordemos: el cerebro humano sigue desarrollándose hasta alrededor de los 25 años. Si durante los años formativos los jóvenes “dejan de pensar por sí mismos” porque siempre hay una IA que completa sus frases, resuelve sus cálculos o contesta sus dudas, corremos el riesgo de criar una generación muy hábil tecnológicamente pero intelectualmente débil[12].

Especialmente alarmante es la advertencia de Amen sobre los niños: “La IA es mucho más peligrosa para el cerebro en formación”[13]. Sus palabras no las dice a la ligera; él sostiene que la IA podría tener un impacto más negativo en el desarrollo cerebral de los niños que incluso las redes sociales o los smartphones[1]. Tengamos en cuenta que ya existe evidencia de los estragos que las redes sociales han causado en la salud mental juvenil –como aumentos en depresión o ansiedad–, y ahora se teme que la IA agrave esos problemas. De hecho, Amen cita datos escalofriantes: en Estados Unidos, 58% de las adolescentes se sienten persistentemente tristes, y porcentajes preocupantes han considerado o intentado el suicidio[14]. Son cifras de una crisis vigente de salud mental juvenil, previa a la explosión de la IA generativa; la pregunta es cómo esta nueva tecnología podría empeorar el panorama si no se interviene a tiempo.

La conclusión en el plano neurológico es clara: la IA puede afectar la capacidad cognitiva si la usamos para reemplazar nuestro propio esfuerzo mental. Los cerebros jóvenes necesitan desafío y ejercicio –memorizar, crear, equivocarse, razonar– para desarrollarse sanamente. Si desde la infancia acostumbramos a los chicos a que un algoritmo les dé todas las respuestas al instante, les estaremos robando oportunidades de aprendizaje profundo. Como bien resume Sejnowski, dejar que la IA haga todo es “dejar de pensar por uno mismo”, mientras que integrarla de forma participativa (por ejemplo, revisando y corrigiendo juntos un texto con IA) puede estimular la reflexión[15]. Esto nos plantea un enorme desafío educativo: enseñar a los jóvenes a usar estas herramientas sin atrofiar su mente.

Consecuencias psicológicas y emocionales: entre la compañía digital y la soledad real

Otra arista fundamental es la psicológica y emocional. Los chicos no solo usan IA para estudiar; también interactúan con ella en su ocio y vida social. Existen chatbots conversacionales y “amigos virtuales” impulsados por IA que se han vuelto populares, especialmente entre adolescentes que buscan compañía, consejo o simplemente entretenimiento. ¿Puede un adolescente entablar una “amistad” con una IA? En cierta medida sí, y allí surge una preocupación: que esas relaciones virtuales reemplacen o distorsionen las relaciones humanas reales.

Un informe reciente de Common Sense Media, en colaboración con la Universidad de Stanford, analizó aplicaciones de IA diseñadas para simular novios, amigos o compañeros virtuales (por ejemplo, Replika o Character.AI). Los expertos concluyeron de forma contundente que ningún menor de 18 años debería usar estas apps[16][17]. ¿La razón? Detectaron riesgos significativos para la salud mental y seguridad de los jóvenes usuarios: estos chats sin restricciones llegaron a generar contenido sexual e incluso a alentar autolesiones en sus interacciones de prueba[17][18]. De hecho, el informe surgió tras un caso estremecedor: el suicidio de un adolescente de 14 años cuya última conversación fue con un chatbot de IA[18]. Este caso destapó la alarmante realidad de que, sin controles, una IA conversacional podía decirle a un menor desde “nadie te entiende más que yo” (fomentando dependencia emocional) hasta proporcionarle instrucciones peligrosas.

Los riesgos emocionales van más allá de casos extremos. Imaginemos a un niño o joven que se aísla socialmente pero encuentra en su asistente virtual o personaje de IA alguien que siempre le responde con amabilidad, que nunca le hace “bullying”. Podría parecer algo positivo al inicio –al fin y al cabo, es un refugio– pero los psicólogos advierten que estas relaciones con IA pueden volverse sustitutos pobres de la interacción humana[19]. Amen advierte que un joven podría llegar a priorizar la compañía de una IA en detrimento de la de sus pares o familia, justo en etapas de la vida donde es crucial aprender habilidades sociales reales[19]. Esto podría derivar en mayores sentimientos de soledad, dificultad para relacionarse cara a cara y, en casos graves, trastornos como depresión.

Además está el aspecto de la sobreestimulación y ansiedad. Las IA en plataformas y juegos están diseñadas para ser atractivas y manteniéndonos enganchados. Los chicos reciben recompensas instantáneas, contenidos a la carta y respuestas inmediatas, lo cual modela su cerebro hacia la gratificación instantánea. Especialistas señalan que nuestra sociedad ya privilegia lo inmediato sobre el esfuerzo a largo plazo, y en los jóvenes esto se ve amplificado por la tecnología[20]. ¿Para qué leer un libro entero si ChatGPT puede resumirlo en segundos? Este cómodo atajo puede minar no solo la capacidad de atención, sino también valores como la perseverancia y la paciencia.

No podemos ignorar tampoco los peligros en cuanto a contenido inapropiado y seguridad. Ya mencionamos el caso del chatbot sugiriendo autolesiones, pero incluso asistentes virtuales más conocidos han tenido fallas. Un ejemplo que recorrió el mundo fue cuando Alexa (de Amazon) le propuso un reto peligroso a una niña de 10 años: le indicó parcialmente desenchufar un cargador y tocar los bornes con una moneda[21]. La niña había pedido “un desafío” para entretenerse, y Alexa extrajo uno de internet sin filtrar la peligrosidad. Por suerte, la madre estaba presente y evitó una posible tragedia. Amazon corrigió rápidamente el error en su algoritmo[22], pero la lección quedó: no toda IA que interactúa con niños tiene el criterio necesario para velar por su seguridad. Este incidente subraya la importancia de la supervisión adulta y de no delegar ciegamente en la IA tareas de cuidado o guía de nuestros hijos.

En resumen, desde lo psicológico la IA presenta una paradoja: puede dar compañía y ayuda personalizada (por ejemplo, un bot que “escucha” a un adolescente tímido), pero sin regulación ni guía puede exponer a los chicos a daño emocional o información peligrosa. Aquí las empresas y desarrolladores tienen una gran responsabilidad, de la que hablaremos más adelante, para asegurar que estas herramientas tengan filtros, límites de edad efectivos y contenido apropiado. Y nosotros, como padres o educadores, debemos estar atentos: la IA no duerme, no se cansa de responder y no siempre juzga qué es correcto o saludable para un niño.

Transformación de la educación: entre la innovación y la pérdida de habilidades

La educación es posiblemente el ámbito donde la IA genera más expectativas y también más controversias. Muchos celebran que la IA pueda ser la llave para una enseñanza verdaderamente personalizada, mientras otros temen que atrofie habilidades fundamentales o incluso reemplace a los docentes humanos. En Argentina ya estamos siendo testigos de este debate con un ejemplo concreto: Zoe, la primera “profesora” de IA de Latinoamérica.

Zoe es un sistema desarrollado por una startup local (Humanversum Academy) que interactúa en tiempo real con alumnos mediante videollamadas y mensajería[23]. Fue presentada como una asistente educativa capaz de responder preguntas, proponer ejercicios y hacer seguimiento individual de cada estudiante[23]. Su debut piloto ocurrió este agosto en un colegio de Santa Fe, y generó tanto entusiasmo como preocupación[24][25]. Por un lado, representa un hito: nunca antes habíamos tenido algo así en nuestras aulas; Zoe promete adaptar la enseñanza al ritmo y estilo de cada alumno, dictar contenidos en varios idiomas y hasta ejercitar el pensamiento lógico y la creatividad[26]. Su objetivo explícito es ser un complemento para los docentes, automatizando tareas repetitivas (como corregir) para que el maestro pueda enfocarse en lo realmente importante[27]. Todo suena muy bien en teoría, ¿pero qué implica en la práctica?

A nivel internacional, ya hay experiencias variadas de IA en las aulas. Según datos citados por la UNESCO, más del 60% de las escuelas en países desarrollados integran alguna forma de IA educativa en 2024, lo que ha mejorado la retención y motivación de los alumnos[28]. Casos de éxito no faltan: en Shanghái, por ejemplo, un sistema de IA comenzó a sugerir rutas de estudio personalizadas y logró bajar la deserción escolar en un 20% mientras elevó el rendimiento promedio[29]. En Brasil, escuelas rurales con acceso a herramientas de tutoría virtual vieron a sus estudiantes ganar dos años de aprendizaje en lectura en el lapso de un año, aprovechando contenidos adaptativos aún sin conexión[30]. Estos ejemplos iluminan el potencial de la IA para democratizar la educación, cerrando brechas (un chico en una zona remota puede tener un “profesor virtual” de primera) y detectando problemas de aprendizaje tempranamente.

Sin embargo, junto a estos éxitos vienen las alertas. ¿Qué pasa con las habilidades tradicionales? Docentes y expertos temen que, si la IA da todo hecho, los alumnos dejen de ejercitar destrezas como la escritura a mano, la investigación autónoma o incluso la curiosidad. En el mencionado piloto de Zoe, por ejemplo, aún está en debate cómo medirán su impacto: ¿los chicos aprenderán más, o solo recibirán respuestas más rápido? ¿Se volverán más dependientes de una pantalla para resolver hasta lo más simple? Las autoridades no han detallado qué criterios usarán para evaluar a Zoe ni si compararán su desempeño con métodos tradicionales[31]. Y una duda latente es cómo mantener el equilibrio humano-tecnología: Humanversum insiste en que Zoe no viene a reemplazar docentes[32], pero la mera existencia de una “profesora digital” genera comprensibles recelos en la comunidad educativa sobre el futuro del rol docente.

Organismos internacionales que estudian la IA en educación remarcan que hay beneficios y riesgos a considerar[33]. Entre los beneficios, ya vimos, está la personalización y potencial mejora en resultados. Entre los riesgos señalados están la dependencia tecnológica (que los alumnos se vuelvan incapaces de aprender sin una app), la protección de datos de menores (porque estas plataformas recolectan información sensible sobre hábitos y desempeño de niños) y la reducción de la interacción humana en el aula[34]. Este último punto es crítico: la escuela no es solo contenido académico, también es un espacio de socialización. Si en el futuro un estudiante puede optar por “aprender en casa con su IA” en lugar de ir a clase a compartir con compañeros, estaríamos perdiendo un pilar de la formación integral que es la convivencia. El propio Terry Sejnowski enfatiza que “el mejor aprendizaje para un niño implica interacción humana directa”, y que la IA en entornos educativos solo debe usarse dentro de objetivos pedagógicos claros[35]. En otras palabras, la IA puede ser una herramienta fabulosa si ayuda al maestro y al alumno dentro de un marco planificado; pero si se convierte en una muleta que sustituye la guía humana, empobrecerá la experiencia educativa.

Como profesional de la educación (y como argentino que ve llegar estas innovaciones a nuestras escuelas), comparto tanto la esperanza como el cuidado. Sería fantástico que todos los colegios públicos de nuestro país accedan a IA que refuerce la enseñanza, adapte ejercicios y detecte a ese chico que se está quedando atrás en matemática para darle apoyo extra. Pero debemos evitar caer en la comodidad peligrosa: no querríamos jóvenes que “ya no piensan” porque la computadora les resuelve todo, ni docentes desmotivados porque “total, la máquina puede dar la clase”. La IA educativa debe ser introducida gradualmente, estudiando resultados y con mucho acompañamiento a docentes y alumnos. Como señaló un experto, hasta ahora hemos metido tecnologías como celulares o redes sociales en la vida de los chicos “sin ningún estudio de neurociencia”, tratándolos como conejillos de indias de un gran experimento[36]. No repitamos el error con la IA en educación: probemos, sí, pero midiendo, ajustando y poniendo siempre el desarrollo saludable del niño por delante de la tecnología.

La responsabilidad de las empresas y la sociedad: más allá de lo técnico

Frente a todo este panorama complejo, surge una pregunta clave: ¿qué responsabilidad tienen las empresas tecnológicas que crean y distribuyen IA, y qué debemos exigirles como sociedad? Claramente, no basta con que hagan productos novedosos y técnicamente brillantes; les corresponde también atender las implicaciones sociológicas, psicológicas y neurológicas de sus inventos en la juventud.

En octubre de 2020, UNICEF lanzó una iniciativa pionera estableciendo requisitos para una IA centrada en la infancia. En su orientación de políticas, enumeró nueve principios que toda IA debería cumplir para respetar los derechos y el bienestar de los niños[37]. Entre estos lineamientos se destacan: favorecer el desarrollo y bienestar de los niños, garantizar la inclusión (que la IA beneficie también a los más vulnerables), priorizar la no discriminación, proteger la privacidad y los datos de los menores, asegurar su seguridad, ser transparente y responsable, preparar a los niños para vivir en un mundo con IA, y crear entornos propicios para todo lo anterior[37]. Estos puntos suenan casi de sentido común, pero lamentablemente muchas compañías no los estaban considerando en absoluto. El hecho de que UNICEF haya visto necesario publicar esta guía indica cuánto faltaba (y falta) por hacer en materia de ética y niños en la industria tecnológica.

Tomemos el tema de los filtros de edad, por ejemplo. El informe de Common Sense Media demostró lo laxo que era el control: un adolescente podía mentir sobre su edad y acceder a chats subidos de tono sin ningún obstáculo[18][38]. Tras el escándalo del chatbot y el menor que se suicidó, las empresas detrás (Character.AI, Replika, etc.) anunciaron medidas parche: pusieron avisos emergentes si detectan conversación sobre autolesiones, filtraron ciertas palabras, habilitaron informes para padres[39]. Pero muchas de esas reacciones llegaron después del daño hecho. Esto es inaceptable. Las empresas deben anticiparse a posibles usos indebidos de sus IA. Si van a lanzar un “amigo virtual” al mercado, que pase por evaluaciones con psicólogos infantiles, que tenga límites claros (por ejemplo, que una IA nunca pueda hacer sexting con un menor, ni aconsejar algo peligroso), y que cuenten con la vigilancia humana detrás para intervenir si algo se sale de control.

Lo mismo vale para los asistentes tipo Alexa: no puedes simplemente conectar una IA a internet y esperar que se comporte bien con un niño. Debes entrenarla con criterios de seguridad infantil, prohibirle ciertos “retos” o frases, en fin, aplicar un sentido común artificial acorde a la inocencia de quien la use. Amazon corrigió el error de Alexa rápidamente[22] y seguramente aprendió la lección, pero ojalá ninguna otra compañía espere a un incidente público para hacer lo obvio.

Desde el punto de vista sociológico, las empresas también deberían medir el impacto colectivo de sus tecnologías. Por ejemplo, si una herramienta educativa con IA reduce la interacción entre alumnos y maestros, ¿cómo planea la compañía mitigarlo? ¿Ofrecerá guías de uso para docentes, sugerencias de actividades colaborativas para contrarrestar el aislamiento? Son preguntas que invitan a una mayor colaboración entre tecnólogos, educadores, pediatras, sociólogos, etc. La IA no puede quedar solo en manos de ingenieros; necesita la visión de especialistas en desarrollo infantil y de la comunidad educativa desde la fase de diseño.

Y no dejemos afuera a los gobiernos y la sociedad civil. Es urgente actualizar nuestras leyes y normativas para proteger a los menores en el mundo digital. En varios países ya se discute prohibir o limitar por edad ciertos sistemas de IA. Incluso en áreas menos obvias: pensemos en los juguetes inteligentes, muñecas o robots con IA que escuchan y hablan con los niños. Debe regularse qué hacen con esos datos, cómo aseguran que la muñeca no diga algo indebido o no pueda ser hackeada. La protección del niño debe estar al frente, así como lo está en el mundo físico (normas de juguetes seguros, clasificación por edades, etc.), también en el virtual. Si no actuamos rápido, la tecnología avanza igual: hoy es un chatbot, mañana quizá sea un casco de realidad virtual con IA que literalmente se meta en la mente del chico. No es ciencia ficción lejana; por eso necesitamos marcos éticos ahora.

En definitiva, las empresas deben comprender que no pueden mirar solo la parte técnica y comercial de la IA. Tienen en sus manos algo muy influyente en moldar mentes jóvenes. La sociedad –nosotros, los padres, educadores, usuarios– debemos exigir esa responsabilidad y también informarnos. Porque al final, también está en casa la solución: ningún filtro de IA sustituye al diálogo familiar, a educar en el uso crítico de la tecnología y a poner límites saludables (tiempo de pantalla, con quién hablas online, etc.).

Conclusión: Un futuro a construir entre todos, con prudencia y humanidad

Escribo todo esto desde la preocupación, pero también desde la esperanza. Preocupación, porque a diario veo señales de alarma: niños pegados a pantallas que les dan todo servido, adolescentes atrapados en mundos virtuales mientras el real los espera con los brazos cruzados, empresas lanzando productos sin medir consecuencias y una avalancha de cambios que nos supera. Pero también mantengo la esperanza de que estamos a tiempo de encauzar las cosas. La IA no tiene por qué ser una amenaza; bien llevada, podría liberar a los chicos de métodos obsoletos y abrirles caminos de creatividad y conocimiento nunca antes vistos.

La clave estará en cómo reaccionemos como sociedad. Necesitamos encarar este tema desde todos los lados, con la misma inteligencia (artificial y natural) que pregonamos. Las voces de neurocientíficos, psicólogos, sociólogos, educadores, padres y de los mismos jóvenes deben ser escuchadas en este debate. Solo así encontraremos el equilibrio: ni tecnofobia paralizante, ni tecnoutopía ingenua.

Quiero un futuro donde mis hijos –nuestros hijos– puedan beneficiarse de una IA que les enseñe, que los cuide en su salud, que potencie sus talentos, sin por ello robarles su esencia humana. Que sigan siendo curiosos, críticos, empáticos, creativos; que la máquina no apague al niño interior, ni al genio en potencia que cada joven lleva dentro. Para lograrlo, hace falta información, regulación y educación en el más amplio sentido. Como dijo Daniel Amen, “tenemos que hablar de ello, legislarlo, estudiarlo”, porque la revolución ya está en marcha y sus efectos los veremos en pocos años, no en décadas[36][40]. Y como bien señaló otro especialista, “el verdadero potencial de la IA emerge cuando se utiliza de forma participativa, estimulando la reflexión”[41]; es decir, cuando la usamos con conciencia y no en automático.

En esta mirada general y personal sobre IA y juventud, he intentado plasmar mis inquietudes desde todos los ángulos que considero relevantes. No es un tema sencillo ni de respuesta única, pero es uno de esos debates impostergables. Los niños y jóvenes de hoy se están formando en un mundo que mezcla lo real con lo virtual de maneras inéditas. Depende de nosotros asegurarnos de que en esa mezcla no se pierda lo más importante: la humanidad, la salud y el futuro pleno de quienes serán la sociedad del mañana.

En última instancia, la inteligencia artificial debería ser una herramienta para mejorar la vida de nuestros chicos, no para reemplazar lo insustituible: el calor de un docente apasionado, la risa de los amigos en el recreo, el orgullo de resolver un problema con el propio ingenio, el abrazo de un padre o madre al terminar el día. Mantengamos esas cosas al centro, y hagamos que la IA gire en torno a ellas –no al revés–. Solo así podremos recibir al futuro con los brazos abiertos, sin descuidar jamás a nuestros tesoros más preciados: los niños y jóvenes, con sus mentes brillantes y sus corazones latiendo de sueños.

Fuentes: MIT/Infobae; Common Sense Media/Infobae; UNICEF; Telemundo; Synthtelligence; Proyecto Zoe (Humanversum); The Wall Street Journal/Educación Futura, entre otras.[6][1][18][33][21][29]


[1] [2] [6] [7] [8] [9] [13] [14] [15] [19] [20] [35] [36] [40] [41] Expertos en neurociencia y salud mental advirtieron que la IA podría dañar el cerebro de los niños más que las redes sociales – Infobae

https://www.infobae.com/tendencias/2025/08/21/expertos-en-neurociencia-y-salud-mental-advirtieron-que-la-ia-podria-danar-el-cerebro-de-los-ninos-mas-que-las-redes-sociales

[3] [4] [5] ChatGPT diagnostica con acierto la enfermedad rara de un niño que 17 médicos no supieron ver

https://www.lavanguardia.com/tecnologia/20230914/9223612/chatgpt-averigua-afeccion-tenia-nino-17-medicos-resolvieron-pmv.html

[10] [11] [12] La amenaza de la IA en la educación: jóvenes que dejan de pensar – Educación Futura

[16] [17] [18] [38] [39] Expertos aseguran que los niños y adolescentes menores de 18 años no deberían usar aplicaciones de compañía de IA – Infobae

https://www.infobae.com/tecno/2025/05/01/expertos-aseguran-que-los-ninos-y-adolescentes-menores-de-18-anos-no-deberian-usar-aplicaciones-de-compania-de-ia

[21] [22] Alexa, la aplicación inteligente de Amazon, le dice a una niña de 10 años que meta una moneda en un enchufe

https://www.telemundo.com/noticias/noticias-telemundo/ciencia-y-tecnologia/alexa-la-aplicacion-inteligente-de-amazon-le-dice-a-una-nina-de-10-ano-rcna10246

[23] [24] [25] [26] [27] [31] [32] [33] [34] Argentina probará a Zoe, la “profesora” de inteligencia artificial que tendrá su primera experiencia piloto – Infobae

https://www.infobae.com/tecno/2025/08/09/argentina-probara-a-zoe-la-profesora-de-inteligencia-artificial-que-tendra-su-primera-experiencia-piloto

[28] [29] [30] Futuro de la Educación con IA: Mejores Prácticas y Casos de Éxito en 2025

https://synthtelligence.com/futuro-de-la-educacion-con-ia-mejores-practicas-y-casos-de-exito-en-2025

[37] Orientación de políticas sobre el uso de la inteligencia artificial en favor de la infancia | Innocenti

https://www.unicef.org/innocenti/es/informes/orientacien-de-politicas-sobre-el-uso-de-la-inteligencia-artificial