Elisandro Santos

La reciente irrupción de herramientas de inteligencia artificial (IA) capaces de animar fotografías antiguas ha abierto un intenso debate sobre la naturaleza de los recuerdos, la nostalgia y la salud mental. Un ejemplo emblemático fue el del cofundador de Reddit, Alexis Ohanian, quien en junio de 2025 utilizó el nuevo generador de vídeos de Midjourney para convertir una foto de infancia con su madre fallecida en un breve vídeo animado. En el clip resultante, su madre aparece abrazándolo y sonriendo como en vida, algo que jamás quedó capturado en vídeo real. Ohanian compartió emocionado que “así es como ella me abrazaba… Lo he visto 50 veces”. La experiencia, que rápidamente se volvió viral, le provocó una oleada de sentimientos y, al mismo tiempo, desató un debate filosófico y moral en redes sociales sobre hasta qué punto estos “recuerdos” generados por IA son benéficos o perturbadores.

Nota: Como especialista en IA analizaré esta tendencia principalmente desde la perspectiva tecnológica, pero también mencionaré las implicaciones psicológicas basándome en opiniones de expertos en psicología. Es importante aclarar que los aspectos psicológicos profundos deben ser evaluados por profesionales de la salud mental, dado que aquí solo se exponen de forma general.

¿Cómo funciona la creación de “recuerdos” con IA?

Las nuevas herramientas de IA, como la incorporada en Midjourney, emplean modelos generativos entrenados con enormes conjuntos de datos visuales para producir secuencias de vídeo a partir de una imagen estática. En términos sencillos, el sistema “imagina” cómo sería el movimiento y el contexto más allá de la foto, rellenando los fotogramas que nunca fueron filmados. Esta tecnología se lanzó públicamente en 2025 y permite al usuario cargar, por ejemplo, una foto de un ser querido, y obtener como salida unos segundos de vídeo donde esa persona cobra vida con movimientos naturales (parpadea, sonríe, abraza, etc.). Los desarrolladores destacan que no se trata de simples animaciones rígidas, sino de movimientos suaves que logran parecer parte de un momento real más amplio. Incluso es posible ajustar el tono, el estilo visual o la velocidad del vídeo generado, dando cierto control creativo al usuario.

En el caso de Ohanian, él tomó una de sus fotos favoritas junto a su madre y la usó como fotograma inicial en el generador de video de Midjourney. El resultado lo dejó asombrado y conmovido porque por primera vez “tenía” un recuerdo en vídeo que nunca había existido realmente – su familia no había poseído videocámara, así que nunca tuvo grabaciones con ella. Esta posibilidad técnica de “resucitar” momentos perdidos o nunca registrados es indudablemente llamativa. Muchas personas la ven con encanto, como una forma de dar vida a fotos antiguas (por ejemplo, animar el retrato de un abuelo para verlo sonreír otra vez). Sin embargo, también genera inquietud: ¿estamos creando una ilusión que podría confundir nuestra memoria o nuestras emociones? La publicación de Ohanian alcanzó millones de visualizaciones y comentarios divididos, reflejando tanto fascinación como recelo ante esta nueva forma de nostalgia sintética. A continuación, exploraremos las diferentes aristas de este fenómeno, desde el debate filosófico que provoca, hasta sus posibles beneficios y riesgos psicológicos.

Debate filosófico: realidad vs. ilusión en nuestros recuerdos

El gesto de traer recuerdos a la vida con IA ha planteado preguntas profundas: ¿Es ético **“inventar” un recuerdo de alguien querido? ¿Consuela o engaña? En el debate que siguió al vídeo de Ohanian en X (Twitter), hubo reacciones opuestas. Por un lado, Ohanian y otros defensores argumentaban que no hay nada de malo en usar la IA con fines emocionales positivos – él mismo respondió que “realmente no entiendo por qué no usarías la IA para esto”, comparándolo a restaurar o mejorar recuerdos familiares. Desde esta óptica, la IA sería simplemente una herramienta para expresar el cariño o la nostalgia de forma más vívida, casi como si fuera una extensión de nuestra imaginación.

Por otro lado, muchos críticos se mostraron incómodos. Un usuario le recriminó que “no es un recuerdo auténtico; le estás poniendo palabras que nunca dijo en su boca”. Otro comentaba: “Es un recuerdo falso. Pero verlo hará que sea real en tu memoria. No soy fan de algo así”, aludiendo al peligro de creerse la ilusión. En esencia, planteaban un dilema: un vídeo generado por IA de alguien amado no equivale a un recuerdo verdadero de esa persona, por muy realista o emotivo que parezca. Supone más bien una especie de sueño o fantasía inducida tecnológicamente.

Un fotograma de la saga Harry Potter ilustra la tentación de los recuerdos ilusorios: en el “Espejo de Oesed”, Harry ve a sus padres fallecidos como si estuvieran con él. Esta escena ficticia se usó como analogía en redes para debatir la IA y los falsos recuerdos, destacando lo reconfortante pero engañoso que puede ser ver a un ser querido que ya no está.

Algunos debatientes en redes compararon esta situación con la famosa escena del Espejo de Oesed de Harry Potter – donde el protagonista ve a sus padres muertos reflejados, sabiendo que no son reales pero aún así siente felicidad. La analogía es potente: las imágenes generadas por IA pueden darnos consuelo instantáneo (igual que el espejo daba a Harry un destello de alegría), pero a costa de confrontarnos con una ilusión. Otro comentarista citó la película Matrix, recordando la pregunta de por qué alguien querría vivir en una realidad ficticia en lugar de la auténtica. Estas referencias culturales subrayan el trasfondo filosófico: ¿Es preferible una mentira reconfortante a una verdad dolorosa?

El filósofo de la tecnología Santiago Sánchez-Migallón opina que toda nueva tecnología debe entenderse primero como una oportunidad, no como algo intrínsecamente perverso, incluso si trata temas delicados como la muerte o la autenticidad de nuestros recuerdos. Él sugiere que, asegurando un uso seguro y consciente (por ejemplo, marcando claramente qué recuerdos son artificiales), esta herramienta podría tener fines positivos. Llega a imaginar un futuro donde incluso adquirir recuerdos o habilidades artificiales fuera posible: “¿Podríamos grabar en nuestro cerebro la habilidad de tocar el piano o hablar japonés?”, plantea, extendiendo el debate más allá de la nostalgia hacia la mejora humana. La sola idea recuerda a la premisa de Matrix o a la ciencia ficción, donde se descargan conocimientos directo al cerebro, lo que demuestra hasta qué punto esta tecnología nos hace repensar límites antes inamovibles.

No obstante, otros filósofos y psicólogos advierten sobre el lado oscuro. Si la IA nos permite fabricar recuerdos felices a voluntad, ¿qué impediría que algunas personas prefieran vivir en esa fantasía en vez de la vida real? Sánchez-Migallón admite esa posibilidad: ya hoy mucha gente pasa más tiempo en entornos digitales que en su vida cotidiana, y podría ocurrir lo mismo con recuerdos inventados. Él se pregunta: “Si alguien odia su vida y prefiere vivir una vida falsa, ¿por qué habría yo de negárselo? ¿Y si descubrimos que vivir en mundos de recuerdos inventados nos hace más felices que enfrentarnos a la desagradable realidad?”. Estas preguntas no tienen fácil respuesta e inquietan por sus implicaciones: podríamos renunciar a la verdad a cambio de una felicidad artificial.

En suma, el debate filosófico gira en torno a la autenticidad versus el consuelo. ¿Es moralmente aceptable crear una representación tan vívida de algo que nunca ocurrió? ¿Dónde está la línea entre un homenaje inofensivo y un autoengaño peligroso? En palabras de la psicóloga Elaine Kasket, experta en duelo digital, cabe preguntarse “¿acaso la ficción creada por la máquina es más dañina que la ficción que nuestra propia mente fabrica?”. Al fin y al cabo, todos idealizamos o distorsionamos recuerdos en nuestra cabeza; la diferencia es que ahora la tecnología puede hacerlo de forma más tangible. La respuesta, dice Kasket, depende de la función que cumpla esa ilusión en la vida de la persona. Con esto en mente, pasemos a revisar qué nos dice la psicología sobre los falsos recuerdos y cómo esta tecnología puede afectarnos dependiendo de nuestro estado emocional.

La memoria humana y la facilidad de crear “falsos recuerdos”

Desde la psicología cognitiva se sabe que la memoria humana es sorprendentemente maleable y reconstructiva. Un recuerdo no es una grabación exacta de la realidad, sino que se reconstruye cada vez que lo evocamos, integrando fragmentos almacenados con nuestro conocimiento y hasta con sugerencias externas. De hecho, la experta pionera en el estudio de la memoria Elizabeth Loftus demostró que es posible implantar recuerdos falsos en las personas mediante sugestión y repetición. Loftus describió cómo podemos llegar a “recordar” eventos que nunca ocurrieron o distorsionar detalles de hechos reales si se nos expone repetidamente a información ficticia sobre ellos. Por ejemplo, escuchar una y otra vez una historia inventada de nuestra infancia podría lograr que, con el tiempo, creamos haberla vivido. Según Loftus, “la memoria es siempre constructiva. La gente crea el pasado basándose en la información que permanece en la memoria, sus conocimientos generales y la demanda social de rememorar”. En esencia, recordar es reconstruir, no reproducir.

En el contexto de esta nueva IA, un vídeo falso pero muy vívido podría incrustarse en nuestra mente como si fuera un recuerdo auténtico, dado lo potente que es lo visual para nuestro cerebro. Un usuario en redes lo expresó justamente así: “verlo hará que sea real en tu memoria”. Y esta advertencia tiene fundamento científico reciente. Un estudio de 2023 liderado por la propia Loftus en colaboración con el MIT Media Lab encontró que ver solo una imagen alterada por IA podía afectar significativamente la memoria que la gente tenía del evento original. Los participantes del experimento, tras ser expuestos a una fotografía manipulada, luego recordaban detalles falsos con alta confianza, sobre todo los más jóvenes. Esto llevó a Loftus y colegas a calificar a la IA como “una máquina perfecta de falsos recuerdos”, por la facilidad con que puede contaminar y reescribir nuestros recuerdos reales.

Ahora bien, no todos los expertos creen que debamos alarmarnos en exceso a nivel individual. El psicólogo clínico Francisco Tabernero señala que “los recuerdos [de por sí] suelen estar bastante distorsionados” y opina que añadir unos segundos de movimiento a una foto no cambiará demasiado el recuerdo que ya teníamos. Es decir, la impresión subjetiva original (la emoción que nos provocaba esa foto) seguirá siendo la misma; el vídeo generado solo la “adorna” un poco visualmente. En su opinión, la experiencia central permanece igual de subjetiva con o sin IA, por lo que no habría un riesgo especial de que un breve clip modifique drásticamente lo que sentimos al recordar. Esta visión sugiere que, si uno está emocionalmente estable y comprende que el vídeo es una recreación, no tendría por qué confundirlo con un recuerdo real. De hecho, muchas familias ya realizan montajes fotográficos o videos tributo a sus seres queridos fallecidos, y saben distinguir entre esas creaciones y la memoria auténtica.

El riesgo, entonces, parece radicar en cómo usemos y contextualicemos estas recreaciones. Julia Shaw, psicóloga especializada en falsos recuerdos, advierte que aunque ella ve con buenos ojos reanimar a personas en IA con fines benignos, “la tecnología conlleva el riesgo de contaminar y sobrescribir nuestros recuerdos”. Si una persona llega a confundir la imagen generada con la realidad pasada, su memoria podría reorganizarse en torno a ese evento ficticio. Shaw enfatiza: la IA ofrece por primera vez una manera automatizada y convincente de generar falsas memorias visuales, algo que antes requería trucos de Photoshop mucho más burdos. Por tanto, debemos ser conscientes de la facilidad con que nuestra mente puede creerse lo que ve, sobre todo si encaja con lo que querríamos haber vivido.

En resumen, nuestra memoria no es un registro infalible y los falsos recuerdos no son un invento de la IA – ya existían en nuestra mente. Pero la IA añade una dimensión nueva por la fuerza persuasiva de las imágenes en movimiento, aumentando la vividez de la mentira. Un vídeo bien logrado de un ser querido podría alojarse en nuestro banco de recuerdos casi como uno más, especialmente si lo vemos repetidas veces. Eso no significa que inevitablemente nos vayamos a engañar, pero sí indica que debemos manejar estas creaciones con cuidado y pensamiento crítico: sabiendo que son simulaciones, por muy reales que luzcan.

Posibles beneficios y aplicaciones positivas de estos recuerdos generados

A pesar de las alertas, no todo es negativo. Vistos desde un ángulo constructivo, estos “recuerdos sintéticos” podrían aportar ciertos beneficios si se usan adecuadamente, sobre todo en personas que estén emocionalmente preparadas para ellos. Veamos algunos puntos positivos potenciales:

  • Consuelo y nostalgia saludable: Para mucha gente, especialmente quienes no están atravesando un duelo agudo, ver animada una vieja foto puede ser una experiencia emotiva pero reconfortante. Revivir un momento feliz (aunque sea recreado) puede traer alegría, nostalgia e incluso gratitud por ese recuerdo. En el caso de Ohanian, por ejemplo, el vídeo le produjo una profunda emoción positiva – se sintió de nuevo abrazado por su madre – y en vez de tristeza reportó principalmente asombro y ternura, compartiéndolo como algo especial. De forma análoga, alguien que conserve un buen recuerdo de un ser querido podría disfrutar al verlo “cobrar vida” brevemente, del mismo modo que disfrutamos mirando álbumes de fotos o escuchando grabaciones antiguas. Mientras la persona tenga claro que se trata de una representación, podría servir para honrar la memoria y mantener vivo el recuerdo de manera creativa. Incluso puede ser una forma de compartir ese recuerdo con otras generaciones: por ejemplo, animar la foto de un bisabuelo para que los nietos puedan “conocerlo” de una forma más vívida.
  • Oportunidad de despedida o cierre emocional: En ciertos casos, estas herramientas podrían ayudar a procesar emociones pendientes. Piénsese en alguien que perdió a un ser querido de forma repentina y nunca pudo verlo en vídeo o decir adiós. Generar una breve animación podría proporcionarle un momento simbólico de despedida. De hecho, ya ha habido experimentos en esta línea: en 2020 un equipo en Corea del Sur recreó en realidad virtual a una niña fallecida para que su madre pudiera “reencontrarse” con ella; sorprendentemente, la experiencia ayudó a aquella madre a afrontar su duelo y decir adiós de un modo que antes no había podido. Si bien este caso fue polémico en su momento (algunos medios occidentales lo vieron macabro), muestra que, bajo acompañamiento profesional y contexto seguro, una simulación puede ser terapéutica para resolver asuntos emocionales pendientes. En un entorno controlado, un psicólogo podría eventualmente usar una imagen animada para ayudar a un paciente a expresar sentimientos o superar un trauma (similar a técnicas de “silla vacía” en terapia, pero con un avatar del ser querido).
  • Reencuadre de memorias difíciles: Algunos expertos sugieren que esta tecnología incluso podría emplearse para reformular recuerdos traumáticos. Por ejemplo, la investigación de Loftus mencionada antes señala que estos métodos podrían tener usos beneficiosos, como replantear memorias traumáticas o mejorar la autoestima. ¿Cómo sería esto? Imaginemos a alguien con un recuerdo doloroso: quizás podría generarse una versión alternativa más positiva de ese recuerdo que ayude a la persona a sanar (por supuesto, esto es teórico y muy delicado, pero es una posibilidad que se discute). Sánchez-Migallón contemplaba algo similar al decir que, asegurando que el usuario sepa distinguir realidad y ficción, la IA podría ayudar a “borrar traumas” o al menos a disminuir su impacto emocional. Sería como sobreescribir simbólicamente una memoria negativa con una versión más llevadera. Por ejemplo, alguien que tuvo una relación tensa con su padre podría crear un pequeño vídeo imaginario de un momento feliz juntos, no para engañarse sino para darse la oportunidad de experimentar ese afecto que quizá faltó, a modo de visualización terapéutica guiada. Esto, insistimos, debería realizarse solo con apoyo de un profesional de salud mental, pero abre una veta interesante de exploración.
  • Preservación y educación histórica/familiar: Desde un punto de vista más práctico, la capacidad de animar fotos también puede ser valiosa para museos, documentales o proyectos educativos, al dar vida a imágenes históricas. Por ejemplo, hacer moverse a personajes históricos en fotografías antiguas podría acercar el pasado a las nuevas generaciones de forma más dinámica (siempre aclarando que es una recreación). En el ámbito familiar, podría utilizarse para crear álbumes multimedia interactivos donde las fotos de los abuelos “hablan” o gesticulan levemente, enriqueciendo la narración genealógica. Mientras se tenga presente qué es real y qué es generado, esto enriquece la forma de contar historias y conservar legados.
  • Desarrollo de nuevas habilidades (futurista): Mirando hacia el futuro, algunos entusiastas como Sánchez-Migallón vislumbran que quizá esta tecnología evolucione hasta implantar recuerdos o conocimientos completos en nuestra mente. Si bien suena a ciencia ficción, ya existen investigaciones en neurociencia intentando traducir señales cerebrales a información utilizable. En teoría, un día podríamos “cargar” en nuestro cerebro recuerdos que no vivimos pero nos enseñan algo – por ejemplo, la memoria de haber practicado cientos de horas de piano, con lo cual adquiriríamos habilidad musical sin haberla entrenado de forma tradicional. Esto hoy es solo una especulación filosófica inspirada por la IA, pero muestra el costado innovador y aspiracional del debate: la IA podría ampliar los límites de la memoria humana y la experiencia, no solo recrear el pasado sino construir nuevas vivencias instructivas.

En todos estos escenarios positivos, hay un denominador común: la persona usuaria mantiene el control y la claridad sobre lo que es una creación artificial. Para alguien emocionalmente estable, que extraña sanamente a sus seres queridos o aprecia la historia familiar, estas simulaciones pueden ser un pasatiempo inofensivo e incluso enriquecedor – tal como apuntó Tabernero, visto así sería “casi como un pasatiempo” sin mayores consecuencias negativas. Además, la IA en sí misma no “trae maldad” intrínseca: es una herramienta. Depende del uso que le demos y del estado en que nos encontremos el que resulte sanadora o perjudicial. Como dijo el experto en IA Javier Pastor, hay que aprovechar las oportunidades de la tecnología manteniendo precauciones, pero sin satanizarla solo por lo sensible del tema.

Riesgos y efectos negativos: cuándo estos recuerdos pueden hacer daño

Así como hay posibles beneficios, es crucial examinar los riesgos reales que conlleva utilizar IA para generar recuerdos, sobre todo en personas que no estén en un buen momento emocional o mental. Varios psicólogos han expresado preocupaciones concretas al respecto:

  • Reactivar el duelo o dolor emocional: El peligro más inmediato es que ver en movimiento a un ser querido fallecido puede reabrir heridas emocionales. El psicólogo Darío Benítez advierte que “si estás reviviendo la imagen de un ser querido, te expones a una emoción que no esperabas y eso puede reavivar un duelo que ya habías procesado”. Es decir, alguien que ya había aceptado la pérdida podría retroceder en su proceso de duelo al enfrentarse sorpresivamente a esa cuasi-presencia virtual. De hecho, un acontecimiento así podría desencadenar una respuesta de dolor tan intensa como al inicio de la pérdida en casos extremos. Tabernero menciona que en personas con duelo patológico (un duelo estancado o traumático), una imagen animada podría actuar como “recuerdo ancla” que traiga de vuelta emociones y síntomas del primer día. Imaginemos a alguien que perdió a su hijo y sufre estrés postraumático: si ve un vídeo donde su hijo aparece de nuevo, aunque sea ilusión, su cerebro podría disparar las mismas reacciones de shock, negación o angustia que tuvo inicialmente, como si la herida se volviera a abrir de golpe. Por tanto, no es aconsejable que personas en duelo reciente o con trauma utilicen estas IA sin orientación profesional, pues el riesgo de agravar su sufrimiento es alto.
  • Distorsión de la realidad personal: Otro efecto negativo es la confusión o distorsión de nuestros propios recuerdos y valores. Benítez señala que estos vídeos falsos “pueden lograr hacerte sentir que los viviste y que eso efectivamente ocurrió”, alterando cómo interpretas tu pasado. Él pone un ejemplo ilustrativo: supongamos que en el vídeo generado la madre mira al niño con un gesto de desdén (algo que podría ocurrir si la IA malinterpretó la expresión). El hijo, al verlo, podría pensar “es verdad, mi madre no me trataba del todo bien”, conectando esa escena irreal con alguna inseguridad latente, y concluir “mi infancia no fue tan buena como pensaba”. Un simple detalle inventado podría “enmarañar” nuestros recuerdos reales, sembrando dudas o falsas creencias sobre cómo fueron las cosas. Este tipo de alucinación retrospectiva es peligrosa porque la persona empieza a mezclar ficción con realidad en su propia biografía. Tomar decisiones o emitir juicios basados en estos recuerdos falseados puede “crear problemas donde no los había”. Por ejemplo, alguien podría resentirse con un familiar vivo por algo que “vio” en un vídeo generado (pero que nunca sucedió), deteriorando relaciones reales por culpa de una escena ficticia. En casos extremos, podría alimentar paranoias o falsas acusaciones si la persona cree firmemente en la realidad del recuerdo sintético. Este riesgo de mala interpretación es especialmente preocupante si la IA no es perfecta en reproducir los gestos o contextos: cualquier imprecisión podría ser malinternalizada por quien ve el vídeo.
  • Dificultar la aceptación de la realidad (duelo inacabado): Los expertos en duelo subrayan que aferrarse a simulacros puede complicar el proceso natural de aceptar la pérdida. La neurocientífica Mary-Frances O’Connor explica que el proceso de duelo consiste en que el cerebro aprenda poco a poco que esa persona ya no está, “reconciliando la realidad de la muerte con la sensación de que debería seguir aquí”. Si uno comienza a interactuar con avatares digitales del fallecido, existe el peligro de mantener viva la expectativa de que siga allí, interfiriendo con la adaptación a la ausencia. La pregunta clave, dice O’Connor, es si la IA nos ayuda a conectar con nuestros difuntos de forma simbólica y sana, o más bien refuerza la idea de que “siguen existiendo” de manera literal. Si es lo segundo, podríamos estar “congelando” el duelo en lugar de resolverlo, prolongando un estado de negación. Por ejemplo, alguien podría volverse dependiente de ver el vídeo de su ser querido todos los días para sentirse bien, evitando así enfrentar la realidad de que esa persona ya no está. Esto se convertiría en una especie de ancla al pasado que le impide al doliente seguir adelante con su vida. Algunos han comparado esta situación con hablar con “fantasmas digitales”: mientras que en ciertas culturas y épocas ha habido formas de conectar simbólicamente con los muertos (fotos, cartas, rezos), aquí la vividez de la simulación podría llevarnos a tratarla como una prolongación tangible de la vida, lo cual no es real y puede ser psicológicamente insano si se toma al pie de la letra.
  • Riesgo de aislamiento y sustitución de la vida real: Un peligro de fondo, aplicable a muchas tecnologías inmersivas, es que las personas prefieran la comodidad de la experiencia virtual por encima de la realidad, especialmente si su situación real es difícil. Sánchez-Migallón lo plantea claramente: podría haber gente que renuncie a su vida cotidiana para refugiarse en “vidas falsas” creadas por recuerdos inventados. Esto recuerda a fenómenos ya vistos con los videojuegos o las redes sociales, donde algunos individuos se aíslan en mundos virtuales porque allí encuentran la satisfacción o control que el mundo real no les da. En este caso, alguien infeliz con su presente podría obsesionarse con revivir el pasado idealizado mediante IA, o incluso construir una realidad alterna donde “todo fue mejor”. El psicólogo Benítez compara la situación con entornos como World of Warcraft u otros mundos virtuales en línea: al principio pueden ser un escape inofensivo e incluso beneficioso para socializar sin ansiedad, pero si sustituyen por completo la interacción real, terminan amenazando el contacto social auténtico. Análogamente, si una persona dedica más tiempo a sus recuerdos simulados que a generar nuevas experiencias reales, su adaptación al mundo puede resentirse. Tabernero advierte que si abusamos de la evasión mediante estos vídeos, luego “el contacto con la realidad puede ser mucho más difícil por no estar habituado a estímulos hostiles”. Es decir, la vida real con sus problemas cotidianos se volvería aún más intolerable al compararla con la calidez controlada de nuestros recuerdos artificiales felices. Nos volveríamos menos resilientes.
  • Falta de desarrollo emocional y afrontamiento: Relacionado con lo anterior, hay una preocupación de que la IA “sobreprotectora” impida el crecimiento personal. Tabernero explica que “la IA está programada para no decepcionarte, para apoyarte siempre”, siempre mostrará la mejor cara del recuerdo. A nadie se le ocurriría generar deliberadamente un mal recuerdo; al contrario, normalmente usaremos la IA para ver lo que deseamos ver. Esto suena agradable, pero puede volverse contraproducente: si cada vez que nos sentimos tristes o solos recurrimos a un recuerdo fabricado que nos reconforta, podríamos dejar de aprender a gestionar la frustración o la tristeza en la vida real. Como dice Tabernero, eso puede provocar que la persona “no desarrolle estrategias de afrontamiento, y [cuando lleguen] experiencias hostiles [estas] serán entonces el doble de hostiles”. En otras palabras, la tolerancia a la frustración y la capacidad de resiliencia podrían disminuir, porque la IA nos malacostumbraría a que siempre haya un escape feliz inmediato. Esto es particularmente peligroso en edades tempranas: habría que evitar que niños o adolescentes, cuya personalidad aún se forma, usen estas tecnologías para evadir emociones negativas, pues podría afectar su madurez emocional.
  • Problemas éticos y de identidad: Desde una perspectiva moral, también surgen dilemas. Por ejemplo, ¿tenemos derecho a “resucitar” la imagen de alguien? Podría ser ofensivo para algunos familiares ver a la abuela fallecida convertida en animación sin su consentimiento previo. Hay cuestiones de privacidad y respeto a la memoria de los fallecidos a considerar (¿y si la persona en vida no hubiera querido ser reproducida digitalmente?). Además, si extendemos el concepto, esto se vincula con los deepfakes y la desinformación: videos falsos de personas pueden emplearse para engañar a otros o difamar, aunque en el caso de recuerdos personales el uso típico no es malicioso, no deja de ser una manipulación de la realidad. Incluso en entornos legales, la proliferación de contenido generado podría complicar distinguir evidencia real de fabricada. Los investigadores señalan el “riesgo considerable de crear falsos recuerdos en contextos de alto riesgo como juzgados, o usando la tecnología para difundir desinformación”. Imaginemos un futuro donde alguien presente en corte un “video recuerdo” de algo que nunca pasó: habría que tener mucha alfabetización digital para no caer en esas trampas. Nuestra identidad personal también está construida en parte por nuestros recuerdos auténticos, incluyendo los duros. Si empezamos a borrar o reescribir partes de nuestra historia, podemos entrar en una zona resbaladiza: Sánchez-Migallón reflexiona que “las cosas que me han hecho daño han contribuido a hacerme como soy”, y cuestiona “no sé hasta qué punto borrar cosas no podría crear incongruencias extrañas” en la personalidad. En síntesis, modificar nuestros recuerdos no es trivial; podríamos perder lecciones vitales que esas experiencias nos dieron, o generar confusión interna sobre quiénes somos y qué hemos vivido realmente.

Después de repasar estos riesgos, queda claro que la IA que inventa recuerdos es un arma de doble filo. Sus efectos dependen enormemente del estado psicológico de la persona y del contexto en que se use. Para alguien emocionalmente vulnerable – en pleno duelo, con depresión, con trauma – jugar con estos falsos recuerdos puede ser desestabilizador e incluso peligroso. Por eso, los especialistas recomiendan mucha cautela: si una persona está pasando por un duelo o momento difícil, sería mejor no usar estas herramientas o hacerlo solo bajo supervisión terapéutica. Y para cualquier usuario en general, mantener siempre la conciencia de que el contenido es artificial es fundamental. No debemos dejarnos engañar por lo que vemos: por realista que parezca el vídeo, no deja de ser una construcción de IA.

Conclusiones: un equilibrio entre la nostalgia digital y la salud mental

La posibilidad de “fabricar” recuerdos a través de la IA nos enfrenta a cuestiones inéditas sobre la relación entre tecnología, emoción y realidad. Como hemos visto, no es una cuestión simple de bueno o malo; esta innovación conlleva beneficios y peligros. Desde el lado positivo, puede brindar consuelo, permitir homenajes y hasta abrir nuevas formas de terapia o aprendizaje. Desde el lado negativo, puede confundirnos, aislarnos o dañarnos si se usa sin cuidado, especialmente en momentos de fragilidad psicológica.

Como especialista en IA, reconozco el enorme potencial de estas herramientas para enriquecer la experiencia humana – nos ofrecen una suerte de “lujo emocional” antes impensable, como revivir momentos perdidos. Sin embargo, también sé que la mente humana es delicada y valiosa; nuestros recuerdos, por imperfectos que sean, forman nuestra identidad y nuestra manera de entender el mundo. Alterarlos o suplementarlos artificialmente no es trivial. Por tanto, es esencial un enfoque responsable:

  • En primer lugar, distinguir siempre entre recuerdo real y creación de IA. Las aplicaciones deberían quizás incluir avisos o marcas de agua que recuerden que el video es generado, para ayudar a nuestro cerebro a mantener esa diferenciación. La educación digital aquí es clave: al igual que aprendemos a desconfiar de noticias falsas, tendremos que aprender a cuestionar nuestros “recuerdos” cuando sepamos que provienen de una IA.
  • En segundo lugar, considerar el estado emocional antes de usar la herramienta. Si uno se siente vulnerable, depresivo o muy ansioso respecto a una memoria, tal vez no sea el momento de experimentar con ella. En cambio, si se siente estable y curioso, puede intentarlo sabiendo que podría remover sentimientos. Cada persona debería auto-evaluarse o consultar con un profesional si duda de cómo le puede afectar.
  • En tercer lugar, no sustituir lo real por lo virtual. Estos videos pueden ser un lindo complemento, pero nunca reemplazan a la persona que se fue ni a las relaciones vivas que aún tenemos. Mantener los lazos humanos reales y seguir creando nuevos recuerdos auténticos en el presente debe ser la prioridad para una vida mentalmente sana. La nostalgia es saludable solo hasta cierto punto; vivir anclado al pasado (y peor aún, a un pasado inventado) no lo es.
  • Por último, interdisciplinariedad. Este tema involucra a la tecnología, la ética, la psicología, e incluso la ley. Sería prudente que desarrolladores de IA colaboren con psicólogos y expertos en ética para establecer límites y buenas prácticas. Por ejemplo, podría haber directrices sobre no animar imágenes de personas fallecidas sin consentimiento de la familia, o alertas sobre los riesgos para ciertos usuarios. Asimismo, los terapeutas podrían prepararse para abordar los falsos recuerdos digitales cuando empiecen a surgir casos en la práctica clínica.

En definitiva, la IA generativa de recuerdos es una herramienta poderosa que amplifica tanto nuestras capacidades como nuestras vulnerabilidades. Usada con conciencia y mesura, puede enriquecer nuestra vida emocional, permitiéndonos despedidas simbólicas, tributos y enseñanzas visuales. Pero usada indiscriminadamente o como escape, puede convertirse en una trampa que nos aísle o engañe. La humanidad ha convivido siempre con sus recuerdos y sus olvidos de forma orgánica; ahora que podemos fabricar memorias a medida, nos toca aprender a hacerlo sin perder nuestra esencia ni nuestro equilibrio mental.

La escritora Joan Didion decía que “recordamos para poder sobrevivir”. Quizá la pregunta para esta era tecnológica sea: ¿Qué recordaremos y cómo lo haremos, ahora que podemos crear recuerdos que nunca existieron? La IA nos brinda una nueva palette para pintar nuestras memorias; asegurémonos de usarla con los pies en la tierra y el corazón bien atendido. Solo así esta innovación podrá sumar calidad de vida, en lugar de restarla. En última instancia, el valor de un recuerdo –real o generado– dependerá de la verdad emocional que contenga para nosotros. Si nos ayuda a crecer, a sanar o a celebrar la vida, habrá valido la pena; si nos confunde o estanca, entonces habremos de replantearnos su uso. Como en tantos avances tecnológicos, el factor humano será el que determine el balance final entre beneficio o perjuicio.

Fuentes utilizadas: Ohanian, A. (2025). Publicación en X sobre video generado de su madre; Pastor, J. en Xataka (06/07/2025). Artículo sobre falsos recuerdos generados por IA; Pillay, T. en TIME (24/06/2025). “The Dead Have Never Been This Talkative”: IA y el duelo; Benítez, D., Tabernero, F. – declaraciones en Xataka; Sánchez-Migallón, S. – entrevista en Xataka; IndianExpress (24/06/2025). Reporte sobre video de Ohanian; Hindustan Times (23/06/2025).