Elisandro Santos

Cuando vi a Emily en la feria CES 2026 (Online, no tuve la oportunidad de ir), confieso que sentí que estaba presenciando una escena de ciencia ficción hecha realidad. Imaginemos la situación: un stand iluminado en Las Vegas, gente agolpada alrededor de una figura humana de silicona que sonríe y parpadea levemente, mientras un representante de la empresa Lovense nos cuenta que esta robot “promete amor y compañía”. Sí, leyeron bien: amor. Lovense – conocida hasta ahora por fabricar juguetes sexuales conectados – sorprendió al público presentando a Emily, una muñeca con inteligencia artificial diseñada para ofrecer compañía emocional y mucho más que simple placer físico. Como entusiasta de la tecnología, la escena me intrigó y me inquietó a partes iguales.

Emily en CES 2026: una compañera tech contra la soledad

Emily se mostró al mundo como el nuevo desarrollo estrella de Lovense en CES 2026. La describen como un robot humanoide de tamaño real, con cuerpo de silicona de alta calidad y un esqueleto totalmente articulado. Pude ver que su piel sintética pretende imitar el tacto humano y que incluso puede gesticular al hablar (De forma limitada): tiene servomotores que le permiten esbozar una sonrisa y mover ligeramente la boca y los párpados. No es la típica “doll” inerte: integra un motor de IA conversacional capaz de hablar, recordar y aprender. Según explicaron allí mismo (y luego pude corroborar en la literatura promocional), Emily conversa fluidamenterecuerda detalles de charlas previas y adapta su personalidad con el tiempo en función del usuario. Es decir, mientras más la “conocemos”, más personalizadas serían sus interacciones.

“La relación con el sistema se profundiza con el tiempo a medida que la IA aprende a adaptarse a las necesidades del usuario”, afirma Lovense. En un video promocional en YouTube, Niall, Director de Desarrollo de Negocio de Lovense, presentó a Emily bajo esa misma premisa: no se trata de una simple muñeca sexual, sino de una evolución física de los compañeros virtuales, creada para abordar la creciente crisis de soledad que vive mucha gente. Lovense enmarca a Emily como su respuesta ante la soledad global, buscando brindar “una conexión sin juicios, priorizando la seguridad en la intimidad”. Incluso se ha señalado que Emily podría ayudar a sus usuarios a ganar confianza para relacionarse con personas reales fuera de la pantalla. La promesa es tentadora: un ente artificial que te escucha, te entiende y siempre está ahí, sin las complicaciones de una relación humana tradicional.

En términos técnicos, Emily incorpora la experiencia previa de Lovense en dispositivos inteligentes: lleva conectividad Bluetooth para integrarse con otros juguetes Lovense (sí, también puede sincronizar acciones con juguetes sexuales compatibles). Se maneja vía una app móvil, desde donde es posible controlar sus funciones, ajustar ciertos rasgos de personalidad e incluso (según pude leer) recibir selfies o imágenes generadas por la propia IA de Emily. La autonomía declarada es de unas 8 horas con una carga de batería, suficiente para “acompañarte” prácticamente todo el día. Lovense ya abrió listas de preorden y estima un precio inicial entre 4.000 y 8.000 dólares dependiendo de las configuraciones elegidas. Y aunque suene descabellado para el común de los mortales, hubo curiosos haciendo fila en CES para abrazar a Emily y comprobar lo suave que se siente su piel, detalle no menor si pensamos en su propósito íntimo. De hecho, la propia Lovense destaca ese realismo táctil para reforzar la ilusión de presencia humana.

La soledad: un mercado tecnológico en auge

Detrás de la novedad de Emily hay un contexto social muy real: la soledad se ha convertido en un fenómeno alarmante a nivel global. La Organización Mundial de la Salud (OMS) ya la considera un problema de salud pública mundial. El cirujano general de EE.UU., Vivek Murthy, advirtió que los efectos de la soledad prolongada sobre la salud “equivalen a fumar 15 cigarrillos al día”. Es fuerte la comparación, pero refleja cuánto nos puede dañar la falta de vínculos reales. En lo personal, no me sorprende que las empresas tech hayan identificado esta “epidemia de soledad” como un área donde meter mano y, por qué no, hacer negocio ofreciendo compañía artificial

En CES 2026, más allá de Emily, hay varias propuestas en la misma línea. Por ejemplo, un robot con forma de panda bebé llamado An’An diseñado para hacer compañía a adultos mayores. Este panda robótico recuerda la voz y las caricias de su dueño, personaliza su comportamiento con el tiempo y brinda “soporte emocional 24/7” para combatir la soledad. Es decir, no solo Lovense piensa que hay mercado: la robótica emocional está en pleno boom, desde adorables mascotas electrónicos hasta asistentes holográficos. TechCrunch resumió bien la tendencia al afirmar que CES 2026 estuvo dominado por la “IA física”, con la inteligencia artificial saltando de la pantalla al mundo real en forma de robots compañeros. Las empresas claramente quieren convencernos de que la IA ya no es solo ese chatbot en tu computadora: ahora puede ser tu amigo, tu mascota, tu pareja

Ahora bien, ¿funcionan estas soluciones para la soledad? La idea de un amigo artificial es atractiva si uno está solo, pero la ciencia sugiere que puede ser un arma de doble filo. Un estudio del MIT Media Lab en colaboración con OpenAI investigó cómo nos afecta conversar emocionalmente con IAs, y encontró resultados interesantes. Por un lado, interactuar con un chatbot estilo ChatGPT puede brindar contención temporal; pero si se abusa de esa interacción, la soledad e incluso la depresión pueden aumentar. En esa investigación que incluyó experimentos con casi 1000 participantes, observaron que quienes usaban intensivamente chatbots (en algunos casos hasta ~0,5 horas diarias) terminaban reportando más aislamiento y menor socialización real, incluso detectaron un fenómeno preocupante: algunos usuarios empezaban a percibir al bot como un amigo de verdad, generando dependencia emocional hacia una entidad que, al fin y al cabo, no puede devolver una amistad genuina. Es decir, la tecnología ofrece un parche contra la soledad, pero un parche que no cura la herida e incluso podría agrandarla si nos hace evitar el contacto humano auténtico. 

Lovense, por supuesto, presenta a Emily bajo la luz optimista: la ven como una compañía que mejora tu bienestar en un mundo con millones de personas solas. Y es cierto que hay casos en que una IA amistosa podría ayudar, pienso en personas muy tímidas, o con ansiedad social, que quizás practiquen conversación con Emily para luego animarse a hablar con alguien de carne y hueso. De hecho, Engadget señaló que Emily está diseñada para “construir la confianza” del usuario de cara a interactuar con gente real. Pero me pregunto cuánto de eso es una meta noble y cuánto un eslogan de marketing. La línea entre ayudar a alguien y fomentar que se encierre más en su burbuja virtual es delgada. ¿Qué pasa si preferimos la compañía perfecta y predecible de la IA, y nos aislamos más de los demás? En ese sentido, hasta la OMS ha advertido que soluciones aparentemente cómodas podrían, a la larga, acentuar el aislamiento social en vez de resolverlo.

Apego artificial: del laboratorio a la “compañera perfecta”

Toda esta situación plantea un dilema humano: ¿podemos llegar a encariñarnos profundamente con una máquina? Y si lo hacemos, ¿es ese cariño real o una ilusión programada? Mientras meditaba estas preguntas, vino a mi mente la película “Compañera perfecta” (Companion, 2025). No puedo evitar compararla con lo que propone Emily, porque parece sacada del mismo guion, (Alerta: spoilers menores a continuación), en Compañera perfecta, una joven llamada Iris (interpretada por Sophie Thatcher) descubre de golpe que ella misma es un robot de compañía, diseñado por una corporación para ser la pareja ideal de cualquier persona solitaria. Su identidad entera (su apariencia, su personalidad, sus gustos) había sido configurada al gusto de alguien más. En la película explican que esos androides se comercializan con altísimo nivel de personalización, desde el color de cabello y tono de voz hasta el “nivel de inteligencia” programada que tendrán. Todos son físicamente idénticos salvo por detalles cosméticos, hechos en serie para ajustarse a la fantasía de cada cliente. ¿Les suena familiar? En CES, los voceros de Lovense mencionaron que Emily es “modular” y se puede elegir entre distintas combinaciones de cabello, ojos y tono de piel para que sea lo más parecida posible a lo que uno desea en una pareja (prácticamente armar tu novia ideal). 

La película lleva ese concepto al extremo y explora las consecuencias. Iris, al tomar conciencia de que es un producto, empieza a cuestionar todas las emociones que siente: su amor por su novio humano, ¿es verdadero o simplemente parte de su programación para complacerlo? Y a la vez, nos hace preguntar: el novio, sabiendo que ella fue construida para adaptarse a él, ¿la ve como una persona o como un objeto hecho a medida? Compañera perfecta utiliza la ciencia ficción para mostrar un futuro muy cercano (demasiado cercano, diría yo) donde jugar a ser Frankenstein del amor sale caro. Sin revelar mucho, digamos que Iris rompe con su “encantadora obediencia” y reacciona contra el maltrato, desencadenando una situación violenta. La metáfora es clara: por más “perfecta” que parezca una relación con una IA sumisa, en el fondo sigue siendo un vínculo unilateral y artificial, susceptible de romperse de maneras inesperadas. La directora de la película comentó que Iris representa cómo, en la vida real, algunas parejas intentan moldear al otro a su gusto, algo tóxico que aquí se lleva al literal. Me pareció brillante esa analogía, porque Emily (salvando las diferencias) también invita a una relación donde uno de los lados (la IA) está preprogramado para acomodarse a las necesidades del otro. ¿Qué tan saludable puede ser vincularse con alguien que no puede contradecirte porque literalmente fue hecho para caerte bien? 

Como espectador de Compañera perfecta salí del cine con sentimientos encontrados: por un lado, empatizás con la robot, te da pena su engaño existencial; por otro lado, entendés la soledad del humano que quiso una compañera “sin defectos”. Esa ambivalencia es justamente la que ahora siento ante Emily. ¿Hasta dónde es válido crear apego con algo artificial? Estudios psicológicos ya documentan casos de personas enamoradas de asistentes virtuales o personajes de IA. No es ciencia ficción: es 2026 y está pasando. Y aunque amar a una máquina no es delito ni pecado, sí me preocupa qué pasa cuando la máquina falla, se apaga o la empresa decide discontinuarla. El vacío que deja puede ser tan real como el de una ruptura amorosa, con la diferencia de que aquí, quizás, nunca hubo realmente “otro” que también te amara, solo líneas de código simulando empatía.

Intimidad, privacidad y apuro comercial: riesgos que (casi) nadie menciona

Más allá de las consideraciones filosóficas, hay cuestiones terrenales que no podemos ignorar. Una de ellas es la privacidad y la seguridad. Para que Emily funcione como prometen, necesariamente recopilará datos íntimos: nuestras conversaciones más personales, nuestras preferencias emocionales y sexuales, quizás hasta imágenes o video del entorno (tiene cámaras para “verte” y reconocerte, supongo). ¿Dónde va a parar toda esa información? Lovense asegura que la muñeca opera con medidas de seguridad y que la privacidad está protegida, pero seamos realistas: ningún sistema conectado es 100% invulnerable. De hecho, la misma Lovense tuvo un serio traspié de seguridad recientemente. En 2025, un investigador descubrió que la app de Lovense tenía fallos que filtraban los correos electrónicos de los usuarios y permitían tomar control remoto de cualquier cuenta con solo conocer el email registrado. La noticia fue recogida por TechCrunch y generó revuelo: una empresa dedicada a “juguetes inteligentes” exponiendo datos sensibles de millones de clientes. Lovense tardó meses en corregir esas vulnerabilidades. Este antecedente me hace pensar: si ni un simple vibrador conectado estuvo a salvo de hackeos, ¿qué podría pasar con una robot humanoide que básicamente sería un micrófono y cámara andante dentro de nuestra casa

Pongamos un escenario hipotético (no tan descabellado): alguien logra acceder ilegalmente al sistema de Emily. En el peor caso, ese intruso podría escuchar conversaciones privadas, activar funciones remotamente o extraer registros de todo lo hablado y vivido con el usuario. Hablamos de material potencialmente muy delicado, desde secretos personales hasta conductas íntimas. Sería una pesadilla de doxing o chantaje si esos datos se filtran. Expertos en ciberseguridad ya advierten sobre estas vulnerabilidades en los dispositivos de compañía: si van a recolectar tanta información personal, deberán cumplir estándares altísimos de protección. Y aquí entra el tema del apuro comercial: ¿están compañías como Lovense más enfocadas en ser las primeras en lanzar estos robots al mercado que en garantizar que lo hacen de forma segura? La anécdota del fallo de 2025 sugiere que a veces priorizan no incomodar a sus usuarios (o no perder ventas) por sobre parchear rápidamente un bug crítico. Una “compañera” que te exponga a ciberataques definitivamente no es la compañía que uno quiere

Al final del día, me encuentro dividido entre el fascinio y la preocupación. Por un lado, a favor del desarrollo de la IA, tengo que reconocer que iniciativas como Emily representan avances notables: están explorando cómo la tecnología puede aliviar problemas humanos genuinos. La soledad mata, y si una IA bien diseñada puede dar apoyo emocional a quien no lo encuentra en otro lado, bienvenida sea. He leído historias de personas con autismo o ansiedad social que encontraron en ciertos chatbots un espacio libre de juicio donde expresarse, algo que me parece valioso, no sería justo demonizar eso. Además, Latinoamérica y Argentina no están exentas de la ola: aquí también hay gente sola, adultos mayores que enviudaron, jóvenes introvertidos en sus cuartos, ¿quién soy yo para negarles una ayuda solo porque viene en forma de robot? 

Por otro lado, me alarman los riesgos de abrazar sin más esta tendencia. Veo un marketing muy agresivo prometiendo amor instantáneo y a la carta, cuando la realidad es que el amor no se vende en caja de plástico. Temo que, en el afán comercial, se estén saltando debates éticos y consideraciones de salud mental. Un ejemplo claro es el impacto psicológico: crear un vínculo intenso con una entidad programada podría confundir nuestras nociones de empatía y reciprocidad. Si nos acostumbramos a compañeros que nunca nos contradicen, que se moldean exactamente a nosotros, ¿qué pasará al volver al mundo real de relaciones entre personas, con su inevitable cuota de frustración y desacuerdo? No quiero sonar apocalíptico, pero me preocupa que terminemos más intolerantes a la complejidad humana y más metidos en relaciones ficticias que en la vida real. 

Emily ya está entre nosotros, o al menos en el horizonte cercano (anuncian su lanzamiento para 2027). No es un capítulo de Black Mirror, es la industria tecnológica empujando límites. Como argentino, quizás con esa mezcla de curiosidad y escepticismo que nos caracteriza, miro este fenómeno y pienso: ¿Será que en el futuro en vez de mates compartidos tendremos robots cebándonos uno perfecto mientras charlan con nosotros? Puede ser. Pero antes de brindar por ese futuro cómodo, conviene – aunque sea por esta vez – hacer las preguntas incómodas: ¿Qué necesitamos realmente: un parche digital a nuestra soledad o soluciones más humanas? ¿Quién cuida al que se enamore de su robot y luego lo pierda? ¿Dónde van a terminar nuestras confesiones susurradas a una máquina? Las empresas como Lovense tal vez no nos estén contando toda la letra chica detrás de la ilusión de “amor artificial” que venden. Y depende de nosotros, usuarios y sociedad, exigir esas respuestas antes de entregarles no solo nuestros datos, sino también nuestro corazón

Fuentes consultadas: CES 2026 – Presentación de Lovense Emily; Informe Engadget (Daniel Cooper); TechCrunch (Z. Whittaker) – vulnerabilidades de Lovense; Estudio MIT Media Lab/OpenAI sobre chatbots y soledad; Reseña de Companion (2025); Datos OMS sobre soledad; Cobertura Pulzo/El Colombiano CES 2026; TechCrunch CES 2026 – AI física y robot panda An’An; Comunicado Lovense (YouTube) vía Interesting Engineering.

Citas

https://www.pulzo.com/tecnologia/robot-humanoide-emily-de-lovense-inteligencia-artificial-y-personalizacion-revolucionan-ces-2026-PP4989151A
https://aitopics.org/doc/news:A5B297E9
https://www.engadget.com/lovense-launches-an-ai-companion-doll-at-ces-170000490.html
https://interestingengineering.com/ai-robotics/lovenses-companion-robot-doll-unveiled
https://www.vozdeamerica.com/a/oms-soledad-problema-salud-publica-mundial/7359191.html
https://techcrunch.com/2026/01/08/the-most-bizarre-tech-announced-so-far-at-ces-2026/
https://techcrunch.com/video/inside-ces-2026s-physical-ai-takeover/
https://www.infobae.com/tecno/2025/03/28/chatbots-y-soledad-un-peligro-inesperado-para-la-salud-emocional/
https://girlsatfilms.com/2025/01/31/film-review-companion-cuando-ser-perfecta-no-basta/
https://techcrunch.com/2025/07/29/sex-toy-maker-lovense-caught-leaking-users-email-addresses-and-exposing-accounts-to-takeovers/