Elisandro SantosElisandro SantosElisandro Santos
(Argentina)
info@consultio.com
Argentina
Elisandro SantosElisandro SantosElisandro Santos
0

El KYC por video está muerto (o en terapia intensiva)

  • Home
  • IA
  • El KYC por video está muerto (o en terapia intensiva)

Introducción: Me acuerdo la primera vez que abrí una cuenta bancaria por internet y me pidieron un video selfie. “Mirá a la cámara, sonreí, mostrá tu DNI al lado de tu cara”. En ese momento pensé: “¡Qué tecnología! Si me están viendo en vivo, seguro no hay forma de engañarlos”. Era como una llave maestra de seguridad: si el banco me ve y me escucha en tiempo real, tiene que ser yo. Spoiler: ya no. En 2026 esa confianza se derrumbó. Una startup de IA llegó a proclamar que la verificación de identidad por video “está oficialmente muerta”. Y aunque suene exagerado, el sentimiento es compartido: las nuevas inteligencias artificiales generativas en tiempo real están demoliendo la poca certeza que teníamos frente a una cámara. 

Verificar la identidad de alguien a través de una videollamada o de un video en vivo –lo que en jerga financiera se conoce como video KYC (Know Your Customer por sus siglas en inglés)– se convirtió en práctica común. Bancos, fintechs, apps gubernamentales: todos adoptaron la selfie en vivo para asegurarse de que vos sos vos. Era la evolución lógica: pasamos de mostrar el DNI en persona, a subir una foto selfie, y finalmente a este video donde “te vemos respirando y moviéndote, entonces es real”. Durante un tiempo funcionó. Nadie con una simple foto podía superar el filtro de liveness (prueba de vida), ni con una máscara, ni con un video pregrabado. Pero apareció un nuevo jugador en escena –la inteligencia artificial generativa– y cambió las reglas del juego.

La máscara digital perfecta: IA generativa en tiempo real

Hoy, con un puñado de fotos tuyas sacadas de redes sociales, un delincuente puede crear un avatar digital que luce, actúa y habla igual que vos. Suena a ciencia ficción barata, pero es la realidad. Gracias a modelos de deepfakes entrenados con montones de imágenes, la IA puede aprender los rasgos de tu rostro y “imitar tus gestos” para aprobar controles que se suponían infalsificables. ¿Parpadear? Lo hace a comando. ¿Sonreír o girar la cabeza? También. Incluso puede recrear tu voz con tono, acento y muletillas. En pocas palabras, un deepfake puede mostrar tu cara… sin ser vos, con un realismo tal que engaña tanto a sistemas automáticos como a humanos desprevenidos. 

Veamos un ejemplo concreto y cotidiano: supongamos que una app bancaria te pide decir en voz alta tu nombre mirando a la cámara, como verificación. Un estafador con las herramientas adecuadas podría generar un video tuyo en tiempo real diciendo exactamente lo que la app espera oír y ver. Hay modelos de IA tan avanzados que logran vídeo HD on the fly. La empresa Decart AI, por caso, demostró en enero de 2026 su modelo “Lucy 2.0” capaz de editar y generar video 1080p a 30 cuadros por segundo en vivo, prácticamente sin retraso. Con esa tecnología, un impostor podría aparecer en pantalla en alta definición, con movimientos fluidos y expresiones creíbles, como si fuera la persona original. La idea de “lo veo en vivo, entonces es real” se diluye cuando sabemos que la IA está actuando de titiritero detrás de la imagen.

Evidencias de que el engaño ya ocurre

Todo esto no es teoría conspiranoica ni demo de laboratorio: ya está pasando, y las cifras lo confirman. Según un informe de Microsoft, los deepfakes usados para fraudes financieros crecieron más de 1000% en un año, sobre todo para suplantar identidades en procesos de verificación (KYC). Naranja X –una fintech Argentina– alertó en 2025 sobre esta “nueva estafa” donde los atacantes literalmente quieren robarte la cara para clonar tu identidad y cometer fraudes financieros. Los especialistas en ciberseguridad advierten que es alarmantemente fácil generar videos o fotos ultra realistas con IA, al punto que con tu foto del DNI y unos segundos de video pueden armar un “doble digital” tuyo capaz de pasar validaciones biométricas. Esa clonación luego sirve para: abrir cuentas bancarias a tu nombre, pedir préstamos, o acceder a cualquier servicio donde la verificación facial sea la llave. La Oficina de Seguridad del Internauta de España ya emitió alertas sobre criminales fabricando identidades falsas para saltar controles biométricos, y el Centro Criptológico Nacional advirtió en 2024 que los deepfakes se usan activamente en fraudes de identidad en servicios financieros –una tendencia que llegó a Latinoamérica… y rápido

Organismos internacionales también prenden las alarmas. El Instituto Nacional de Estándares y Tecnología (NIST) de EE.UU., en sus guías de 2023, reconoce que están emergiendo ataques que combinan inyección digital y generadores de IA para crear medios falsos (deepfakes) con el fin de burlar la validación de documentos, los sistemas biométricos e incluso a los agentes humanos que verifican identidades. Traducido: ningún método de verificación remota está a salvo. De hecho, NIST exige ahora que cualquier sistema de identificación digital remoto implemente detección de este tipo de fraudes, porque toda forma de prueba de identidad a distancia es vulnerable a ser engañada por un video o imagen falsificada. Por su parte, el Grupo de Acción Financiera Internacional (GAFI/FATF) –autoridad mundial en prevención de lavado de dinero– publicó un informe especial sobre AI y deepfakes. En él destaca que el fraude de identidad potenciado por deepfakes está en auge y que las fotos, voces o videos sintéticos permiten a criminales impersonar personas de forma convincente, “derrotando los chequeos KYC, el onboarding remoto, la verificación biométrica e incluso las pruebas de vida”. La propia FATF/GAFI advierte que los deepfakes ya pueden vencer los controles de liveness y biometría y pasar desapercibidos hasta que el daño está hecho. En otras palabras, el organismo que fija las reglas antilavado a nivel global nos está diciendo que no podemos fiarnos de lo que vemos en pantalla

Y por si fuera poco, en el subsuelo de internet se comercializan herramientas listas para delinquir con esto. Investigadores descubrieron en 2024 un software llamado ProKYC vendiéndose en foros clandestinos, diseñado específicamente para generar deepfakes y burlar la verificación por video en exchange de criptomonedas. El kit permitía a los estafadores crear cuentas nuevas verificadas pero sintéticas –con documentos falsos y cara falsa– para lavar dinero y cometer fraudes. Lo más inquietante es que los compradores del ProKYC lo calificaron positivamente en esos foros, señal de que funciona. ¿Hace falta ser un hacker experto? Ya ni eso: la IA como servicio fraudulento está al alcance de cualquiera con malas intenciones y unos pocos dólares. Un dato de Signicat (proveedor europeo de identidad digital) refuerza el punto: en tres años los intentos de fraude con deepfakes aumentaron un 2137%, pasando de ser casi irrelevantes a representar 1 de cada 15 intentos de fraude de identidad digital detectados. Dicho por una ejecutiva de esa empresa: “Tres años atrás los ataques deepfake eran el 0,1% de los fraudes que veíamos; hoy son ~6,5%… las técnicas basadas en IA superan lo que los sistemas tradicionales pueden detectar”. Clarito: los sistemas viejos ya no dan abasto.

Del banco a tu app: riesgos para todos los días

El problema ya no es teórico ni limitado a hackers de élite – nos afecta a todos en la vida cotidiana. Pensemos en las situaciones concretas:

  • Bancos y fintechs: Si las pruebas de vida por video pueden falsificarse, un estafador podría abrir una cuenta bancaria con una identidad robada sin jamás mostrar la cara real. Plataformas de pago y billeteras virtuales en Argentina (Mercado Pago, Ualá, Naranja X, por nombrar algunas) permiten crear cuentas mostrando DNI y rostro mediante la cámara. Hasta hace poco uno podía creer que ver a alguien parpadear frente al DNI era garantía de autenticidad. Ya no. Esto abre la puerta a préstamos sacados a tu nombrecuentas “mulas” para lavar dinero y fraudes diversos, todo con identidades falsas respaldadas por videos convincentes. Para el banco, encima, después es muy difícil distinguir al verdadero del falso cliente. Algunos casos han salido a la luz: en marzo de 2025, un ejecutivo en Singapur aprobó una transferencia de 500 mil dólares tras una videollamada con quien juraba ser su jefe –resultó ser un deepfake ultra sofisticado que imitó a la perfección la voz y rostro del CFO de la empresa. Si hasta profesionales financieros de alto rango pueden caer, ¿qué queda para procesos automatizados?
  • Trámites gubernamentales y documentación: En Argentina, aplicaciones como Mi Argentina o trámites de ANSES, AFIP, registros civiles, etc., empezaron a usar reconocimiento facial para validar identidades de forma remota. Esto agiliza muchísimo la vida –por ejemplo, renovar el registro o acceder a credenciales digitales sin moverse de casa–, pero si la selfie video que uno envía puede ser adulterada, estamos en problemas. ¿Qué impide a alguien con datos robados de tu DNI crear un video deepfake tuyo y, por ejemplo, obtener un certificado a tu nombre o reimprimir tu DNI digital? De hecho, ya hubo advertencias locales: una nota de Infobae en 2024 alertaba que delincuentes podían usar fotos de redes sociales para armar un deepfake y acceder a nuestras cuentas bancarias suplantando nuestro rostro. Mostraban cómo un usuario malicioso tomó la imagen de una persona online, generó un video falso de esa persona moviendo la cabeza, y logró pasar los controles faciales de una app bancaria. Incluso crearon un DNI apócrifo con IA para reforzar la estafa. O sea, podrían superar hasta el paso de “subí foto de tu documento y un video sosteniéndolo”. Impresionante y aterrador a la vez.
  • Suplantación en comunicaciones personales: Más allá de los procesos formales, esto da miedo en lo cotidiano. ¿Recibiste una videollamada de tu hijo, tu pareja o tu mamá pidiéndote algo urgente? Antes uno dudaba de un mensaje de texto o un audio de WhatsApp (“¿será o no será?”), pero si vemos a la persona al otro lado, tendemos a creer. Esa confianza visual ahora puede ser explotada. Ya se reportaron intentos de estafa donde criminales utilizan deepfakes en videollamadas haciéndose pasar por familiares en aprietos o por jefes solicitando transferencias urgentes. La clásica estafa del “cuento del tío” ahora viene con video en HD. Nuestra percepción de “lo vi con mis propios ojos” ya no es sinónimo de verdad. Y eso tiene consecuencias psicológicas profundas: empezamos a desconfiar hasta de una cara conocida en pantalla.
  • Seguridad informática y autenticación: Algunos sistemas de acceso comenzaron a usar biometría facial como contraseña (por ejemplo, para desbloquear cuentas, autorizar pagos mayores, etc.). Si un atacante logra interponer un feed de video sintético en lugar de tu cámara (lo que se conoce como ataque de inyección), puede engañar incluso a estos mecanismos. Empresas de ciberseguridad como Veridas, iProov y otras están trabajando contra reloj en “liveness detection” más robusta – detección de vivacidad – para distinguir un humano real de una animación. Se habla de análisis de reflejos en los ojos, movimientos sutiles de la piel, detección de latencia en la señal… Pero es una carrera de gato y ratón: por cada mejora de detección, la generación de fakes también mejora. La FATF lo describió perfecto: esto se volvió una “carrera armamentista tecnológica” donde instituciones y estafadores compiten para superar al otro. Por ahora, los defensores vamos perdiendo algunos pasos.

¿Y ahora en quién confiamos?

Llego a este punto y confieso que la situación da un poquito de vértigo. Si ni viendo a alguien a la cara por video podemos estar seguros de su identidad, ¿cómo seguimos adelante?. Es una pregunta abierta que nos atraviesa a todos, desde los bancos más grandes hasta el ciudadano que hace un trámite online. ¿Volveremos a la ventanilla física, a la vieja usanza, presentando DNI en mano frente a un empleado humano? Sería un retroceso incómodo en plena era digital. ¿O desarrollaremos métodos de autenticación totalmente nuevos, quizá combinando múltiples factores al punto de que falsificar todo sea inviable? Tal vez la solución implique capas de verificación: no confiar en un solo elemento (por ejemplo, el rostro en video), sino sumar análisis de comportamiento, confirmaciones cruzadas, pruebas aleatorias que sean difíciles de predecir para una IA impostora. Ya se habla de pedirle a la persona que durante el video haga acciones inesperadas (mencionar una palabra al azar, mover un objeto frente a cámara) para pillar en offside al deepfake. Algunas instituciones combinan esto con la buena práctica de verificar por un segundo canal: si alguien pide algo por videollamada, te llamo por teléfono aparte para corroborar, por ejemplo. Claro que esto último no escala muy bien y vuelve a meter al humano en el circuito. 

El panorama es inquietante. La erosión de la confianza en lo que vemos y oímos digitalmente puede tener consecuencias enormes. Un informe reciente describía el fenómeno como “deepfake fatigue”, una fatiga o erosión de la confianza, donde empezamos a dudar de todo contenido audiovisual. Y la confianza es el pegamento de muchas interacciones: la banca online, las transacciones, la comunicación remota con seres queridos o colegas de trabajo. Si ese pegamento se diluye, nos enfrentamos a un dilema: o volvemos a interacciones analógicas (presenciales) o encontramos una nueva manera de generar confianza en entornos virtuales. 

No tengo la respuesta mágica (¡ojalá la tuviera!). Pero sí tengo claro que el KYC por video, tal como lo conocemos, ya fue. Murió o está en coma, y sería necio sostener lo contrario viendo lo que la IA ya es capaz de hacer. Como profesional que sigue de cerca estos temas, me toca una mirada crítica pero también propositiva: esta crisis de confianza podría impulsarnos a innovar en seguridad. Quizá la solución venga de la misma mano de la IA, entrenando algoritmos detectores de falsos cada vez más finos, o integrando autenticación biométrica con otros factores (geolocalización, actividad reciente, etc.) para pintar un panorama más difícil de falsificar. Las recomendaciones de organismos son claras: múltiples capas, herramientas anti-deepfake, colaboración entre industrias. Habrá que hacerlo, y rápido. 

Cierro con una imagen para reflexionar: la próxima vez que estés en una videollamada y veas la cara sonriente de alguien del otro lado… ¿te vas a preguntar si es real? Yo, lamentablemente, sí. Vivimos en la era en que ver (ya) no es creer. Y hasta que reinventemos la confianza digital, más vale mantener un sano escepticismo. ¿Cómo vamos a confiar en lo que vemos en pantalla? Esa es la pregunta que queda flotando, y cuya respuesta tendremos que construir entre todos. 

Fuentes: La información y datos citados provienen de informes de seguridad y estándares internacionales (NIST, FATF/GAFI), reportes de la industria (Microsoft Cyber Signals 2024 via Naranja X, estudio de Signicat) y casos documentados por la prensa (Infobae, blog Tookitaki, entre otros), que se han referenciado a lo largo del texto. Estas fuentes respaldan la magnitud real del problema: los deepfakes ya están aquí, poniendo en jaque la verificación de identidad por video en todo el mundo.

Citas

Nueva estafa: Quieren robarte tu cara para crear deepfakes con IA

https://www.naranjax.com/blog/la-nueva-estafa-que-quiere-robarte-tu-cara-para-crear-deepfakes-con-iaNueva estafa: Quieren robarte tu cara para crear deepfakes con IAhttps://www.naranjax.com/blog/la-nueva-estafa-que-quiere-robarte-tu-cara-para-crear-deepfakes-con-iaNueva estafa: Quieren robarte tu cara para crear deepfakes con IAhttps://www.naranjax.com/blog/la-nueva-estafa-que-quiere-robarte-tu-cara-para-crear-deepfakes-con-iaNueva estafa: Quieren robarte tu cara para crear deepfakes con IAhttps://www.naranjax.com/blog/la-nueva-estafa-que-quiere-robarte-tu-cara-para-crear-deepfakes-con-iaNueva estafa: Quieren robarte tu cara para crear deepfakes con IAhttps://www.naranjax.com/blog/la-nueva-estafa-que-quiere-robarte-tu-cara-para-crear-deepfakes-con-iaNueva estafa: Quieren robarte tu cara para crear deepfakes con IAhttps://www.naranjax.com/blog/la-nueva-estafa-que-quiere-robarte-tu-cara-para-crear-deepfakes-con-iaNIST Special Publication 800-63Ahttps://pages.nist.gov/800-63-4/sp800-63a.htmlNIST Special Publication 800-63Ahttps://pages.nist.gov/800-63-4/sp800-63a.htmlFATF Horizon Scan: AI & Deepfakes — Impacts on AML/CFT/CPF – Lexologyhttps://www.lexology.com/library/detail.aspx?g=9fbc8105-989b-4e89-9051-f02f213e62aeFATF Horizon Scan: AI & Deepfakes — Impacts on AML/CFT/CPF – Lexologyhttps://www.lexology.com/library/detail.aspx?g=9fbc8105-989b-4e89-9051-f02f213e62aeProKYC Deepfake Tool for Account Fraud Attacks | Cato Networkshttps://www.catonetworks.com/blog/prokyc-selling-deepfake-tool-for-account-fraud-attacks/ProKYC Deepfake Tool for Account Fraud Attacks | Cato Networkshttps://www.catonetworks.com/blog/prokyc-selling-deepfake-tool-for-account-fraud-attacks/Fraud attempts with deepfakes have increased by… – Signicathttps://www.signicat.com/press-releases/fraud-attempts-with-deepfakes-have-increased-by-2137-over-the-last-three-yearThe Deepfake Deception: How a CEO Video Call Cost $499K in Singaporehttps://www.tookitaki.com/blog/deepfake-ceo-scam-singapore-2025?utmThe Deepfake Deception: How a CEO Video Call Cost $499K in Singaporehttps://www.tookitaki.com/blog/deepfake-ceo-scam-singapore-2025?utmRoban dinero de cuentas bancarias suplantando el rostro del cliente, conoce la estafa con IA – Infobaehttps://www.infobae.com/tecno/2024/03/29/roban-dinero-de-cuentas-bancarias-suplantando-el-rostro-del-cliente-conoce-la-estafa-con-ia/Roban dinero de cuentas bancarias suplantando el rostro del cliente, conoce la estafa con IA – Infobaehttps://www.infobae.com/tecno/2024/03/29/roban-dinero-de-cuentas-bancarias-suplantando-el-rostro-del-cliente-conoce-la-estafa-con-ia/Roban dinero de cuentas bancarias suplantando el rostro del cliente, conoce la estafa con IA – Infobaehttps://www.infobae.com/tecno/2024/03/29/roban-dinero-de-cuentas-bancarias-suplantando-el-rostro-del-cliente-conoce-la-estafa-con-ia/https://www.fatf-gafi.org/content/dam/fatf-gafi/reports/Horizon%20Scan%20AI%20and%20Deepfakes.pdf.coredownload.inline.pdfhttps://www.fatf-gafi.org/content/dam/fatf-gafi/reports/Horizon%20Scan%20AI%20and%20Deepfakes.pdf.coredownload.inline.pdfNIST Special Publication 800-63Ahttps://pages.nist.gov/800-63-4/sp800-63a.htmlThe Deepfake Deception: How a CEO Video Call Cost $499K in Singaporehttps://www.tookitaki.com/blog/deepfake-ceo-scam-singapore-2025?utmFATF Horizon Scan: AI & Deepfakes — Impacts on AML/CFT/CPF – Lexologyhttps://www.lexology.com/library/detail.aspx?g=9fbc8105-989b-4e89-9051-f02f213e62aeFATF Horizon Scan: AI & Deepfakes — Impacts on AML/CFT/CPF – Lexologyhttps://www.lexology.com/library/detail.aspx?g=9fbc8105-989b-4e89-9051-f02f213e62ae

Leave A Comment

We provide expert guidance and personalized strategies to help you achieve financial growth.

Elgin St. Celina, Delaware 299
Call Us: (603) 555-0123
Mon - Sat: 8.00am - 18.00pm

At vero eos et accusamus et iusto odio digni goikussimos ducimus qui to bonfo blanditiis praese. Ntium voluum deleniti atque.

Melbourne, Australia
(Sat - Thursday)
(10am - 05 pm)
Shopping Cart (0 items)