Deepfake, cuando la ficción se vuelve tecnología

En la reconocida obra literaria El retrato de Dorian Gray, Oscar Wilde resalta la idea de que un rostro puede mentir y que la belleza puede ocultar la corrupción más profunda. Dorian conservaba su apariencia mientras su alma se descomponía en un lienzo oculto. Hoy, esa ficción se vuelve tecnología: los rostros pueden ser máscaras y la identidad, una ilusión manipulable.
La revolución digital que nos prometió blindar la identidad a través de la biometría enfrenta una crisis grave. Investigaciones recientes revelan que las deepfakes logran burlar sofisticados sistemas de verificación de identidad (liveness detection) utilizados por bancos, fintechs y aplicaciones de pago. La certeza que alguna vez nos transmitió el reconocimiento facial –esa ilusión de que la imagen personal sería una llave infalible– empieza a resquebrajarse frente a un enemigo capaz de usar nuestro propio rostro como disfraz.
Recordemos que por dato biométrico entendemos cualquier información vinculada con rasgos físicos o conductuales que permitan identificar de manera única a una persona, desde una huella digital hasta la voz, el iris o el patrón de tecleo en un celular. Son datos sensibles, reconocidos como tales por las legislaciones avanzadas en materia de protección de datos personales, como el Reglamento General de Protección de Datos de la Unión Europea. A diferencia de una contraseña, no se pueden cambiar ni resetear. Si una clave se filtra, siempre es posible crear otra; si se compromete una huella o un rostro, la herida es permanente.
Vinculados a los datos biométricos, se han desarrollado los “sistemas de liveness detection”, diseñados para comprobar que la persona frente a la cámara es un ser humano real y no una imagen, un video o una animación manipulada. Para eso se suelen pedir parpadeos, giros de cabeza o sonrisas, o bien se analizan señales más sutiles, como la textura de la piel o la luz en los ojos.
Un interesante informe de fraude de Veriff 2025 (https://www.veriff.com/es) evidencia que los sistemas de live detection, previamente considerados robustos, comenzaron a ser vulnerados por ataques basados en deepfakes que pueden llegar a burlar sustancialmente (un porcentaje superior al 80% de la muestra tomada) esos sistemas en pruebas de penetración. En otras palabras, esos muros de seguridad que prometen detectar impostores se desmoronan ante la sofisticación de las deepfakes. Los ciberdelincuentes han logrado evadir controles biométricos en tiempo real usando rostros generados artificialmente, lo que representa un nuevo nivel de sofisticación en el fraude digital y subraya la necesidad urgente de reforzar la autenticación con tecnologías más avanzadas.
En la biometría ocurre algo parecido a lo que los romanos ya advertían en el derecho: no basta con cumplir un protocolo si no se garantiza lo que realmente importa. Si un sistema solo reproduce un procedimiento superficial, la forma queda vacía y la protección de la identidad queda desguarnecida. Por eso, la autenticación moderna exige controles multimodales: combinar la biometría facial con análisis de voz, patrones de comportamiento, microexpresiones y, sobre todo, con pruebas activas y aleatorias que dificulten cualquier reproducción automatizada. La idea es elevar la barra de seguridad: un solo candado aislado puede abrirse con una copia bien hecha, pero un conjunto de defensas coordinadas resulta mucho más difícil de vulnerar.
El resultado es inquietante: los fraudes de identidad basados en deepfakes crecieron exponencialmente, incluso en el nivel bancario, con pérdidas millonarias. En América Latina, el riesgo es tangible por la velocidad con que la población adoptó la banca digital, las billeteras virtuales y los sistemas de pago instantáneo. La presión por reducir el trámite de apertura de cuentas a apenas unos segundos llevó a muchas instituciones a implementar sistemas de verificación de identidad como un mero casillero de cumplimiento normativo. La paradoja es que el intento de blindar la identidad digital terminó generando una falsa sensación de seguridad, un escudo de papel frente a una tormenta de acero.
El trasfondo de esta crisis revela una contradicción propia de nuestra época: la obsesión por la inmediatez. Queremos abrir una cuenta bancaria en tres minutos, transferir dinero con un clic y pedir un crédito sin papeles y en esa carrera por la comodidad sacrificamos la robustez de los controles. Como diría Séneca, “nada es tan útil como aquello que se usa con prudencia”. Pero la prudencia se volvió incómoda en un mercado donde cada segundo de espera significa clientes que se van a la competencia. Así, la biometría se convirtió en un atajo de eficiencia más que en una verdadera garantía de autenticidad.
La asimetría es evidente: mientras la inteligencia artificial democratizó las herramientas para fabricar deepfakes –al alcance de cualquier usuario con un celular y conexión a internet–, las defensas más avanzadas siguen siendo costosas y limitadas. Este desbalance genera un ecosistema en el que los atacantes corren con ventaja y los defensores apenas intentan achicar los daños. Una versión moderna del viejo principio romano ubi commoda, ibi incommoda (“donde están los beneficios, allí también los perjuicios”): el mismo progreso que facilita la inclusión financiera abre la puerta a un nuevo tipo de fraude masivo.
Algunos dirán que exageramos, que siempre existió la falsificación: de billetes, de documentos, de firmas. Y es cierto. La diferencia es la escala. Lo que antes requería habilidad manual y complicidad interna hoy puede hacerse en serie y a distancia. El delincuente ya no necesita infiltrarse en una sucursal ni sobornar a un empleado: basta con generar un video convincente y lanzarlo contra los sistemas de validación. La clonación de la identidad se volvió industrial.
La serie Black Mirror (Netflix) nos enseñó a imaginar futuros distópicos en los que la tecnología se convierte en una trampa para el propio ser humano. Lo que entonces parecía ficción hoy se nos presenta como un espejo demasiado real: identidades robadas, rostros clonados y voces replicadas con precisión quirúrgica. Es la metáfora de un mundo en el que lo auténtico se vuelve indistinguible de lo falso y en el que la confianza se convierte en el recurso más escaso.
Vivimos, en definitiva, un nuevo “estado de naturaleza digital”, en el que cualquiera puede replicar un rostro y una voz con calidad hiperrealista. Eso requiere un acuerdo responsable entre innovación, seguridad y derecho. De lo contrario, corremos el riesgo de que la identidad digital, que alguna vez fue promesa de confianza, termine convertida en la ironía más peligrosa: su cara puede no ser su cara y su identidad, tampoco.
Abogado y consultor en Derecho Digital, Privacidad y Datos Personales; director del programa “Derecho al olvido y cleaning digital” de la UBA; profesor de la Facultad de Derecho UBA y Austral

lanacion