La verdad en crisis: deepfakes y el futuro de la investigación digital
En un mundo donde una imagen ya no garantiza lo que promete y donde un video puede construirse sin que la escena haya existido, la irrupción de los deepfakes plantea un desafío sin precedentes para la justicia, los medios y la ciudadanía. La masificación de la Inteligencia Artificial generativa está transformando la forma en que nos informamos, debatimos y tomamos decisiones. Y, sobre todo, está obligando a repensar el rol de quienes investigan delitos digitales en Argentina.
Durante los últimos meses, circularon diversos casos de videos manipulados que involucraron a figuras públicas y ciudadanos comunes. No se trató solo de falsificaciones: se trató de una crisis de confianza. Como señala el profesor Luis Morales en sus clases de Evidencia Digital y Threat Intelligence, “el mayor riesgo ya no es la mentira en sí misma, sino la capacidad de hacerla indistinguible de la verdad”. Desde esta perspectiva, el deepfake no es solo una herramienta técnica, sino un arma cognitiva que apunta directamente a la percepción social.
La capacidad de generar contenido falsificado de alta calidad ya no está limitada a expertos: hoy cualquier persona puede producir un video apócrifo en minutos. Esto democratizó la manipulación digital y abrió la puerta a nuevas modalidades de fraude, extorsión, difamación y campañas de desinformación. El resultado es un ecosistema donde la autenticidad se vuelve frágil y donde la verificación se transforma en una tarea imprescindible.
En el aula, el profesor Morales trabaja con los estudiantes cómo analizar críticamente la evidencia digital y cómo interpretar el comportamiento de los actores que operan en el entorno delictivo online. Más que centrarse en técnicas específicas, pone el foco en desarrollar un criterio investigativo sólido: comprender cuándo un contenido puede ser dudoso, por qué podría haber sido creado y qué efectos busca generar en la víctima o en la opinión pública. Como remarca en sus clases, el desafío no es únicamente detectar si un material fue manipulado, sino entender el contexto criminal y estratégico que lo rodea. Este enfoque integral, propio del área de threat intelligence, es clave para formar profesionales capaces de enfrentar fenómenos digitales cada vez más complejos.
Por su parte, Luciano Monchiero, director de la Especialización en Cibercrimen, [VR1.1]destaca que la problemática trasciende la técnica y se vuelve un fenómeno social y jurídico: “Estamos frente a un nuevo tipo de evidencia, que exige repensar conceptos clásicos como autenticidad, integridad y prueba digital. Una investigación que dependa de un video no puede avanzar sin un proceso riguroso de validación técnica. Pero, además, necesitamos educar a la sociedad para que comprenda que la confianza digital es algo que se construye, no que se da por sentado”.
Monchiero subraya que este contexto redefine el perfil profesional requerido por empresas, organismos estatales y el sistema judicial. Los especialistas en cibercrimen deberán dominar tanto la investigación digital como la interdisciplinariedad: derecho, comunicación, análisis del comportamiento, gestión de crisis y políticas de protección de evidencia. Ya no se trata solo de “detectar un video falso”, sino de darle sentido dentro de un ecosistema donde la manipulación digital puede incidir en elecciones, mercados, reputaciones e incluso en la seguridad personal.
El impacto es profundo: la humanidad ingresó a la era donde la duda se volvió estructural. Un video ya no es suficiente para demostrar un hecho, una captura de pantalla no garantiza identidad, y un audio puede ser fabricado con dos clics. Frente a esta nueva realidad, las capacidades investigativas del Estado, las organizaciones y los profesionales deben fortalecerse con rapidez.
La Especialización en Cibercrimen aborda estos desafíos desde una perspectiva práctica: análisis de evidencia digital, threat intelligence aplicado a actores que utilizan IA, prácticas de investigación que integran criminología, tecnología y derecho digital, y una formación orientada a comprender cómo se construye —y cómo se protege— la verdad en entornos digitales.
Porque en un entorno saturado de información manipulada, la verdad ya no se encuentra: se investiga. Y quienes lideren esa tarea serán los profesionales capaces de comprender el funcionamiento profundo de la IA, sus riesgos y sus implicancias jurídicas y sociales.