LA TÉCNICA DEEPFAKE: ¿QUÉ ES Y POR QUÉ PUEDE SER PELIGROSA?

¡Compártelo!
Facebook
Twitter
LinkedIn

En la actualidad existen muchos métodos o técnicas de edición que te sorprenderán, Deepfake es una de ellas, es un término considerado una de las amenazas de desinformación más recientes en la red mundial. Una imagen y un sonido falsos que parecen reales gracias al retoque asistido por IA pueden convertirse en una nueva e incluso peor cara de noticias falsas. Seguidamente te mostrare todo lo que debes saber sobre la técnica de dDeepfake y porque puedes ser peligrosa utilizarla:

¿Qué es deepfake?

Deepfake es una combinación de palabras creada a partir de los términos aprendizaje profundo y significa materiales audiovisuales elaborados con el uso de técnicas de IA en los que rostros, voces y gestos generados artificialmente toman la forma de personas reales. La red neuronal utilizada para este propósito analiza patrones de habla y expresiones faciales para crear una figura sintética capaz de expresarse de una manera casi idéntica al «original”.

El término apareció por primera vez en la plataforma Reddit a fines de 2017: el subforo r / deepfakes en ese momento se usaba para intercambiar deepfakes de aficionados. Las más populares eran películas pornográficas falsas y comprometedoras que usaban imágenes de celebridades famosas, sin ninguna relación con la industria erótica.

Principio de funcionamiento de los algoritmos deepfake

El desarrollo de la tecnología GAN (Generative Adversarial Network) desarrollada por Ian Goodfellow, un empleado de Apple, en 2014 fue un factor clave en la popularización de los deepfakes . GAN utiliza dos redes neuronales opuestas, que se asemejan al sistema nervioso del cerebro humano: el generador y el discriminador.

Estas redes recogen y analizan rápidamente la información a partir de un conjunto de datos (fotos, vídeos, grabaciones) con los que ha sido «alimentada» por el programador. La tarea del generador es crear materiales sintéticos, mientras que el discriminador compara estas falsificaciones con los datos obtenidos previamente. Según los resultados de las comparaciones, el generador aprende a hacer copias cada vez más precisas; el proceso continúa hasta que el segundo en la red puede distinguir las imágenes falsas de las reales.

¿Por qué el deepfake puede ser una herramienta peligrosa?

Las formas de deepfake son cada vez más comunes, y el acceso al conocimiento sobre redes neuronales generativas no ha sido responsabilidad exclusiva de la investigación y la academia durante mucho tiempo. El comienzo mismo del fenómeno que tiene lugar en Reddit mostró que los deepfakes pueden ser un medio real de violencia contra las mujeres, creando una variante completamente nueva de los llamados porno de venganza Otra forma de acoso a la que ya se ha utilizado esta tecnología es, entre otras, sexualización de niños mediante la fabricación de material pornográfico que involucre a menores.

La violencia sexual no es la única amenaza que plantea el concepto de deepfake. Las elecciones de 2020 en India se hicieron famosas por el uso de material deepfake por parte del político Manoj Tiwari, donde el candidato critica a su competencia y lo anima a votar por su partido. Habla en una película elaborada en Haryanvi , un dialecto que no hablan los tiwari a diario y que hablan aproximadamente 10 millones de personas en la India. El material levantó polémica sobre lo que aún hoy se puede creer en internet.

Contrarrestando y defendiendo contra deepfake

Hasta el momento, una de las películas deepfake más populares han sido las diseñadas para difundir el conocimiento sobre el fenómeno. Un ejemplo es el vídeo utilizado en la campaña electoral británica que muestra a Jeremy Corbyn y Boris Johnson apoyándose mutuamente en las candidaturas. Otro deepfake popular es el material de Jordan Peele en colaboración con Buzzfeed, en el que Barack Obama finaliza la advertencia del deepfake con el eslogan «¡Quédense despiertos, perras!».

En los últimos dos años, los gobiernos también han decidido ocuparse de las falsificaciones profundas. Texas fue el primer estado en 2019 en prohibir la creación de deepfakes con fines de campaña electoral. En el mismo año, California introdujo una prohibición similar, vigente 60 días antes de las elecciones, y Virginia prohibió por completo la pornografía falsa. A fines de diciembre de 2020, el Congreso de los EE. UU. aprobó una ley que obliga a la agencia federal, la Fundación Nacional de Ciencias, a investigar en el campo de las falsificaciones profundas. La ley también prevé el apoyo del Instituto Nacional de Normas y Tecnología en el campo de la metodología de trabajo con esta tecnología. Este documento pone especial énfasis en la posibilidad de identificar y reconocer la autenticidad en Internet.

En el caso de los países de la Unión Europea, el documento más completo y actualizado contra los deepfakes es la resolución Inteligencia Artificial en el sector de la educación y la cultura y en el sector audiovisual de 19 de mayo de 2021. El acto analiza los peligros de los deepfakes, cómo difundir la conciencia sobre ellos y la creciente dificultad para detectar y distinguir entre lo falso y lo verdadero en línea. En el borrador de la regulación legal SI de la Comisión Europea, la técnica deepfake fue definida como una tecnología de «riesgo limitado”. Esto significa que todas las entidades que utilizan deepfakes están sujetas a requisitos de transparencia y la obligación de informar a los destinatarios sobre la naturaleza no auténtica de su trabajo.

¿Cómo detectar deepfake?

Las interrupciones más comunes en el material deepfake son, por supuesto, las relacionadas con el rostro humano. Las redes GAN aún no son perfectas en términos de consistencia en sus creaciones: busque arrugas de aspecto poco natural en los deepfakes y una correlación alterada entre el color de los labios y el resto de la piel. Vale la pena recordar que esta técnica todavía está luchando con la representación realista de la rastroja natural, al igual que aún no puede reproducir completamente los fenómenos físicos. Las pistas aquí son las sombras antinaturales, los reflejos de las gafas y los movimientos de los personajes.

La ansiedad relacionada con los deepfakes, además de los posibles usos violentos, resulta indirectamente del ritmo desigual de trabajo en IA. Desafortunadamente, las soluciones legales, e incluso los propios científicos, no siempre pueden mantenerse al día con el desarrollo de áreas específicas de las redes neuronales. Después de todo, si los fabricantes de redes neuronales se superan unos a otros en la creación de copias cada vez más precisas de rostros humanos, ¿quién refinará las técnicas para detectarlos?