Inventan videos falsos para colocar rostros a otros cuerpos
Inventan videos falsos para colocar rostros a otros cuerpos

Inventan videos falsos para colocar rostros a otros cuerpos

Tecnología
|

A través del programa "FakeApp", inventan videos falsos de personas

Ya existe la manera de cambiar rostros a otros cuerpos en videos falsos.


Olviden las ‘fake news’, allí vienen los videos falsos


Herramientas de video de inteligencia artificial permiten que el rostro de una persona sea colocado en otro cuerpo. 


La escena abría en una habitación con un sofá rojo, una maceta y arte moderno insulso. En el cuarto estaba Michelle Obama, o alguien que se veía exactamente igual a ella. Luciendo un top escotado con un brasier negro visible debajo, se retorcía lascivamente para la cámara y mostraba su inconfundible sonrisa. Luego, la doble de la ex Primera Dama empezaba a desvestirse. El video, que apareció en el foro en línea Reddit, era lo que se conoce como un “deepfake” —un video falso ultrarrealista realizado con software de inteligencia artificial. Fue creado usando un programa llamado FakeApp, que colocó el rostro de Obama sobre el cuerpo de una actriz porno.


El híbrido era asombroso (si uno no supiera que era imposible, podría haber pensado que realmente era ella).Hasta hace poco tiempo, el video realista generado por computadora era una actividad laboriosa disponible sólo para producciones de Hollywood de gran presupuesto o para investigadores vanguardistas. Sin embargo, una comunidad de aficionados ha empezado en meses recientes a experimentar con herramientas más potentes, incluyendo FakeApp —programa que fue creado por un desarrollador anónimo utilizando software de fuente abierta escrito por Google. FakeApp vuelve gratis y relativamente fácil crear intercambios realistas de rostros y deja pocos vestigios de manipulación. Desde que una versión de la app apareció en Reddit en enero, ha sido descargada más de 120 mil veces, de acuerdo con su creador. 


Los deepfakes son una de las formas más nuevas de manipulación de los medios digitales, y una de las más obviamente propensas a las travesuras. No es difícil imaginar a esta tecnología siendo empleada para desprestigiar a políticos, crear pornografía de venganza apócrifa o incriminar a personas. Los legisladores ya han empezado a preocuparse por cómo los deepfakes podrían ser usados para el sabotaje o la propaganda en la política. Recientemente, FakeApp causó pánico luego de que Motherboard, el sitio de tecnología, reportó que personas estaban usándolo para crear deepfakes pornográficos de celebridades. Pornhub, Twitter y otros sitios rápidamente prohibieron los videos, y Reddit cerró varios grupos de deepfakes, incluyendo uno con casi 100 mil miembros. Antes de que los grupos de deepfakes en Reddit fueran cerrados, albergaban una mezcla de usuarios que intercambiaban tips de edición de videos y presumían sus falsificaciones más nuevas. Algunos usuarios de Reddit defendieron los deepfakes y culparon a los medios de exagerar su potencial para hacer daño. Otros cambiaron sus videos a plataformas alternativas. La comunidad creadora de deepfakes ahora está en las sombras de internet. Pero mientras estuvo visible, ofreció un inquietante vistazo al futuro. Haciendo deepfakes decidí ver qué tan fácil era crear un deepfake (no pornográfico) usando mi rostro, reclutando a dos expertos técnicos para que me ayudaran. El primero fue Mark McKeague, un colega en el departamento de investigación de The New York Times. El segundo fue un creador de deepfakes que encontré a través de Reddit, conocido con el sobrenombre de Derpfakes y que no reveló su verdadero nombre. Primero, tuvimos que encontrar una computadora moderadamente potente: entre más poder de procesamiento, más rápido funciona. Rentamos un servidor remoto de Google Cloud Platform con suficiente poder de procesamiento para recortar el marco de tiempo a horas, en lugar de días o semanas. Luego vino la recolección de datos.


Los videoclips cortos son más fáciles de manipular que los largos. Y entre más se parezcan los rostros entre sí, mejor. Soy un hombre blanco de cabello castaño con barba corta, así que empezamos con Ryan Gosling. Enseguida, tomamos varios cientos de fotos de mi cara, y reunimos imágenes del rostro de Gosling. FakeApp utiliza estas imágenes para entrenar al modelo de aprendizaje profundo y enseñarle a emular nuestras expresiones faciales. Luego, Mark utilizó un programa para aislar nuestros rostros. Alimentó los cuadros a FakeApp. Empleamos 417 fotos mías y mil 113 de Gosling. Mark oprimió “start” en FakeApp. La pantalla de su computadora se llenó de imágenes de mi rostro y el de Gosling, mientras el programa trataba de identificar patrones y similitudes. Unas ocho horas después, Mark usó FakeApp para terminar de poner mi rostro en el cuerpo de Gosling. El video estaba borroso y extraño. Nos fue mejor con un clip de Chris Pratt, cuya forma de la cara es más similar a la mía. Mark utilizó un conjunto de datos más grande —mil 861 fotos mías, mil 23 de él— y dejó que el modelo trabajara toda la noche. Entonces, Derpfakes me envió un deepfake terminado más natural hecho con las secuencias que le había enviado y un video del actor Jake Gyllenhaal. Derpfakes repitió el proceso con videos de Jimmy Kimmel y Liev Schreiber, los cuales salieron bien. (Nuestro esfuerzo tomó tres días y costó 85.96 dólares). 


Lo que dice el creador.  Contacté al creador anónimo de FakeApp vía una dirección de correo electrónico en su sitio en internet. Un hombre contestó el correo diciendo que era un desarrollador de software de Maryland. Se identificó con su primera inicial, N. Dijo que había creado FakeApp como un experimento creativo y que no apoyaba el uso de FakeApp para crear pornografía no consensual o crear contenido abusivo. Estuvo de acuerdo con la prohibición de Reddit. Sin embargo, dijo N.: “no creo que esté correcto condenar a la tecnología en sí, que por supuesto puede ser usada para muchos propósitos, buenos y malos”.  N. indicó que FakeApp podía ser usada por las personas para dar efectos especiales de alto presupuesto a sus proyectos personales. No hay motivos para creer que los videos hechos con deepfake operarán de manera diferente de las fake news (noticias falsas). Las personas los compartirán cuando sean ideológicamente convenientes y los descartarán cuando no.


Te damos respuesta en 48 horas y puedes disponer del dinero en menos de 10 www.premo.mx