DeepNude usa AI para generar imágenes falsas de mujeres desnudas en segundos

Los avances en Inteligencia Artificial y Machine Learning son escalofriantes. Hemos pasado, en pocos años, a ser capaces de recrear el rostro de una celebridad en cualquier persona, usando una computadora casera. Pero esto abre las puertas no sólo a experimentos entretenidos, como el DeepFake de Tom Cruise que vimos hace poco, sino que también puede tener usos realmente peligrosos.

Vimos cómo es posible poner “palabras” en la boca de líderes mundiales, como Obama, al crear un “deepfake”, que resultará muy difícil de diferenciar del real. Hemos visto cómo se ha “resucitado” a Salvador Dalí para su museo, y ahora puede tomarse “selfies” con los que atienden.

Pero no olvidemos que una de las primeras aplicaciones de los “Deepfakes”, y el motivo por el cual tiene su nombre, fue el de suplantar el rostro de celebridades, sobre videos pornográficos. Con tan sólo poner a una PC a aprender el rostro de una celebridad, utilizando horas de video o miles de fotos, luego podíamos usar el rostro de esta persona y colocarlo encima de un video pornográfico.

Y ahora, se está usando la inteligencia artificial para un propósito similar, con un programa para Windows llamado “DeepNude”, que es capaz de usar machine learning para “eliminar” la ropa y reemplazarla con cómo el AI cree que debería verse el cuerpo. En esencia, desnudando a cualquier persona con inteligencia artificial

El resultado no es perfecto, según comenta Motherboard de Vice, que fueron quienes descubrieron la app, y depende mucho de la resolución de la imagen original. Fotos con ángulos extraños, mala iluminación o cierto tipo de ropa, confundía a la red neuronal, ocasionando artefactos o simplemente imágenes bizarras, como sucedió con cartoons:

Según Motherboard, que logró entrevistar al creador – que usa el nombre de “Alberto” – el software se basa en pix2pix, elaboardo por la Universidad de Calfiornia en el 2017. En esencia, pix2pix nos permite entrenar un algoritmo con imágenes – en el caso de DeepNude, se usaron más de 10,000 fotos de mujeres – y luego la inteligencia artificial empieza a aprender y mejorar por si misma. Según “Alberto”, sólo funciona con mujeres de momento porque es más fácil encontrar imágenes de mujeres desnudas en la web, pero ya se está trabajando en una versión masculina, también.

Este es un ejemplo de cómo la Inteligencia Artificial y Redes Neuronales son una poderosa herramienta, pero que pueden ser usadas, por supuesto, para causar daño o problemas. Imaginen crear un “Deepnude” o un “Deepfake” de alguien para chantajes; después de todo, sólo se necesita una foto con pocas prendas de vestir, y dejar que el algoritmo haga su trabajo. Este tipo de imágenes podría ser usado para avergonzar, chantajear o silenciar mujeres víctimas de una aplicación que cualquier persona puede usar – y que cuesta entre $49.99 a $99.99.

Xataka TV se descargó la app – por ahora ya no está disponible – y nos demuestra lo escalofriantemente sencilla que es de utilizar:

Qué hacer, en una era donde suplantar la realidad con imágenes y videos falsos es tan sencillo como dar un par de clicks? Este es uno de esos casos donde la tecnología ha avanzado tan rápido y de manera tan vertiginosa, que nadie, aún, ha sabido como regularizar esto. Y sí, vamos a tener que volvernos expertos en identificar los deepfakes, porque siguen mejorando y evolucionando a pasos agigantados.

Denle un vistazo al artículo en Vice

Más Noticias
Dead Cells, un magnífico juego, llegará pronto a iPhones y iPads y luego a Android