Un perturbador nuevo video que parece mostrar a la estrella de Wonder Woman, Gal Gadot, actuando en una corta película para adultos, arrojó una luz sorprendente sobre lo que podría pasar cuando la inteligencia artificial caiga en las manos equivocadas.
El video, creado por usuarios avanzados de Reddit , muestra a una mujer que adopta la imagen burda de Gadot, con la cara de la actriz superpuesta en la cabeza de otra persona.
Fue creado al entrenar un algoritmo de aprendizaje automático en fotografías, imágenes de búsqueda de Google y videos de YouTube de la estrella, y los expertos advierten que la técnica ‘ya no es ciencia espacial’.
El nuevo inquietante video visto por Motherboard podría no engañar a nadie, pero es un claro recordatorio de la creciente preocupación sobre la facilidad con la que la inteligencia artificial podría usarse para crear pornografía falsa, protagonizada por una persona en particular sin su consentimiento, junto con otros contenidos malicioso.
Y, este no es el primero. Deepfakes ha realizado videos similares de otras estrellas, como Taylor Swift y Maisie Williams de Game of Thrones, según Motherboard, que dice que ha notificado a las compañías de gestión y publicistas de los afectados.
Redditor se basó en herramientas de aprendizaje de máquina de código abierto para crear videos pornográficos falsos. El algoritmo fue entrenado en videos porno reales e imágenes de Gal Gadot, lo que le permite crear una aproximación de la cara del actor que se puede aplicar a la figura en movimiento en el video.
«Acabo de encontrar una forma inteligente de hacer intercambio de caras», le dijo DeepFake a Motherboard. «Con cientos de imágenes faciales, puedo generar fácilmente millones de imágenes distorsionadas para entrenar la red. Después de eso, si le doy a la red la cara de otra persona, la red pensará que es solo otra imagen distorsionada y tratará de que se vea como la cara de entrenamiento».
El video amateur tiene implicaciones preocupantes, que muestran cómo los recursos disponibles libremente podrían usarse para crear películas falsas en cuestión de días o incluso horas.
Y, como señala Motherboard, la gente de hoy está subiendo constantemente fotos de ellos mismos a varias plataformas de medios sociales, lo que significa que alguien podría usar esa técnica para hostigar a alguien que ellos conocen.
«Todo el mundo necesita saber lo fácil que es falsificar imágenes y videos, hasta el punto en que no seremos capaces de distinguir las falsificaciones en unos pocos meses», dijo el investigador de IA Alex Champandard a Motherboard.
«Por supuesto, esto fue posible durante mucho tiempo, pero se necesitarían muchos recursos y profesionales en efectos visuales para lograrlo, pero ahora puede hacerlo un solo programador con hardware y software recientes en cosa de horas».
https://www.youtube.com/watch?v=XnHWYrAuoLQ