La inteligencia artificial de Samsung podría fabricar un videoclip de ti a partir de una sola foto.

Incluso la Mona Lisa puede ser falsificada.

(Última Actualización: mayo 23, 2019)

Hola, si te gusta lo que publicamos en Nanova, síguenos también en Facebook.

La inteligencia artificial desarrollada por un laboratorio de Samsung en Rusia puede fabricar vídeo a partir de una sola imagen, incluyendo una pintura.

Imagínate a alguien creando un video profundamente falso de ti simplemente robando tu foto de perfil de Facebook. Por suerte, los malos aún no tienen la tecnología en sus manos.

Pero Samsung ha descubierto cómo hacer que suceda.

El software para crear falsificaciones profundas – clips fabricados que hacen que la gente parezca hacer o decir cosas que nunca hizo – generalmente requiere grandes conjuntos de datos de imágenes con el fin de crear una falsificación realista. Ahora Samsung ha desarrollado un nuevo sistema de inteligencia artificial que puede generar un clip falso alimentando un poco como una foto.

La tecnología, por supuesto, se puede utilizar para divertirse, como para dar vida a un retrato clásico. La Mona Lisa, cuya enigmática sonrisa es animada en tres videos diferentes para demostrar la nueva tecnología, existe únicamente como una sola imagen fija. Un laboratorio de inteligencia artificial de Samsung en Rusia desarrolló la tecnología, que fue detallada en un documento a principios de esta semana.

Este es el inconveniente: Este tipo de técnicas y su rápido desarrollo también crean riesgos de desinformación, manipulación de elecciones y fraude, según Hany Farid, un investigador de Dartmouth que se especializa en medios forenses para erradicar las falsificaciones profundas.

«Siguiendo la tendencia del año pasado, esta y otras técnicas relacionadas requieren cada vez menos datos y están generando contenidos cada vez más sofisticados y convincentes», dijo Farid. Aunque el proceso de Samsung puede crear problemas visuales, «estos resultados son otro paso en la evolución de las técnicas…. que conducen a la creación de contenido multimedia que eventualmente será indistinguible de lo real».

Al igual que Photoshop para el vídeo sobre esteroides, el software de falsificación profunda produce falsificaciones mediante el uso de máquinas que aprenden a fabricar de forma convincente un humano en movimiento y hablante. Aunque la manipulación informática del vídeo ha existido durante décadas, los sistemas de falsificación profunda han hecho que los clips falsificados no sólo sean más fáciles de crear, sino también más difíciles de detectar. Piensa en ellos como en marionetas digitales foto-realistas.

Muchas falsificaciones, como la que anima la Mona Lisa, son inofensivas. La tecnología ha hecho posible todo un género de memes, incluyendo uno en el que la cara de Nicolas Cage está puesta en películas y programas de televisión en los que él no estaba. Pero la tecnología deepfake también puede ser insidiosa, como cuando se usa para injertar la cara de una persona desprevenida en películas para adultos explícitas, una técnica que a veces se usa en el porno por venganza.

En el papel, el laboratorio de IA de Samsung apodó a sus creaciones «cabezas parlantes neurales realistas». El término «cabezas parlantes» se refiere al género de vídeo que el sistema puede crear; es similar a esas cajas de vídeo de expertos que se ven en las noticias de televisión. La palabra «neural» es un guiño a las redes neuronales, un tipo de máquina de aprendizaje que imita al cerebro humano.

Los investigadores vieron que su gran avance se utilizaba en una gran cantidad de aplicaciones, incluyendo videojuegos, cine y televisión. «Esta capacidad tiene aplicaciones prácticas para la telepresencia, incluyendo la videoconferencia y los juegos multijugador, así como la industria de los efectos especiales», escribieron.

El periódico iba acompañado de un vídeo en el que se mostraban las creaciones del equipo, que también se grabó con una banda sonora desconcertantemente escalofriante.

Por lo general, una cabeza parlante sintetizada requiere que usted entrene un sistema de inteligencia artificial en un gran conjunto de datos de imágenes de una sola persona. Debido a que se necesitaban tantas fotos de un individuo, los blancos de las falsificaciones profundas han sido generalmente figuras públicas, tales como celebridades y políticos.

El sistema Samsung utiliza un truco que parece inspirado en la famosa cita de Alexander Graham Bell, «Ante todo, la preparación es la clave del éxito». El sistema comienza con una larga «etapa de meta-aprendizaje» en la que ve muchos vídeos para aprender cómo se mueven los rostros humanos. A continuación, aplica lo aprendido a un solo fotograma o a un pequeño puñado de fotos para producir un videoclip razonablemente realista.

A diferencia de un verdadero video de deepfake, los resultados de un solo o pequeño número de imágenes se pierden cuando se reproducen detalles finos. Por ejemplo, una falsificación de Marilyn Monroe en el video de demostración del laboratorio de Samsung se perdió el famoso lunar del icono, según Siwei Lyu, un profesor de ciencias de la computación de la Universidad de Albany en Nueva York que se especializa en medios forenses y aprendizaje automático. También significa que los videos sintetizados tienden a conservar alguna apariencia de quienquiera que haya jugado el papel de la marioneta digital. Es por eso que cada una de las caras en movimiento de la Mona Lisa parece una persona ligeramente diferente.

Por lo general, el objetivo de un sistema de «deepfake» es eliminar el hipo visual. Esto requiere cantidades significativas de datos de entrenamiento tanto del vídeo de entrada como de la persona objetivo.

El aspecto de pocos disparos o de un solo disparo de este enfoque es útil, dijo Lyu, porque significa que una red grande puede ser entrenada en un gran número de videos, que es la parte que toma mucho tiempo. Este tipo de sistema puede entonces adaptarse rápidamente a una nueva persona objetivo usando sólo unas pocas imágenes sin necesidad de un reentrenamiento extensivo, dijo. «Esto ahorra tiempo en concepto y hace que el modelo sea generalizable.»

El rápido avance de la inteligencia artificial significa que cada vez que un investigador comparte un avance en la creación profunda, los malos actores pueden empezar a reunir sus propias herramientas para imitarlo. Es probable que los avances de Samsung lleguen a manos de más personas en poco tiempo.

Las fallas en los videos falsos hechos con el nuevo enfoque de Samsung pueden ser claras y obvias. Pero serán un frío consuelo para cualquiera que acabe en una falsificación generada a partir de esa foto sonriente publicada en Facebook.

Hola, si te gusta lo que publicamos en Nanova, síguenos también en Facebook.

Si te fue útil, Comparte esta Información
  • 16
  • 3
  •  
  •