Innovación

Los deepfakes se vuelven formas más baratas y sencillas de crear celebridades falsas

Los deepfakes se vuelven formas más baratas y sencillas de crear celebridades falsas


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Se han dicho muchas cosas de Tom Hanks. Es un actor y uno bueno. Su reputación como un hombre común icónico lo precede. Pero recientemente no era él mismo en absoluto: la imagen que la gente vio de Hanks en la conferencia de seguridad informática Black Hack fue una deepfake desarrollada por algoritmos de aprendizaje automático, no un estudio de cine, según una publicación de blog en el sitio web de FireEye.

RELACIONADO: REDES ADVERSARIALES GENERATIVAS: LA TECNOLOGÍA DETRÁS DE DEEPFAKE Y FACEAPP

Los deepfakes se vuelven más baratos y más fáciles de realizar

Un científico de datos de la empresa de seguridad FireEye llamado Philip Tully generó un "engaño Hankses" para ver lo simple que es usar software de código abierto de laboratorios de inteligencia artificial para lanzar campañas de desinformación. "Las personas sin mucha experiencia pueden tomar estos modelos de aprendizaje automático y hacer cosas muy poderosas con ellos", dijo Tully, informa Wired.

Cuando se muestra a resolución completa (a la derecha de la imagen de arriba), hay defectos menores, como texturas de piel no naturales y pliegues en el cuello. Pero siguen siendo reproducciones relativamente precisas de detalles familiares del rostro de Hanks. Sus ojos verde grisáceos y la forma en que se frunce el ceño, por ejemplo. Reducidas al tamaño de una miniatura en las redes sociales, las imágenes creadas por IA pueden pasar por algo real.

Para desarrollar las imágenes deepfake de Hanks, Tully solo utilizó unos pocos cientos de imágenes del actor, gastando menos de $ 100 para ajustar un software de reconocimiento facial de código abierto para que coincida con la apariencia de Hanks.

El proyecto FireEye podría generar preocupaciones sobre las campañas deepfake

Al demostrar lo barato y fácil que es generar imágenes aceptables, el proyecto FireEye podría generar preocupaciones adicionales de que las campañas de desinformación basadas en la web podrían verse agravadas por la tecnología de inteligencia artificial que se ve y habla como figuras públicas reales.

Estas técnicas y las imágenes que publican generalmente se llaman deepfakes, un término acuñado del nombre de un usuario de Reddit que a fines de 2017 publicó videos pornográficos adaptados para incluir rostros de celebridades.

Por ahora, podemos estar tranquilos: la mayoría de los deepfakes basados ​​en Internet son de calidad lo suficientemente baja como para reconocerlos y están hechos principalmente por motivos de entretenimiento (o pornográficos). El uso malintencionado de deepfakes más ampliamente documentado implica el acoso a mujeres. Si bien esto es serio, podría palidecer en comparación con los casos hipotéticos de uso malicioso, por ejemplo, una profunda falsificación de un presidente que ordena el lanzamiento de una bomba nuclear.


Ver el vídeo: Deepfake Queen: 2020 Alternative Christmas Message (Diciembre 2022).