Artículo publicado originalmente por VICE Estados Unidos.
Mientras que los medios, los políticos y los tecnólogos entran en pánico por el riesgo de que los deepfakes afecten las elecciones, un nuevo estudio descubrió que la mayoría son de naturaleza pornográfica. Además de eso, y para sorpresa de nadie, todos los deepfakes pornográficos analizados en el estudio tenían como blanco exclusivamente a mujeres.
La noticia es un recordatorio de que, aunque en el futuro los actores políticos podrían adoptar deepfakes con el fin de desinformar a la gente, en este momento su uso tiene un solo propósito: atacar y acosar a las mujeres.
"Una tendencia clave que identificamos es la prominencia de la pornografía deepfake no consensuada, que representó el 96% del total de los videos deepfake en línea", dice el estudio, titulado The State of Deepfakes y escrito por la empresa de seguridad cibernética Deeptrace.
La compañía encontró un total de 14.678 videos deepfake en línea. Según Giorgio Patrini, CEO y científico jefe de Deeptrace, la compañía examinó el género de los blancos en videos de cinco sitios porno deepfake (7.144 videos) y catorce canales de YouTube (menos de 500 videos). Se halló que los videos de cuatro de los principales sitios web dedicados a pornografía deepfake tenían más de 134 millones de visitas, y que todos menos el 1 por ciento de los sujetos presentados en pornografía deepfake eran actrices y músicas que trabajan en el sector del entretenimiento.
Motherboard informó por primera vez la existencia de deepfakes a finales de 2017. En junio, destacó que "más medios comenzaron a informar sobre el fenómeno y el pánico se produjo cuando los teóricos de los medios consideraron las implicaciones de que el video perdiera su veracidad inherente, especialmente cuando se trataba de noticias y política. Pero todo comenzó con el sexo, y un largo legado de cultura masculina tóxica e ignorancia deliberada del consentimiento".
El nuevo informe agrega: "La pornografía deepfake es un fenómeno que ataca y perjudica exclusivamente a las mujeres. En contraste, los videos deepfake no pornográficos que analizamos en YouTube contenían mayoritariamente sujetos masculinos".
Suscríbete a nuestro podcast de seguridad cibernética, CYBER.
Joseph Cox https://ift.tt/eA8V8J
No hay comentarios:
Publicar un comentario