Ir al contenido

Pornografía deepfake

De Wikipedia, la enciclopedia libre

La pornografía deepfake, o simplemente pornografía falsa, es un tipo de pornografía sintética que se crea alterando una publicación pornográfica ya existente mediante la aplicación de tecnología deepfake en los rostros de las víctimas (usualmente personalidades públicas). La pornografía deepfake ha sido muy controvertida, ya que se ha utilizado comúnmente para colocar los rostros de celebridades femeninas en los cuerpos de las actrices porno, cuya imagen se utiliza normalmente sin su consentimiento.[1]

Historia

[editar]

La pornografía deepfake apareció de manera destacada en Internet en 2017, particularmente en Reddit.[2]​ El primero que llamó la atención fue el deepfake de Daisy Ridley, que apareció en varios artículos.[2]​ Otras creaciones de pornografía deepfake destacadas fueron de varias otras celebridades.[2][3][4][5]​ Un informe publicado en octubre de 2019 por la startup holandesa de ciberseguridad Deeptrace estimó que el 96% de todo el deepfake en línea era pornográfico.[6]

En diciembre de 2017, Samantha Cole publicó un artículo sobre r/deepfakes en Vice que atrajo la atención de la corriente principal sobre los deepfakes que se comparten en comunidades en línea.[7]​ Seis semanas después, Cole escribió en un artículo de seguimiento sobre el gran aumento de la pornografía deepfake asistida por IA.[8]​ Desde 2017, Samantha Cole de Vice ha publicado una serie de artículos que cubren noticias relacionadas con la pornografía falsa.[9][10][11][12][5][13][7][8]

Desde entonces, varios medios de comunicación social han prohibido o han hecho esfuerzos para restringir la pornografía deepfake. En particular, el subreddit r/deepfakes en Reddit fue prohibido el 7 de febrero de 2018 debido a la violación de la política de "pornografía involuntaria".[14][15][16][17][18][19]​ En el mismo mes, representantes de Twitter declararon que suspenderían las cuentas sospechosas de publicar contenido deepfake no consensuado.[13]

Scarlett Johansson, un sujeto frecuente de la pornografía deepfake, habló públicamente sobre el tema a The Washington Post en diciembre de 2018.[20]​ En una declaración preparada, expresó que a pesar de las preocupaciones, no intentaría eliminar ninguno de sus deepfakes, debido a su creencia de que no afectan su imagen pública y que las diferentes leyes entre países y la naturaleza de la cultura de Internet hacen cualquier intento de eliminar los deepfakes "una causa perdida".[20]​ Si bien las celebridades como ella están protegidas por su fama, sin embargo, cree que el deepfake representa una grave amenaza para las mujeres de menor prominencia cuya reputación podría verse dañada por la representación en deepfake involuntario pornografía de venganza.[20]

DeepNude

[editar]

En junio de 2019, se lanzó una aplicación descargable de Windows y Linux llamada DeepNude que usaba redes neuronales, específicamente redes antagónicas generativas, para quitar la ropa de las imágenes de mujeres. La aplicación tenía una versión paga y no paga, la versión paga costaba US$50.[12]​ El 27 de junio, los creadores eliminaron la aplicación y reembolsaron a los consumidores, aunque siguen existiendo varias copias de la aplicación, tanto gratuitas como de pago.[21][22][23]​ En GitHub, se eliminó la versión de código abierto de este programa llamado "open-deepnude".[24][25]​ La versión de código abierto tenía la ventaja de permitir entrenarse en un conjunto de datos más grande de imágenes de desnudos para aumentar el nivel de precisión de la imagen de desnudos resultante.[26]

Deepfake CSAM

[editar]

La tecnología deepfake ha hecho que la creación de material de abuso sexual infantil (CSAM), también conocido como pornografía infantil, sea más rápido, más seguro y más fácil que nunca. se puede utilizar deepfakes para producir un nuevo CSAM a partir de material ya existente o crear un CSAM a partir de niños que no han sido objeto de abuso sexual. Sin embargo, deepfake CSAM puede tener implicaciones reales y directas en los niños, incluida la difamación, la manipulación, la extorsión y la intimidación.[27]​ Además, la pornografía infantil deepfake crea más obstáculos para la policía, lo que dificulta las investigaciones criminales y la identificación de víctimas.[cita requerida]

Debate ético

[editar]

El software de pornografía deepfake puede usarse indebidamente para crear una pseudo pornografía de venganza sobre un individuo, lo que puede considerarse una forma de acoso.[21]

Actualmente, las imágenes producidas por software como DeepNude todavía están lejos de ser lo suficientemente sofisticadas como para ser indistinguibles de las imágenes reales bajo análisis forense.[26]

Esfuerzos de las empresas para limitar las imágenes de pornografía deepfake

[editar]

El 31 de enero de 2018, Gfycat comenzó a eliminar todas las imágenes deepfake de su sitio.[11][28]

En febrero de 2018, Reddit prohibió el subreddit r/deepfakes por compartir pornografía involuntaria.[19]​ Otros sitios web también han prohibido el uso de deepfakes para la pornografía involuntaria, incluida la plataforma de redes sociales Twitter y el sitio de pornografía Pornhub.[13]​ Sin embargo, algunos sitios web no han prohibido el contenido deepfake, incluidos 4chan y 8chan.[29]

También en febrero de 2018, Pornhub dijo que prohibiría los videos deepfake en su sitio web porque se considera "contenido no consensuado" que viola sus términos de servicio.[10]​ También declararon previamente a Mashable que eliminarán el contenido marcado como deepfakes.[30]​ Los escritores de Motherboard de Buzzfeed News informaron que la búsqueda de "deepfakes" en Pornhub todavía arrojó múltiples videos recientes de deepfakes a la fecha.[10]

El sitio de chat Discord ha tomado medidas contra el deepfake en el pasado,[31]​ y ha adoptado una postura general contra este.[28][32]​ En septiembre de 2018, Google agregó "imágenes pornográficas sintéticas involuntarias" a su lista de prohibición, lo que permite que cualquier persona solicite el bloqueo de resultados que muestran sus desnudos falsos.[33]

Referencias

[editar]
  1. Dickson, E. J. (7 de octubre de 2019). «Deepfake Porn Is Still a Threat, Particularly for K-Pop Stars». Rolling Stone (en inglés estadounidense). Consultado el 9 de noviembre de 2019. 
  2. a b c Roettgers, Janko (21 de febrero de 2018). «Porn Producers Offer to Help Hollywood Take Down Deepfake Videos» (en inglés estadounidense). Consultado el 28 de febrero de 2018. 
  3. Goggin, Benjamin. «From porn to 'Game of Thrones': How deepfakes and realistic-looking fake videos hit it big». Business Insider. Consultado el 9 de noviembre de 2019. 
  4. Lee, Dave (3 de febrero de 2018). «'Fake porn' has serious consequences» (en inglés británico). Consultado el 9 de noviembre de 2019. 
  5. a b Cole, Samantha (19 de junio de 2018). «Gfycat's AI Solution for Fighting Deepfakes Isn't Working». Vice (en inglés). Consultado el 9 de noviembre de 2019. 
  6. «The State of Deepfake - Landscape, Threats, and Impact». Deeptrace (en inglés estadounidense). 1 de octubre de 2019. Consultado el 7 de julio de 2020. 
  7. a b Cole, Samantha (11 de diciembre de 2017). «AI-Assisted Fake Porn Is Here and We're All Fucked». Vice. Consultado el 19 de diciembre de 2018. 
  8. a b Cole, Samantha (24 de enero de 2018). «We Are Truly Fucked: Everyone Is Making AI-Generated Fake Porn Now». Vice (en inglés). Consultado el 15 de diciembre de 2019. 
  9. Cole, Samantha (11 de junio de 2019). «This Deepfake of Mark Zuckerberg Tests Facebook's Fake Video Policies». Vice (en inglés). Consultado el 15 de diciembre de 2019. 
  10. a b c Cole, Samantha (6 de febrero de 2018). «Pornhub Is Banning AI-Generated Fake Porn Videos, Says They're Nonconsensual». Vice (en inglés). Consultado el 9 de noviembre de 2019. 
  11. a b Cole, Samantha (31 de enero de 2018). «AI-Generated Fake Porn Makers Have Been Kicked Off Their Favorite Host». Vice (en inglés). Consultado el 18 de noviembre de 2019. 
  12. a b Cole, Samantha (26 de junio de 2019). «This Horrifying App Undresses a Photo of Any Woman with a Single Click». Vice. Consultado el 2 de julio de 2019. 
  13. a b c Cole, Samantha (6 de febrero de 2018). «Twitter Is the Latest Platform to Ban AI-Generated Porn». Vice (en inglés). Consultado el 8 de noviembre de 2019. 
  14. Böhm, Markus (7 de febrero de 2018). «"Deepfakes": Firmen gehen gegen gefälschte Promi-Pornos vor». Consultado el 9 de noviembre de 2019. 
  15. barbara.wimmer (8 de febrero de 2018). «Deepfakes: Reddit löscht Forum für künstlich generierte Fake-Pornos». futurezone.at (en alemán). Consultado el 9 de noviembre de 2019. 
  16. online, heise. «Deepfakes: Auch Reddit verbannt Fake-Porn». heise online (en alemán). Consultado el 9 de noviembre de 2019. 
  17. «Reddit verbannt Deepfake-Pornos - derStandard.de». DER STANDARD (en alemán austríaco). Consultado el 9 de noviembre de 2019. 
  18. Robertson, Adi (7 de febrero de 2018). «Reddit bans 'deepfakes' AI porn communities». The Verge (en inglés). Consultado el 9 de noviembre de 2019. 
  19. a b Kharpal, Arjun (8 de febrero de 2018). «Reddit, Pornhub ban videos that use A.I. to superimpose a person's face over an X-rated actor». Consultado el 20 de febrero de 2018. 
  20. a b c «Scarlett Johansson on fake AI-generated sex videos: 'Nothing can stop someone from cutting and pasting my image'». The Washington Post. 31 de diciembre de 2018. Consultado el 19 de junio de 2019. 
  21. a b «DeepNude AI copies easily accessible online». 3 de julio de 2019. 
  22. «Virtual Dressing Room». Consultado el 14 de mayo de 2024. 
  23. «pic.twitter.com/8uJKBQTZ0o». 27 de junio de 2019. 
  24. «open deepnude as open-source version of DeepNude». 
  25. Cox, Joseph (9 de julio de 2019). «GitHub Removed Open Source Versions of DeepNude». Vice Media. 
  26. a b «DeepNude is back». 
  27. Kirchengast, T (2020). «Deepfakes and image manipulation: criminalisation and control.». Information & Communications Technology Law 29 (3): 308-323. doi:10.1080/13600834.2020.1794615. 
  28. a b Ghoshal, Abhimanyu (7 de febrero de 2018). «Twitter, Pornhub and other platforms ban AI-generated celebrity porn». The Next Web (en inglés estadounidense). Consultado el 9 de noviembre de 2019. 
  29. Hathaway, Jay (8 de febrero de 2018). «Here's where 'deepfakes,' the new fake celebrity porn, went after the Reddit ban». The Daily Dot. Consultado el 22 de diciembre de 2018. 
  30. Gilmer, Damon Beres and Marcus (2 de febrero de 2018). «A guide to 'deepfakes,' the internet's latest moral crisis». Mashable (en inglés). Consultado el 9 de noviembre de 2019. 
  31. Price, Rob (27 de enero de 2018). «Discord just shut down a chat group dedicated to sharing porn videos edited with AI to include celebrities». Business Insider Australia (en inglés). Archivado desde el original el 15 de diciembre de 2019. Consultado el 28 de noviembre de 2019. 
  32. «Twitter bans 'deepfake' AI-generated porn». Engadget (en inglés). Consultado el 28 de noviembre de 2019. 
  33. Harrell, Drew. «Fake-porn videos are being weaponized to harass and humiliate women: 'Everybody is a potential target'». The Washington Post. Consultado el 1 de enero de 2019.