La inteligencia artificial significa que cualquiera puede ser víctima de la pornografía “deepfake”. Aquí algunos consejos para protegerse
(CNN) — “Basta con tener una forma humana para ser víctima”. Así es como la abogada Carrie Goldberg describe el riesgo de la pornografía deepfake en la era de la inteligencia artificial (IA).
Aunque la pornografía de venganza, o la difusión no consensuada de imágenes sexuales, ha existido casi tanto tiempo como el internet, la proliferación de herramientas de IA significa que cualquier persona puede ser objeto de esta forma de acoso, incluso si nunca se ha tomado o enviado una foto desnuda. Las herramientas de inteligencia artificial ahora pueden superponer el rostro de una persona en un cuerpo desnudo o manipular fotos existentes para que parezca que una persona no lleva ropa.
En el último año, los objetivos de las imágenes pornográficas no consensuadas generadas por IA han sido desde mujeres prominentes como Taylor Swift y la representante Alexandria Ocasio-Cortez hasta niñas de secundaria.
Para alguien que descubre que ellos, o sus hijos, han sido objeto de pornografía deepfake, la experiencia suele ser aterradora y abrumadora, dijo Goldberg, quien dirige la firma C.A. Goldberg Law, con sede en Nueva York, que representa a víctimas de delitos sexuales y acoso en línea. “Sobre todo si son jóvenes y no saben cómo afrontarlo, e internet es un lugar grande, enorme y nebuloso”, explica.
Pero hay medidas que las víctimas de esta forma de acoso pueden tomar para protegerse y lugares a los que acudir en busca de ayuda, señaló Goldberg en una entrevista en el nuevo podcast tecnológico de CNN, Terms of Service with Clare Duffy.
Goldberg explicó que para las personas que son blanco de imágenes sexuales generadas por la IA, el primer paso –aunque sea contraintuitivo– debería ser hacer una captura de pantalla.
“La reacción instintiva es eliminarlas de internet lo antes posible”, afirma Goldberg. “Pero si quieres tener la opción de denunciarlo penalmente, necesitas las pruebas”.
A continuación, pueden buscar los formularios que plataformas como Google, Meta y Snapchat ofrecen para solicitar el retiro de imágenes explícitas. Organizaciones sin fines de lucro como StopNCII.org y Take It Down también pueden ayudar a facilitar el retiro de esas imágenes en varias plataformas a la vez, aunque no todos los sitios cooperan con los grupos.
Un grupo bipartidista de senadores envió en agosto una carta abierta en la que pedía a casi una docena de empresas tecnológicas, entre ellas X y Discord, que se unieran a los programas.
La lucha contra las imágenes explícitas no consensuadas y los deepfakes ha recibido un raro apoyo bipartidista. Un grupo de adolescentes y padres afectados por la pornografía generada por inteligencia artificial testificaron en una audiencia en el Capitolio, donde el senador republicano Ted Cruz presentó un proyecto de ley –apoyado por la senadora demócrata Amy Klobuchar y otros– que tipificaría como delito la publicación de tales imágenes y exigiría a las plataformas de redes sociales que las eliminaran previo aviso de las víctimas.
Pero, por ahora, las víctimas tienen que navegar por un mosaico de leyes estatales. En algunos lugares, no hay leyes penales que impidan crear o compartir deepfakes explícitos de adultos. (Las imágenes sexuales de niños generadas por IA suelen caer bajo las leyes de material de abuso sexual infantil).
“Mi consejo proactivo en es, en realidad, para los posibles delincuentes: no sean una escoria e intenten robar la imagen de una persona y utilizarla para humillarla”, afirma Goldberg. “No hay mucho que las víctimas puedan hacer para evitarlo… Nunca podemos estar completamente seguros en una sociedad digital, pero depende de cada uno de nosotros no ser unos completos idiotas”.
Con información de CNN