WASHINGTON, D.C. – Hoy, la congresista María Elvira Salazar (R-FL) se unió a los representantes Madeleine Dean (D-PA), Vern Buchanan (R-FL), Debbie Dingell (D-MI), August Pfluger (R-TX) y Stacey Plaskett (D-VI) para volver a presentar la Ley de “Herramientas para Abordar la Explotación Conocida mediante la Inmovilización de Deepfakes Tecnológicos en Sitios Web y Redes” (TAKE IT DOWN, por sus siglas en inglés) ante el 119.° Congreso.
Los senadores Ted Cruz (R-TX) y Amy Klobuchar (D-MN) presentaron la versión del proyecto de ley en el Senado.
La Ley TAKE IT DOWN protege a las víctimas de la “pornografía vengativa” real y falsa al tipificar como delito la publicación de estas imágenes dañinas, además de exigir a los sitios web que las retiren rápidamente. La creciente popularidad de la Inteligencia Artificial (AI) requiere protecciones legales federales decisivas que empoderen a las víctimas de estos crímenes atroces, la mayoría de las cuales son mujeres y niñas.
“Mientras que la inteligencia artificial está allanando el camino para una Edad de Oro de prosperidad para todos los estadounidenses, los malos actores están abusando de ella para extorsionar a personas inocentes con pornografía deepfake no autorizada”, dijo la representante Salazar. “La Ley TAKE IT DOWN es la mejor oportunidad del Congreso para detener a estos delincuentes de lastimar a más personas, proteger a las víctimas y responsabilizar a las plataformas en línea”.
“Hay demasiados depredadores ahí fuera que están abusando de nuevas tecnologías como la inteligencia artificial generativa para difundir imágenes sexuales falsas y explotadoras en línea, especialmente contra niñas y adolescentes”, dijo el senador Cruz. “La Ley TAKE IT DOWN es una solución de sentido común que empodera a las víctimas de este atroz delito. Como presidente del Comité de Comercio del Senado, es una de mis principales prioridades proteger a los estadounidenses de este acto artero y garantizar que las grandes tecnológicas no sigan siendo cómplices”.
La Ley TAKE IT DOWN resuelve el problema de la inconsistencia, o inexistencia, de legislación que protege a las víctimas de imágenes pornográficas “deepfake” a nivel estatal. Mientras que casi todos los estados tienen leyes que protegen a sus ciudadanos de la pornografía vengativa, sólo 20 estados tienen leyes explícitas que cubren las imágenes íntimas no consentidas (NCII) de “deepfake”. Entre esos estados, hay un alto grado de variación en la tipificación del delito, la pena e incluso el enjuiciamiento penal. Las víctimas también tienen dificultades para que las imágenes en las que aparecen sean retiradas de los sitios web de manera oportuna, lo que puede contribuir a una mayor propagación y retraumatización.
En 2022, el Congreso aprobó una ley por la que se creaba una causa de acción civil para que las víctimas demandaran a las personas responsables de la publicación de NCII. Sin embargo, entablar una acción civil puede ser increíblemente poco práctico. Lleva mucho tiempo, es caro y puede obligar a las víctimas a revivir el trauma. Para agravar aún más el problema, no siempre está claro quién es el responsable de publicar los NCII.
La Ley TAKE IT Down aborda estas cuestiones al tiempo que protege la libertad de expresión legal:
- Tipificando como delito la publicación de NCII o la amenaza de publicar NCII en el comercio interestatal;
- Proteger los esfuerzos de buena fe para ayudar a las víctimas permitiendo la divulgación de buena fe de NCII con fines policiales o de tratamiento médico;
- Exigir a los sitios web que retiren la ICNI, previo aviso de las víctimas, en un plazo de 48 horas; y
- Exigir que los NCII generados por ordenador se ajusten a la prueba de la “persona razonable” para que parezcan representar de forma realista a una persona, de modo que se ajusten a la jurisprudencia actual de la Primera Enmienda.
“A medida que la IA se vuelve más omnipresente en nuestras vidas, es esencial que protejamos a los supervivientes de ‘deepfakes’ explícitos e imágenes íntimas no consentidas (NCII) que a menudo devastan a niñas y mujeres”, dijo la representante Dean. “Tanto si sus agresores utilizaron tecnología ‘deepfake’ como una simple cámara, las víctimas merecen protección federal y la tranquilidad de que estas imágenes sean eliminadas de Internet. Estoy agradecido de trabajar con un grupo bipartidista y bicameral de legisladores en un proyecto de ley de sentido común que protegerá mejor a los estadounidenses y regulará significativamente la IA”.
“Estoy profundamente perturbado por el drástico aumento de la explotación sexual de niños y adultos no consentidores, como el aumento de la llamada «pornografía de venganza» y el aumento vertiginoso de los casos de abuso sexual”, dijo el representante Buchanan. “Aunque el auge de la tecnología de IA aporta innumerables beneficios, debemos establecer barreras de sentido común para proteger contra sus usos potenciales más dañinos. Me complace ayudar a presentar la Ley TAKE IT DOWN para proteger a nuestros hijos y espero que el Congreso la apruebe con un amplio apoyo bipartidista”.
“El creciente uso de la inteligencia artificial para crear y difundir pornografía falsa amenaza la salud mental y emocional y la seguridad económica de sus víctimas, principalmente mujeres. Los autores han utilizado la pornografía falsa como herramienta para acosar, humillar e intimidar a las mujeres en línea, a menudo en respuesta a sus denuncias o a su defensa. Se trata de un problema grave y creciente que me preocupa profundamente”, declaró la representante Dingell. “La Ley TAKE IT DOWN proporciona un recurso fundamental a las víctimas para garantizar que estas imágenes sean eliminadas y que los autores rindan cuentas. A medida que surgen nuevas tecnologías, también lo hace el potencial de nuevas formas de abuso, y debemos actuar con rapidez para proteger a las mujeres de los abusos facilitados por la tecnología”.
“Es preocupante ver el aumento de ‘deepfakes’ en Estados Unidos que destruyen la vida de personas inocentes”, dijo el representante Pfluger. “El Congreso debe actuar rápidamente para proteger a los estadounidenses y responsabilizar a las plataformas. Como padre de tres niñas pequeñas, estoy orgulloso de unirme a este esfuerzo bipartidista y bicameral para evitar que el material explícito circule y dañe a víctimas inocentes”.
“Es imperativo que los responsables políticos federales y los expertos en IA continúen exponiendo y abordando los peligros de los ‘deepfakes’ explícitos y las imágenes íntimas no consentidas (NCII) que afectan profundamente a las mujeres y las niñas”, dijo la congresista Plaskett. “Estoy agradecida por la concienciación y los esfuerzos de mis colegas en este asunto y por la oportunidad de codirigir este oportuno proyecto de ley para proporcionar alivio a estas víctimas. Esta legislación bipartidista y bicameral es un enfoque necesario y pragmático que protege a las víctimas, responsabiliza a los sitios web y protege la expresión lícita”.
“Debemos proporcionar a las víctimas de abuso en línea las protecciones legales que necesitan cuando se comparten imágenes íntimas sin su consentimiento, especialmente ahora que los ‘deepfakes’ están creando nuevas y horribles oportunidades para el abuso”, dijo la senadora Klobuchar. “Esta legislación bipartidista se basa en mi trabajo para asegurar que las víctimas puedan tener este material eliminado de las plataformas de medios sociales y las fuerzas del orden puedan responsabilizar a los autores”.
Fuente: Congresista Maria Elvira Salazar