con una espátula
Una madre y su hija de 14 años piden más protección para las víctimas de imágenes de desnudos generadas por IA después de que circularan imágenes de la joven y sus compañeros de clase en una escuela secundaria de Nueva Jersey.
por Clarín
Mientras tanto, al otro lado del país, las autoridades están investigando un incidente que involucra a una adolescente que supuestamente utilizó inteligencia artificial para crear y distribuir imágenes similares de otras estudiantes, también adolescentes, en una escuela secundaria en los suburbios de Seattle, Washington.
Incidentes inquietantes han puesto de relieve una vez más los elementos generativos obvios de la IA que afectan desproporcionadamente a mujeres y menores y se están propagando en línea a un ritmo sin precedentes. Según un análisis de la investigadora independiente Genevieve Oh visto por The Associated Press (AP), este año se publicaron en línea más de 143.000 nuevos vídeos manipulados digitalmente, superando todos los años anteriores combinados.
Desesperadas por una solución, las familias afectadas están presionando a los legisladores para que promulguen protecciones más estrictas para las víctimas, cuyas imágenes son utilizadas por nuevos modelos de inteligencia artificial o una gran cantidad de aplicaciones y sitios web que anuncian abiertamente sus servicios. Los defensores y algunos expertos legales también pidieron regulaciones federales que brindarían protecciones uniformes en todo el país y enviarían un mensaje contundente a los delincuentes actuales y futuros.
“Luchamos por nuestros hijos”, dijo Dorota Money, cuya hija fue una de las víctimas en Westfield, un suburbio de Nueva Jersey en las afueras de la ciudad de Nueva York. “No son republicanos ni demócratas. No me importa. “Sólo quieren ser amados y protegidos”.
El problema de los vídeos deepfake no es nuevo, pero los expertos dicen que está empeorando a medida que la tecnología para crearlos se vuelve más accesible y fácil de usar. Este año, los investigadores advirtieron sobre una explosión de material de abuso sexual infantil producido con IA generativa que utiliza representaciones de víctimas reales o personajes virtuales. En junio, el FBI advirtió que seguía recibiendo informes de víctimas, tanto menores como adultos, cuyas fotos o vídeos se utilizaron para crear contenido explícito compartido en línea.
Varios estados han aprobado sus propias leyes a lo largo de los años para intentar abordar el problema, pero su alcance varía. Texas, Minnesota y Nueva York aprobaron leyes este año que penalizan la pornografía deepfake no consensuada, uniéndose a Virginia, Georgia y Hawaii que ya aprobaron. Algunos estados, como California e Illinois, sólo permiten a las víctimas demandar a los abusadores por daños y perjuicios en un tribunal civil, lo que también permiten Nueva York y Minnesota.
Leer más en Clarín