En una muestra de indignación bipartidista en una audiencia reciente del Comité Judicial del Senado, el senador demócrata Dick Durbin y el senador republicano Lindsey Graham criticaron a los directores ejecutivos de las grandes empresas tecnológicas por no proteger a los niños en línea.
Durbin, demócrata por Illinois, presidente del panel, no se contuvo. En la audiencia del 31 de enero, alegó que los directores ejecutivos de Meta (empresa matriz de Facebook e Instagram), TikTok, Snapchat, Discord y X (anteriormente Twitter) están en una “búsqueda constante de ganancias por encima de la seguridad básica que pone a nuestros niños en riesgo”. riesgo .»
Continuó advirtiendo que “las redes sociales y las aplicaciones de mensajería han brindado a los depredadores nuevas y poderosas herramientas para explotar sexualmente a los niños”.
El Departamento de Justicia define el material de abuso sexual infantil como «imágenes o vídeos sexualmente explícitos de abuso, violación, abuso y/o explotación de un niño». Ya es un flagelo, pero con la inteligencia artificial, ahora es más fácil que nunca producirlo en masa.
Durante mucho tiempo, la creación y distribución de dicho material dependió de adultos perversos, tecnología sofisticada y regulaciones laxas para las plataformas de redes sociales. Ahora, sin embargo, ha surgido un nuevo culpable: otros niños.
Después de años de acceder a material sexualmente explícito, los menores han comenzado a utilizar herramientas de inteligencia artificial para crear “deepfakes” pornográficos de sus pares y compañeros de clase.
Este inquietante desarrollo (niños que explotan sexualmente a otros niños) ha sido posible gracias a las plataformas de redes sociales y al fácil acceso a sitios web pornográficos. Eso es precisamente lo que muchas leyes estatales y federales están diseñadas para prevenir.
Estas fotos y vídeos generados por IA, denominados » deepfakes «, se pueden producir en cuestión de minutos en una multitud de aplicaciones y sitios web. La tecnología es simple. Cualquiera puede utilizar el “intercambio de caras” en aplicaciones listas para usar, como DeepSwap y FaceSwapper, para colocar la imagen de otra persona en una foto o un vídeo sexualmente explícito.
Según una revisión de NBC , los sitios web que alojan material sexual falso son fácilmente accesibles a través de Google. Lo que es peor, los sitios web deepfake conocidos por albergar contenido pornográfico publican anuncios en aplicaciones de mensajería utilizadas por niños, como Discord. Con solo hacer clic en unos pocos botones, los niños pueden verse y luego crear pornografía deepfake.
En los últimos años, innumerables mujeres han sido víctimas de pornografía deepfake. Las mujeres explotadas van desde estudiantes hasta celebridades, incluida Taylor Swift .
Han surgido historias desgarradoras de estudiantes varones que utilizan esta tecnología para intimidar a sus compañeras de clase, o tal vez simplemente para entretener a sus amigas. Los resultados pueden ser mortales.
- Mia Janin , una colegiala británica de 14 años, fue humillada cuando encontró su rostro pegado al cuerpo de otra mujer. La mujer desconocida, ella misma víctima, estaba participando en actos sexualmente explícitos. Sin embargo, para el espectador casual, parecía que la propia Mia lo era.
Los compañeros de clase masculinos utilizaron aplicaciones de inteligencia artificial para crear material de abuso sexual de Mia que circularon por la escuela usando Snapchat. Incapaz de soportar el acoso posterior, Mia se quitó la vida.
- En otro ejemplo, Francesca Mani, estudiante de Nueva Jersey de 14 años, se encontró en la misma situación. Los compañeros de clase masculinos utilizaron una aplicación de edición de fotografías con inteligencia artificial, disponible en las tiendas de aplicaciones de Apple y Google, para generar imágenes de mujeres desnudas con el rostro de Francesca.
Las fotografías se distribuyeron entre menores utilizando plataformas de redes sociales y acceso sin filtros a tiendas de aplicaciones para teléfonos inteligentes.
En un informe de Home Security Heroes sobre el “Estado de los deepfakes en 2023”, los deepfakes en línea aumentaron un 550 % entre 2019 y 2023, y el año pasado, se descubrió que el 98 % de los videos deepfakes eran pornográficos. Sin restricciones legales, estas cifras seguirán aumentando.
Los niños son imitadores por naturaleza y son particularmente susceptibles a la influencia de las cuentas de redes sociales en línea. Los niños imitan naturalmente a los hombres y mujeres de su vida, comenzando por su propio padre y madre , para aprender lo que significa ser una buena persona.
Esa es una característica, no un error, en el desarrollo de un niño, pero puede ser secuestrada por malos actores , incluidas las plataformas de redes sociales. Cuando los niños se topan con material sexualmente explícito, e incluso aprenden a desearlo, no debería sorprendernos verlos imitarlo a través de sus acciones o creaciones de IA.
La responsabilidad recae en primer lugar en los padres , que deben desempeñar un papel activo en el seguimiento de a quién y a qué pueden acceder sus hijos en línea.
Pero la cosa no termina ahí. La naturaleza omnipresente de estas herramientas en línea requiere que los legisladores y las plataformas de redes sociales también se comprometan a garantizar que los niños estén protegidos en línea.
Como dijo en la audiencia Graham, RS.C., miembro de alto rango del comité: “Hay que controlar a estas empresas, o lo peor está por llegar”. Desafortunadamente, para familias como la de Mia, ya es así.
El Congreso y los padres deben unirse en su esfuerzo por proteger a los niños de la influencia corrosiva del material de abuso sexual infantil generado por la IA.
Por Emma Waters, investigadora asociada del Centro DeVos para la Vida, la Religión y la Familia de The Heritage Foundation.
y
Amelia Kuntzman, miembro del Programa de Jóvenes Líderes de The Heritage Foundation.
Fotografía: Sensadores Dick Durbin, demócrata por Illinois. (izquierda) y Lindsey Graham, RS.C., hablan en una conferencia de prensa después de una audiencia del Comité Judicial del Senado el 31 de enero. El comité escuchó testimonios de los jefes de las empresas tecnológicas más grandes sobre los peligros de la explotación sexual infantil. en las redes sociales. (Foto: Alex Wong/Getty Images)