En una primicia mundial, un forense de Londres culpó a las redes sociales por el suicidio de una adolescente, abriendo potencialmente las compuertas legales contra los pesos pesados de la industria como Instagram, Facebook, Snapchat y TikTok.
Pero el trágico caso de Molly Russell también podría señalar el camino hacia reformas legislativas que salvan vidas.
Molly tenía 14 años cuando se suicidó, después de adentrarse en secreto en «el más sombrío de los mundos» en Instagram y Pinterest, dijo su padre, Ian Russell, al Tribunal Forense del Norte de Londres el 21 de septiembre.
Sin el conocimiento de la familia, Molly, una vez «llena de amor y burbujeante de emoción por lo que debería haberle acontecido en la vida», fue «empujada a una madriguera de conejo de contenido depresivo», dijo su padre, ya que los dos sitios son artificiales, los algoritmos de inteligencia dirigían un flujo continuo de contenido oscuro y sin esperanza a su feed y bandeja de entrada.
Los algoritmos patentados mantienen enganchados a los usuarios de las redes sociales y fijan su atención en sus pantallas, proporcionándoles más de lo que los programas predicen que quieren.
Una vez que Molly se comprometió con publicaciones relacionadas con la depresión y las autolesiones, fue bombardeada con contenido implacablemente sombrío que tuvo un efecto brutal en su psique.
“Todo el mundo está mejor sin mí…” , tuiteó Molly en julio de 2017 , cuatro meses antes de morir, en una cuenta de Twitter que ocultó a su familia. “No encajo en este mundo”.
Testificó su padre: “A ella le pareció que terminar con su vida era una solución, mientras que para nosotros su vida parecía muy normal”.
Incluso después de que Molly se suicidó, una plataforma de redes sociales le envió un correo electrónico personalizado que le indicaba mensajes con temas suicidas, como una imagen del muslo cortado de una niña con la leyenda «No puedo decirte cuántas veces desearía estar muerta».
Su padre, que monitoreaba la cuenta de correo electrónico de su hija en la computadora familiar después de su muerte, se «sorprendió» al ver líneas de asunto como «10 pines de depresión que te pueden gustar» amontonándose en su bandeja de entrada.
El psiquiatra infantil Dr. Navin Venugopal, quien revisó los relatos de Molly para la corte, calificó el material como “muy perturbador, angustioso”.
“No pude dormir bien durante algunas semanas” después de evaluar el contenido, dijo Venugopal. “Ciertamente la afectaría y la haría sentir más desesperada”.
Funcionarios de Pinterest y Meta, la empresa propietaria de Instagram y Facebook, insistieron en el banquillo de los testigos que el material al que accedió Molly era benigno.
Pero el forense Andrew Walker descubrió que el adolescente «murió a causa de un acto de autolesión mientras sufría de depresión y los efectos negativos del contenido en línea».
“Las plataformas operaron de tal manera, usando algoritmos, que dieron como resultado períodos de atracones de imágenes proporcionadas sin que Molly las solicitara”, escribió Walker el 30 de septiembre. “Es probable que el material visto por Molly… contribuyó a su muerte en un más que una forma mínima.”
Los activistas en los E.U., donde el suicidio en el grupo de edad de 12 a 16 años aumentó en un 146 % entre 2009 y 2019, vieron el fallo como un gran avance.
“Es un gran avance”, dijo a The Post el abogado Matthew P. Bergman del Social Media Victims Law Center con sede en Seattle. Bergman presentó una demanda contra los gigantes de las redes sociales en nombre de siete familias estadounidenses que perdieron a sus hijos por suicidio relacionado con Internet, con docenas de casos más en proceso.
“Es la primera vez que se determina que una empresa de redes sociales es la causa del suicidio de un niño”, dijo Bergman.
Tammy Rodríguez, una madre de Connecticut que demandó a Meta y Snap por la muerte por suicidio de su hija Selena, de 11 años, calificó la decisión británica de «noticias maravillosas».
Según la demanda, Selena murió en 2021 después de que su adicción extrema a Snapchat e Instagram la condujera a una grave privación del sueño mientras buscaba mantenerse al día con las alertas las 24 horas. Cayó en una espiral de depresión, trastornos alimentarios y explotación sexual antes de quitarse la vida.
“No es que nada pueda traer de vuelta a la hermosa Molly”, dijo Rodríguez a The Post, “pero responsabilizar a las empresas de redes sociales salvará a los niños en el futuro”.
“Hacemos esto por Molly y Selena y todas las demás chicas hermosas que merecían algo mejor en este mundo”, dijo la hermana de Selena, Destiny, de 22 años, sobre la batalla legal de la familia.
Frances Haugen, la denunciante de Facebook que filtró miles de documentos internos en 2021 y expuso los algoritmos adictivos de la empresa, predijo que el hallazgo del forense será “el primero de muchos”.
“Un tribunal ha reconocido que los algoritmos son peligrosos y que la clasificación basada en el compromiso y su sesgo que empuja a los usuarios hacia contenido cada vez más extremo puede costarles la vida a los niños”, dijo Haugen a The Post.
Los adolescentes son excepcionalmente susceptibles al atractivo adictivo de las redes sociales, un hecho que reveló la propia investigación de Meta, detallada en el tesoro de documentos de Haugen.
“Es solo una simple cuestión de neurología”, afirmó Bergman. «La respuesta de dopamina que obtiene un adolescente al recibir un ‘me gusta’ de Instagram o Facebook es cuatro veces mayor que la respuesta de dopamina que obtiene un adulto».
El contenido impactante o psicológicamente discordante, como los materiales oscuros que los algoritmos de Pinterest e Instagram supuestamente introdujeron en los feeds de Molly, aumenta aún más el golpe de dopamina, aumentando la necesidad de seguir desplazándose, dijo Bergman, citando el testimonio de Haugen.
“Estos algoritmos son productos de inteligencia artificial muy sofisticados, diseñados por psicólogos sociales e informáticos para hacer adictos a nuestros hijos”, afirmó Bergman.
Lo que es peor, los adolescentes y preadolescentes son propensos a tomar malas decisiones debido a las habilidades de funciones ejecutivas de sus cerebros que aún están en desarrollo.
“Quiero decir, eso es lo que hacen los adolescentes: toman malas decisiones”, dijo Bergman. “Todos lo hicimos a esa edad. Pero en el pasado, las malas decisiones de los adolescentes no permanecían en línea a perpetuidad”.
Hoy, las redes sociales inmortalizan y amplifican los errores inevitables de los niños, abriendo la puerta a la intimidación y el chantaje, así como a la ansiedad y la depresión.
“Lo que le pasó a Molly Russell no fue una coincidencia ni un accidente”, afirmó Bergman. “Fue una consecuencia directa y previsible de un sistema de recomendación algorítmico diseñado para colocar el compromiso del usuario por encima de la seguridad del usuario.
“Son las ganancias, más que las personas”, alegó.
Y los gigantes de las redes sociales tienen el poder de detener gran parte del daño.
“Lo más preocupante es que ya existen tecnologías que eliminarían el 80% del riesgo de estos productos y podrían implementarse en cuestión de semanas”, afirmó Bergman. “Y estas empresas han decidido: ‘Bueno, si implementamos eso, perderemos la participación de los usuarios, así que no lo haremos’”.
Si bien la eliminación de los algoritmos para niños podría reducir rápidamente los comportamientos adictivos, la verificación de edad e identidad también puede reducir inmediatamente el abuso sexual en línea.
“No hay nada en ninguna de las plataformas que asegure que las personas tengan la edad adecuada y que sean quienes dicen ser”, señaló Bergman. “Pero esta tecnología está lista para usar: las aplicaciones de citas como Tinder la usan todo el tiempo.
“Si la tecnología es lo suficientemente buena para las personas que quieren conectarse, Dios mío, deberíamos proporcionarla a nuestros hijos”, dijo.
Ante la inacción empresarial, las legislaturas estatales están elaborando un mosaico de leyes destinadas a hacer que Internet sea más seguro para niños y adolescentes.
La Ley del Código de Diseño Apropiado para la Edad de California, promulgada por el gobernador Gavin Newsom el mes pasado, impondrá configuraciones estrictas de privacidad de datos en las cuentas de los usuarios de redes sociales menores de 18 años y requerirá verificación de edad para acceder. La medida, considerada la más estricta de su tipo en Estados Unidos, no entrará en vigor hasta 2024.
“El proyecto de ley es muy prometedor”, dijo Bergman.
Otros estados están contemplando leyes similares. Un proyecto de ley de Nueva York, presentado el mes pasado por el senador estatal Andrew Gounardes (D-Brooklyn), requeriría que las empresas de tecnología establezcan una línea de ayuda de acceso rápido para usar cuando los datos de un niño se vean comprometidos, esencialmente, un 911 para delitos digitales.
“No estamos tratando de cerrar las redes sociales”, dijo Gounardes. “Solo estamos tratando de implementar barandillas inteligentes, reflexivas e importantes”.
Ninguna de las leyes estatales en trámite toma medidas enérgicas contra los algoritmos potencialmente dañinos, pero inmensamente rentables, que el forense del Reino Unido descubrió que podrían causar el mayor daño.
“Si Instagram hubiera hecho algo tan simple como dejar que Molly reiniciara su propio algoritmo sin perder a sus amigos o publicaciones antiguas, podría estar viva hoy”, dijo Haugen. “Ella no debería haber tenido que elegir entre su pasado y su futuro”.
Pero un proyecto de ley bipartidista que está estancado en el Senado de EE. UU. podría lograr precisamente eso.
“La falta de voluntad de las grandes empresas tecnológicas para cambiar nos ha llevado a tomar medidas”, dijo la senadora republicana Marsha Blackburn de Tennessee, quien redactó la Ley de seguridad en línea para niños con el senador demócrata de Connecticut Richard Blumenthal.
Presentado por los rivales ideológicos en febrero a raíz del mordaz testimonio de Haugen en el Congreso , el proyecto de ley permitiría a los menores y sus padres desactivar los algoritmos de las redes sociales por completo. También requeriría advertencias a los padres cuando los niños accedan a material dañino.
“Sen. Blumenthal y yo hemos escuchado innumerables historias sobre el daño físico y emocional causado por las redes sociales, y la historia de Molly Russell es completamente desgarradora”, dijo Blackburn. “La Ley de seguridad en línea para niños requerirá que las plataformas de redes sociales hagan de la seguridad, no de las ganancias, el valor predeterminado”.
A pesar del apoyo de ambos lados del pasillo y la aprobación unánime en el Comité de Comercio del Senado, el líder de la mayoría, Chuck Schumer, no ha presentado el proyecto de ley para su debate.
“Está esperando una votación completa ante el Senado, cada vez que el líder Schumer decida que proteger a los niños en línea es una prioridad”, dijo con sarcasmo un asistente del Senado.
“Creo que es bueno que las personas de derecha e izquierda reconozcan que hay cambios en el diseño de productos… que son necesarios para mantener seguros a los niños”, dijo Haugen.
“Tenemos que dejar de aceptar que los niños mueren a causa de las redes sociales y actuar”.
Por Mary kay Linge.
Sábado 8 de octubre de 2022.
NYPOST.