La joven Molly Russell, de 14 años, fue hallada muerta en su habitación la mañana del 21 de noviembre de 2017 en Harrow, al noroeste de Londres. Se había quitado la vida. Su familia nunca detectó ningún comportamiento extraño en ella, más allá de que durante el último año pasaba más tiempo encerrada en su habitación.
Lo achacaron a los cambios propios de la adolescencia. Pero cuando su padre, Ian Russell, revisó el correo electrónico de Molly en busca de alguna posible explicación de la tragedia, se encontró con un mensaje de Pinterest de hacía dos semanas titulado “Pins de depresión que te pueden gustar”. Siguió investigando y comprobó que, durante los seis meses anteriores a su muerte, la joven compartió o reaccionó en Instagram ante más de 2.000 publicaciones relacionadas con el suicidio, las autolesiones o la depresión.
Cinco años después, Instagram y Pinterest han sido llamadas a capítulo por las autoridades británicas. Elizabeth Lagone, directora de salud y política de bienestar de Meta, empresa matriz de Instagram, y Jud Hoffman, director global de operaciones de la comunidad de Pinterest, declararon a principios de octubre en un juzgado británico. Es la primera vez que dos tecnológicas participan en un proceso legal relacionado con el suicidio de un usuario.
Un tribunal apunta por primera vez a dos tecnológicas, Instagram y Pinterest, al considerar que contribuyeron a que la joven Molly Russell se quitara la vida
La justicia británica cuestionó este viernes el papel de los contenidos que vio una adolescente en las redes sociales antes de suicidarse, tras un proceso que relanza el debate sobre la influencia de estas plataformas y sus algoritmos.
Investigación de los familiares
En un intento de comprender su gesto, sus familiares descubrieron que había sido expuesta en las redes sociales, principalmente Instagram y Pinterest, a numerosos contenidos que evocaban el suicidio, la depresión y la autolesión.
Un procedimiento judicial llamado “Inquest”, destinado a determinar las causas de su muerte, llegó a esta conclusión el viernes en Londres, después de diez días de audiencia.
Los contenidos vistos por la joven “no eran seguros y nunca deberían haber sido accesibles a una niña”, afirmó en sus conclusiones Andrew Walker, encargado del procedimiento.
En lugar de calificar su muerte de suicidio, consideró que la joven “murió debido a un acto de autolesión, cuando sufría de depresión y de los efectos negativos de contenidos vistos en internet”.
El funcionamiento de los algoritmos de las redes sociales, que tienden a ofrecer a los usuarios contenido similar a lo que vieron anteriormente, “sin duda tuvo un efecto negativo en Molly”, insistió.
En el Parlamento del Reino Unido se está examinando una ley sobre “seguridad en línea”, destinada a lograr un equilibrio entre la libertad de expresión y la protección de los usuarios, en particular los menores.