Meta ha definito “sicuri” i contenuti che il giudice del Regno Unito ha ritenuto “impossibili da guardare”, in un tribunale di Londra questa settimana.
Il coroner Andrew Walker ha avuto il difficile compito di valutare una domanda che i difensori della sicurezza dei bambini si pongono da anni: quanto sono responsabili i social media per gli algoritmi di contenuti per i minori?
Il caso prima di Walker riguardava una quattordicenne di nome Molly Russell, che si è tolta la vita nel 2017 dopo aver visto migliaia di post su piattaforme come Instagram e Pinterest che promuovevano l’autolesionismo.
Ad un certo punto durante l’inchiesta, Walker ha descritto i contenuti che Russell ha apprezzato o salvato nei giorni precedenti la sua morte come così inquietanti, ha detto il medico legale in tribunale, che li trovati “quasi impossibili da guardare”.
Oggi, Walker ha concluso che la morte di Russell non poteva essere considerata un suicidio, riferisce Bloomberg. Invece, ha descritto la sua causa della morte come “un atto di autolesionismo mentre soffriva di depressione causati dagli effetti negativi dei contenuti online”.
Bloomberg ha riferito che Walker è giunto a questa decisione sulla base dell’uso “prolifico” di Instagram da parte di Russell, tra i mi piace, condivisioni o salvataggi di 16.300 post in sei mesi prima della sua morte, e su Pinterest di circa 5.793 pin nello stesso lasso di tempo.
Combinato con il modo in cui le piattaforme non hanno vagliato il contenuto adattato, hanno contribuito allo stato depressivo di Russell.
“Le piattaforme funzionavano in modo tale da utilizzare algoritmi tali da provocare, in alcune circostanze, periodi di abbuffate di immagini, video clip e testi”, che “romantizzavano atti di autolesionismo” e “cercavano di isolare e scoraggiare la discussione con coloro che potrebbe essere stati in grado di aiutare”, ha detto Walker.
Dopo la sentenza di Walker, la famiglia di Russell ha rilasciato una dichiarazione, definendola una decisione storica e affermando che la corte non ha nemmeno esaminato il contenuto più inquietante che Molly ha incontrato sui social nei suoi giorni ancora in vita.
“Questi ultimi quindici giorni sono stati particolarmente dolorosi per la nostra famiglia”, si legge nella dichiarazione della famiglia Russell.
“Ci manca Molly in modo più agonizzante del solito, ma speriamo che la visibilità che questo caso ha ricevuto aiuterà a prevenire morti simili, incoraggiate dal contenuto inquietante che è ancora oggi disponibile sulle piattaforme di social media, comprese quelle gestite da Meta”.
Bloomberg riferisce che l’avvocato della famiglia, Oliver Sanders, ha chiesto a Walker di “inviare istruzioni su come evitare che ciò accada di nuovo a Pinterest, Meta, il governo del Regno Unito e l’autorità di regolamentazione delle comunicazioni”.
Nella loro dichiarazione, la famiglia ha spinto le autorità di regolamentazione del Regno Unito ad approvare e far rispettare rapidamente il disegno di legge sulla sicurezza online del Regno Unito, che secondo il New York Times potrebbe istituire “nuove salvaguardie per gli utenti più giovani in tutto il mondo”.
Meta e Pinterest hanno adottato tattiche diverse
Durante l’inchiesta, Pinterest e Meta hanno adottato approcci diversi per difendere le proprie politiche. Pinterest si è scusato, dicendo che non aveva la tecnologia di cui dispone attualmente per moderare in modo più efficace i contenuti a cui Molly era esposta.
Ma il responsabile della salute e del benessere di Meta, Elizabeth Lagone, ha frustrato la famiglia dicendo alla corte che il contenuto visualizzato da Molly era considerato “sicuro” per gli standard di Meta.
“Abbiamo sentito un dirigente senior di Meta descrivere questo flusso mortale di contenuti che gli algoritmi della piattaforma hanno inviato a Molly, come ‘SICURO’ e che non viola le politiche della piattaforma”, ha scritto la famiglia Russell nella loro dichiarazione.
“Se questa folle scia di contenuti succhia-vita fosse stato davvero sicuro, mia figlia Molly sarebbe probabilmente ancora viva”.
Un portavoce di Meta ha detto a Bloomberg che la società “si impegna a garantire che Instagram sia un’esperienza positiva per tutti, in particolare per gli adolescenti”, promettendo di “considerare attentamente il rapporto completo del medico legale quando lo fornirà”.
La famiglia di Molly si è impegnata a lodare Pinterest per la sua trasparenza durante l’inchiesta, esortando altre società di social media a guardare a Pinterest come un modello quando si tratta di chiunque sfidi le decisioni sulla politica dei contenuti.
“Per la prima volta oggi, le piattaforme tecnologiche sono state formalmente ritenute responsabili della morte di un bambino”, ha affermato la dichiarazione dei Russell.
“In futuro, noi come famiglia speriamo che qualsiasi altra società di social media chiamata ad assistere un’inchiesta segua l’esempio di Pinterest, che ha preso provvedimenti per imparare la lezione e si è impegnata sinceramente e rispettosamente con il processo di inchiesta”.
Bloomberg ha riferito che Pinterest ha affermato che “la storia di Molly ha rafforzato il nostro impegno nel creare uno spazio sicuro e positivo per i nostri pinner”. In risposta alla sentenza, Pinterest ha affermato di aver “continuato a rafforzare” le sue “politiche sui contenuti autolesionistici”.
Meta non ha commentato, ma Pinterest ha dichiarato che i suoi pensieri sono con la famiglia Russell, dicendo che ha ascoltato attentamente la corte e la famiglia durante l’inchiesta.
Secondo Pinterest, “è doveroso il nostro impegno ad apportare miglioramenti continui per garantire che la piattaforma sia sicura per tutti” e internamente “la relazione del medico legale sarà vagliata con attenzione”.
Dalla morte di Molly, Pinterest ha affermato di aver adottato misure per migliorare la moderazione dei contenuti, incluso il blocco di oltre 25.000 termini di ricerca correlati all’autolesionismo e, dal 2019, ha combinato “la moderazione umana con tecnologie di apprendimento automatico automatizzate per ridurre i contenuti che violano le politiche sulla piattaforma”.
Meta continua ad affrontare critiche
“Perché diavolo sta facendo questo?” l’avvocato della famiglia Russell, Sanders, ha urlato al dirigente di Meta Lagone durante l’inchiesta, dopo aver fornito la sua controversa testimonianza che riteneva il contenuto che Molly considerava “sicuro”.
Durante questo momento di tensione, l’avvocato di Meta ha dovuto indurre Walker a calmare Sanders. La tensione esiste ancora oggi, tuttavia, poiché la famiglia rimane critica nei confronti della posizione di Meta in tribunale secondo cui l‘azienda non può moderare tutti i contenuti che promuovono l’autolesionismo.
Lagone ha detto alla corte che minaccerebbe la libertà di parola impedendo alle persone vulnerabili di postare e cercare aiuto per problemi legati all’autolesionismo.
Quando Sanders ha chiesto direttamente a Lagone se tali contenuti altrimenti consentiti fossero sicuri da visualizzare per i bambini, Lagone ha risposto: “Penso che sia sicuro per le persone essere in grado di esprimersi”.
Walker ha quindi dovuto intervenire e spingere Lagone a dichiarare se pensava che il contenuto fosse sicuro, a cui ha risposto: “Sì, è sicuro”.
Da allora, Walker ha ora concluso che aziende come Meta hanno avuto un ruolo nella morte di Molly alimentando i suoi contenuti autolesionistici che la corte ha ritenuto non sicuri a causa dello stato mentale dell’adolescente.
In una dichiarazione fornita alla stampa, Merry Varney, un partner dello studio legale Leigh Day, che rappresentava la famiglia, ha affermato che, a differenza di Pinterest, Meta non era disponibile quando la famiglia ha chiesto di condividere alcune delle prove più schiaccianti per vincere il loro caso.
La famiglia ha detto che è stato solo perché l’inchiesta di Walker era così solida e richiedeva alle aziende di condividere così tante informazioni che hanno ottenuto questa sentenza più unica che rara.
“Le battaglie affrontate dalle famiglie in lutto quando cercano risposte dalle società di social media sono immense e anche con il medico legale che adotta un approccio solido, è stato solo nell’agosto di quest’anno che Meta ha fornito oltre 1.200 post su Instagram in cui Molly si è imbattuta, meno di un mese prima dell’inizio dell’inchiesta”, ha detto Varney.
“Ciò includeva alcuni dei video e dei post più angoscianti in cui Molly si è imbattuta”. Il consiglio di amministrazione della Molly Rose Foundation, fondata dalla famiglia per aiutare altri giovani in difficoltà, si è unito alla famiglia chiedendo l’approvazione della legge sulla sicurezza online.
“Sono passati quasi cinque anni dalla morte di Molly e stiamo ancora aspettando la promessa legge del governo”, ha affermato il consiglio in una nota. “Non possiamo più aspettare, non puntare alla perfezione, troppe vite sono a rischio. La struttura normativa può essere perfezionata nei mesi e negli anni a venire”.
Tuttavia, come riportato in precedenza da Bloomberg, l’Online Safety Bill “potrebbe ora essere a rischio di essere modificato” a causa di preoccupazioni che sembrano riecheggiare le stesse preoccupazioni di Meta sulla moderazione di tutti i contenuti relativi all’autolesionismo: “che alcune clausole rischiano di soffocare la libertà di parola”.
Fino a quando i regolamenti non cambiano, i tribunali rimangono il campo di battaglia per le famiglie che cercano di ritenere le società di social media responsabili ogni volta che sorgono problemi di sicurezza dei bambini.
La famiglia Russell ha ringraziato Walker per la sua decisione, dicendo che “spera che i dati raccolti possano rivelarsi utili al di là di questa aula e continuare a contribuire a creare una rete più sicura”.