“In che modo l’AI sta guidando la lotta contro gli abusi sui minori online”. Un articolo da Emerging Europe

L’ampia disponibilità di tecnologie dell’informazione come i social media e le app di messaggistica ha creato opportunità di comunicazione e collaborazione senza precedenti. Tuttavia, queste stesse tecnologie hanno anche facilitato la diffusione di contenuti pericolosi come disinformazione, incitamento all’odio e propaganda estremista.

Hanno anche creato uno spazio che facilita la diffusione di materiale pedopornografico (CSAM).



Secondo l’UNICEF, una ragazza su cinque e un ragazzo su tredici a livello globale sono sfruttati o abusati sessualmente all’età di 18 anni, con interazioni online presenti in quasi tutti i casi di sfruttamento e abuso sessuale di minori.

La pandemia di Covid-19 ha accelerato questa proliferazione, poiché la maggior parte delle nostre attività quotidiane si è spostata nel cyberspazio, esponendo un numero sempre maggiore di persone a contenuti dannosi e pericolosi. Secondo il National Center for Missing and Exploited Children degli Stati Uniti, nel 2021 ci sono state quasi 30 milioni di segnalazioni di abusi sessuali su minori su Internet.

Tra questi casi, una delle tendenze particolarmente preoccupanti si riferisce all’aumento di materiale pedopornografico autoprodotto. Solo nel 2021, il numero di immagini o video autoprodotti è aumentato di quasi quattro volte (374%) rispetto ai livelli pre-pandemia, aggiungendo una dimensione completamente nuova alla natura dello sfruttamento e dell’abuso sessuale dei minori.

La legislazione non è tutto

I governi e le autorità sovranazionali sono consapevoli del problema. L’UE ha recentemente approvato il suo Digital Services Act, mentre il Regno Unito è in discussione sulla sua legge sulla sicurezza online. Il mese scorso, inoltre, la Corte Suprema degli Stati Uniti ha avviato un procedimento per esaminare gli emendamenti alla sezione 230 del Communications Decency Act, che protegge le piattaforme online dalla responsabilità legale sui contenuti pubblicati dai propri utenti.

Nel caso dell’UE, si tratta del primo pacchetto legislativo significativo che disciplina i contenuti online in oltre 20 anni. Tuttavia, i regolamenti e la legislazione possono risolvere il problema solo parzialmente. Fortunatamente, nonostante abbia svolto un ruolo nella diffusione del CSAM, la stessa tecnologia, in particolare l’Intelligenza Artificiale (AI), può svolgere un ruolo significativo per raggiungere gli obiettivi normativi richiesti dagli stati. Gli strumenti basati sull’intelligenza artificiale possono infatti aiutare a identificare e rimuovere materiale pedopornografico in modo più efficiente e accurato rispetto ai soli moderatori umani.

Ad esempio, gli algoritmi AI possono analizzare i contenuti di immagini e video e contrassegnare materiale potenzialmente dannoso per un’ulteriore revisione da parte di moderatori umani. Ciò può aiutare a ridurre il carico di lavoro per i moderatori umani e aumentare la velocità con cui i contenuti dannosi vengono rilevati e rimossi.

Oltre alla moderazione dei contenuti, l’intelligenza artificiale può anche aiutare a tracciare e identificare le persone coinvolte nella distribuzione e nel consumo di materiale pedopornografico. Analizzando i modelli di comportamento e comunicazione online, gli algoritmi di intelligenza artificiale possono aiutare a identificare e localizzare le persone che potrebbero essere coinvolte nella produzione o diffusione di contenuti dannosi.

AI4SC 

Nel 2020, il Centro per l’Intelligenza Artificiale e la Robotica dell’UNICRI e il Ministero degli Interni degli Emirati Arabi Uniti hanno lanciato l’iniziativa AI for Safer Children (AI4SC) nel tentativo di contrastare lo sfruttamento e l’abuso sessuale dei minori online attraverso l’esplorazione di nuove soluzioni tecnologiche, nello specifico l’AI.

L’iniziativa mira a supportare le forze dell’ordine a sfruttare il potenziale dell’intelligenza artificiale e ha progettato AI for Safer Children Global Hub, una piattaforma centralizzata e sicura unica per le forze dell’ordine, per supportarle in tal senso. Questa soluzione potrebbe diventare un modello per risolvere altri problemi legati ai contenuti online dannosi, come la disinformazione legata al radicalismo e all’estremismo.

Irakli Beridze è a capo del Centro per l’Intelligenza Artificiale e la Robotica dell’UNICRI. Dice a Emerging Europe che oggi l’intelligenza artificiale e vari software basati sull’intelligenza artificiale sono in una fase di maturità in cui l’implementazione di strumenti di intelligenza artificiale da parte dei produttori di dispositivi e dei fornitori di servizi elettronici, comprese le società di social media, dovrebbe diventare la norma.

“In termini pratici, ciò significa che le autorità di regolamentazione e le forze dell’ordine dovrebbero cercare di integrare questi strumenti il più possibile per accelerare il loro lavoro, tagliare i registri dei casi e affrontare più rapidamente questi casi di contenuti illegali”, afferma.

  “Questo è l’unico modo per tenere il passo con il ritmo con cui questo problema sta crescendo e la sempre maggiore sofisticazione degli strumenti che sono alla base della proliferazione di contenuti dannosi e illegali online”.

Un approccio efficace ed etico

Il Tenente Colonnello Dana Humaid Al Marzouqi, co-presidente di AI4SC, afferma che l’iniziativa ha già affrontato molte insidie associate all’uso dell’AI e ai principali requisiti normativi e politici per consentire un approccio efficace ed etico, aggiungendo che ben 270 ricercatori provenienti da 72 paesi fanno ora parte della comunità AI4SC.

“Abbiamo posto gli aspetti legali ed etici dell’uso dell’AI al centro del nostro lavoro sull’iniziativa AI for Safer Children”, dice a Emerging Europe. “Promuoviamo lo sviluppo responsabile e l’applicazione dell’AI nelle forze dell’ordine. Questa strategia etica e legale è stata elaborata in consultazione con un comitato etico di esperti, che si è concentrato su aspetti come la diversità e l’inclusione, la protezione dei dati e l’equa promozione dei fornitori di AI”.

Tuttavia, se vogliamo attingere al vero potenziale dell’AI, Al Marzouqi ritiene che la fiducia del pubblico nell’uso sicuro ed etico dell’AI sia essenziale per un’attuazione efficace. “Questo può essere raggiunto solo attraverso una politica e una regolamentazione chiara”, suggerisce. “Questo a sua volta presenta le proprie sfide. Per sfruttare appieno il potenziale dell’AI dobbiamo garantire che la regolamentazione non soffochi l’innovazione. Si ritiene che un approccio basato sul rischio sia il modo migliore per raggiungere questo obiettivo. È pragmatico e crea chiarezza per le imprese e stimola nuovi investimenti”.

La conoscenza tecnica e la comprensione che l’UNICRI offre riguardo al problema e alla tecnologia di base che deve sfruttare hanno reso l’Istituto il perfetto partner per questo tipo di progetto.

“Non solo fornisce la copertura globale necessaria per crimini online senza confini come questo, ma aiuta anche a garantire che i principi e i valori delle Nazioni Unite siano instillati intrinsecamente in tutto il nostro lavoro sull’iniziativa AI for Safer Children”, aggiunge Beridze. “I suoi sforzi per promuovere principi come la diversità e l’inclusione, i diritti umani e lo stato di diritto e l’uguaglianza rendono l’UNICRI e il suo Centro per l’Intelligenza Artificiale e la Robotica un facilitatore veramente affidabile e globale attraverso il quale possiamo unire gli sforzi di diverse parti interessate”.

Un mondo di differenza per le vittime

Al Marzouqi afferma che mentre l’intelligenza artificiale è un argomento altamente tecnico, in sostanza gioca un ruolo nel lavoro delle forze dell’ordine in tre modi principali.

In primo luogo, l’AI può aumentare il livello di prevenzione: i processi del linguaggio naturale possono identificare e contrassegnare automaticamente il comportamento predatorio degli utenti sui social media e sui siti a misura di bambino, ad esempio i siti di giochi.

In secondo luogo, l’AI può incrementare i tassi di rilevamento: il riconoscimento delle immagini può essere utilizzato per pre-classificare le immagini di abusi sessuali su minori in base alla revisione umana rilevando automaticamente l’età e la nudità.

In terzo luogo, l’AI può facilitare le azioni penali: il riconoscimento facciale, degli oggetti e della voce può aiutare a identificare vittime, autori e dettagli chiave al fine di collegare insieme elementi di prova correlati per costruire un caso legale solido.

“Attraverso il nostro impegno con le agenzie che già utilizzano tali strumenti, abbiamo visto il vero potenziale di questa tecnologia”, afferma. “Aiuta a ridurre i tempi investigativi, a ridurre gli arretrati e ad arrivare più velocemente alle vittime. Tutto ciò contribuisce a miglioramenti esponenziali per le forze dell’ordine nell’identificazione tempestiva e nella segnalazione di materiali pedopornografici online”.

Beridze concorda: “L’elaborazione dei dati è esattamente ciò in cui l’AI eccelle, grazie alla sua capacità di aiutare a dare la priorità a una quantità schiacciante (e crescente) di possibili file di abusi sessuali su minori in base alla loro probabilità di contenere materiale illegale; la capacità di adottare misure basate su questa classificazione, come la disattivazione automatica dell’audio per salvaguardare il benessere degli investigatori; e la capacità di collegare file riconoscendo elementi simili, come il rilevamento di volti o oggetti”.

Tutto questo potenziale suona eccellente, ma può davvero aiutare nella pratica? Beridze dice che è già una realtà. “Gli agenti delle forze dell’ordine che utilizzano queste tecnologie ci hanno confermato che l’intelligenza artificiale sta già contribuendo alla lotta contro lo sfruttamento e l’abuso sessuale dei minori online, ad esempio riducendo i tempi delle indagini”, afferma. “Secondo i membri della nostra rete che hanno esperienza diretta con questi strumenti, il tempo dedicato all’analisi di immagini e video di abusi sui minori, che prima richiedeva da una a due settimane, ora può essere svolto in un giorno. Gli strumenti di intelligenza artificiale hanno anche aiutato con gli arretrati, riducendo in modo significativo gli arretrati forensi da oltre 1,5 anni a quattro-sei mesi.

“Questo può fare la differenza per le vittime”.