L’IA per una pedopornografia moralmente sostenibile?

Il sito Internet del ventottenne Rasmus*, cittadino danese, contiene migliaia e migliaia di immagini di minori, in prevalenza bambine e ragazze. Probabilmente vere vittime non ce ne sono, perché Rasmus ha generato lui stesso le immagini, avvalendosi dell’intelligenza artificiale (IA). Un caso internazionale che porta anche in Svizzera.

Rasmus* guarda con soddisfazione le immagini salvate sul suo computer. Sono molte, oramai ben più di 300 000. Dopo tanta pratica è arrivato a padroneggiare il programma di IA, perlopiù disponibile gratuitamente, al punto che nessuno può più accorgersi se le foto che ritraggono bambine e ragazze in pose provocanti sono autentiche oppure no. Per Rasmus si tratta di una situazione «win-win»: senza vittime, ma con migliaia di immagini da poter vendere. Questo è quanto pensa.

Nel giugno 2024 nella sede centrale di Europol all’Aia (NL) si tiene l’incontro annuale di esperte ed esperti in materia di pedocriminalità. Le e i rappresentanti di Inghilterra e Danimarca presentano, insieme, il caso del giovane danese che su TikTok, YouTube, X, Discord e sul suo sito Internet faceva pubblicità a contenuti esplicitamente pornografici. Gran parte del materiale accessibile al pubblico non è punibile, in quanto le ragazze ritratte sulle fotografie sono sì giovani, ma i contenuti non sono esplicitamente pornografici. Per cinque euro al mese Rasmus mette però a disposizione «premium content», ossia fino a mille immagini mensili. La «National Crime Agency» britannica, dopo essersi imbattuta in questi contenuti durante le sue indagini sotto copertura, decide di pagare la quota. Scopre così che i contenuti esclusivi sono di natura esplicitamente pedopornografica. Grazie all’acquisto, la polizia riesce a identificare Rasmus che viene in seguito arrestato in Danimarca, nella sua abitazione.

Un caso internazionale che porta anche in Svizzera

La polizia sequestra più di 300 000 immagini, tutte generate con l’IA, di cui circa 30 000 di natura pedopornografica. I circa 300 acquirenti sono ubicati in oltre 30 Paesi sparsi in tutto il mondo. In autunno, Europol comunica a fedpol che tre di questi acquirenti abitano in Svizzera. fedpol, dal canto suo, informa i rispettivi Cantoni di domicilio. Una prima perquisizione domiciliare viene condotta nel Cantone di Basilea Campagna, le altre due saranno effettuate nel Cantone di Lucerna e nella città di Zurigo. Uno degli indagati confessa di non essere stato a conoscenza del fatto che il possesso di materiale pedopornografico generato con l’IA fosse punibile.

È lecito chiedersi se gli autori stiano di fatto approfittando di una zona grigia del sistema giudiziario. Il Codice penale svizzero non lascia dubbi al riguardo: non esiste alcuna zona grigia. L’articolo 197 sancisce chiaramente che la fabbricazione e il possesso di materiale vertente su atti sessuali fittizi con minorenni è punibile. Questo materiale può consistere in una raffigurazione, una fotografia o anche in un’immagine generata con l’IA.

L’IA distoglie l’attenzione dalle vere vittime

Il fenomeno dei contenuti pedopornografici generati con l’IA pone la polizia di fronte a grandi sfide. Da anni la quantità di materiale sta aumentando in misura esponenziale e anche i programmi di IA stanno diventando sempre più fruibili e intuitivi. Anche se l’IA stessa non miete vittime, distoglie l’attenzione dalle vere vittime e rende più difficile il compito della polizia. Le immagini che ritraggono persone reali continuano infatti a essere prodotte e divulgate, ma il lavoro per distinguerle da quelle generate con l’IA si fa vieppiù complesso e gravoso. Dietro ogni immagine autentica vi è una vittima, un minore che ha subito abusi e che deve essere trovato. La cooperazione e lo scambio efficace di informazioni tra fedpol e i suoi partner internazionali quali Europol, ma anche con le autorità nazionali, assumono quindi un’importanza ancora maggiore. La priorità assoluta va data alle vittime, sempre.

«Nell’ambito della pedopornografia, è particolarmente importante identificare le vittime, in quanto spesso sono proprio loro a condurre ad altri autori. Il cerchio continua ad allargarsi. Quando siamo di fronte a materiale generato con l’IA, spesso non sappiamo nemmeno se vi sia o meno una vittima. E questo rende il nostro lavoro più difficile.»

Marcel, inquirente federale

* Nome di fantasia

Uniti contro la pedocriminalità