L’IA, l’Intelligenza artificiale, è la nuova frontiera della pedofilia e pedopornografia: chi abusa si rivolge a chatbot, sistemi che interagiscono online con i minori, con l’obiettivo di avere un contatto più intimo. Non solo: è possibile “spogliare” i bambini (2.967 caduti in questa rete solo nella prima metà del 2025) e farli agire dentro situazioni di abuso grazie al deepfake, le immagini truffa. La denuncia è contenuta nel primo Dossier in assoluto su quest’emergenza preparato dall’Associazione Meter ETS (www.associazionemeter.org) fondata e presieduta da don Fortunato Di Noto e presentato quest’oggi a Roma. Le foto deepfake (e i video) potenziano la produzione e aprono ad una drammatica svolta: la “normalizzazione” dell’abuso perché in fondo sono immagini virtuali, non ci sono vittime fisiche dunque non è un crimine.
L’AI SPOGLIA I BAMBINI E… – Come si produce questo materiale? Non mancano online applicazioni e software che permettono di spogliare i bambini o creare situazioni per nulla innocenti, tutto questo partendo da fotografie magari scattate durante momenti di gioco, sport, feste. La macchina virtuale sovrappone ai vestiti un “corpo” modellato pezzo per pezzo, dando pose maliziose alterando il contesto dell’immagine. Le violazioni sono tante, dalla privacy alle manipolazioni delle immagini, provocando un danno alla reputazione del minore. Il diritto non è al passo con quanto Meter denuncia.
I CHATBOT ADESCANO I BAMBINI… – Lo sviluppo dell’IA ha permesso ai pedofili il massimo risultato col minimo sforzo: mentre prima per adescare un bambino dovevano chattare di persona, adesso è possibile reperire un chatbot, cioè un programma che interagisce con i minori, usa il loro linguaggio al fine di creare una relazione empatica ed indurli allo scambio di materiale intimo. L’obiettivo è far sentire il bambino compreso, accettato, complice. In sostanza l’IA può manipolare i minori sfruttando le loro emozioni e convincendoli che in fondo “non c’è niente di male” a spogliarsi o considerare situazioni che di fatto non sono per nulla accettabili.
…E PER ADESSO SONO IMPRENDIBILI – Non è tutto: i chatbot cambiano link e canali continuamente, crittografano e distribuiscono in tempi rapidi il materiale. Diventa così quasi impossibile, per le forze dell’ordine, individuarli e bloccare. Secondo i nostri dati, raccolti dall’OSMOCOP (Osservatorio Mondiale di Contrasto alla Pedofilia di Meter) il sistema di messaggistica più usato è Signal (80%) che peraltro offre crittografia e alto anonimato, seguito da Telegram (canali pubblici e scarsa moderazione), Viber a pari merito con Whatsapp (3%, chat private e gruppi chiusi con comunicazione diretta), per chiudere con Instagram (2% adescando con profili falsi), e altre piattaforme (1% di cloud, forum, darknet).
METER HA DENUNCIATO SIGNAL – La nostra Associazione, dopo aver monitorato Telegram, Signal e Viber, ha in particolare denunciato Signal, che protegge la privacy delle conversazioni e che i pedofili e adescatori trovano perfetta, visto che la crittografia end-to-end utilizzata dall’app conferma il social come il primo ed estremo baluardo della privacy, impossibilitando qualsiasi azione di contrasto al fenomeno. In questo modo è possibile produrre e smerciare – o anche raccogliere – materiale pedopornografico in maniera pressoché indisturbata: solo dall’inizio dell’anno abbiamo segnalato 507 gruppi Signal con immagini sia originali che IA.
L’INDAGINE METER: IL 92% DEI RAGAZZI HA USATO UN CHATBOT – In collaborazione con il Servizio Nazionale Tutela dei Minori della Conferenza Episcopale Italiana (CEI), abbiamo proposto un questionario a 989 studenti degli Istituti secondari di secondo grado, fascia d’età 14-18. Tema delle domande il deepfake e il deepnude. Il 92,2% di essi hanno interagito con un chatbot, e l’81% del campione è convinto che i deepfake possano rovinare la reputazione e la vita di una persona. Il 53,4% conosce il fenomeno deepfake e il 42,3% ha visto qualcosa che l’ha messo a disagio.
I RAGAZZI CONOSCONO IL DEEPNUDE E NON DISTINGUONO TRA AI E REALTÀ – Il 65,7% degli intervistati conosce il fenomeno deepnude e il 59,4% teme la loro creazione e diffusione, un allarme sempre più preoccupante per i giovani. Peggio ancora: il 52,3% dei giovani non riesce a distinguere un video deepfake da uno reale. Lascia un po’ di speranza sapere che il 90,5% ritiene diffondere un deepfake e deepnude un serio pericolo, che il 65,1% di essi denuncerebbe senza indugio. Privacy, reputazione, indistinguibilità tra vero e falso: i giovani hanno paura di tutto questo.
IL DIRITTO È INADEGUATO – Le norme in tema di IA in vigore non tutelano abbastanza i minori. Non riescono ad affrontare il problema e non hanno adeguata velocità e incisività. L’Italia punisce la pornografia “virtuale”, applicando le disposizioni del codice penale in materia di produzione, divulgazione, diffusione e detenzione di materiale pedopornografico anche quando il predetto materiale pornografico rappresenta immagini virtuali realizzate utilizzando immagini di minori degli anni 18 o parti di esse.
DON DI NOTO: SIAMO ALL’ANNO ZERO, È TEMPO DI REAGIRE – “Attraverso questo Dossier Meter vuole denunciare e sollevare una forte presa di posizione della società, della politica e della chiesa, perché norme più uniformi e severe permettano di combattere questo abietto fenomeno. Offriamo la nostra competenza a Papa Leone XIV nel momento in cui egli annuncia la stesura di una lettera enciclica sull’IA. Anche questo è un fronte che non dev’essere ignorato”, conclude don Fortunato Di Noto, fondatore e presidente di Meter ETS.
CS