Cose dell'altro mondo

La procura di Roma indaga sui “nudi” generate dall’IA: immagini porno false di giornaliste e vip, inchiesta sul nuovo reato 612-quater

A piazzale Clodio è partita un’indagine dopo la pubblicazione online di immagini deepfake che ritraggono donne del mondo dell’informazione e dello spettacolo. Si procede sulla base della fattispecie introdotta lo scorso ottobre nel codice penale: la diffusione illecita di contenuti generati o alterati con IA, punita con reclusione da uno a cinque anni.

Published

on

    La corsa della tecnologia sta producendo nuovi danni che la legge prova a intercettare. La procura di Roma ha aperto un fascicolo in seguito alla pubblicazione su un sito per adulti di immagini ritraenti giornaliste e donne dello spettacolo in pose o condizioni di nudo, immagini che — secondo le denunce raccolte — sarebbero state realizzate o manipolate attraverso sistemi di intelligenza artificiale. Tra le persone che hanno segnalato la vicenda c’è la giornalista Francesca Barra, che ha formalizzato la denuncia e ha portato la questione all’attenzione dei magistrati.

    Il quadro giudiziario
    Il procedimento è inquadrato nella nuova fattispecie penale inserita nel codice lo scorso ottobre: l’articolo 612-quater, che punisce la diffusione illecita di contenuti generati o alterati mediante sistemi di intelligenza artificiale. La norma risponde proprio all’emergere dei cosiddetti deepfake e prevede una pena detentiva che va da uno a cinque anni. Nel fascicolo romano i pm stanno valutando responsabilità e modalità di diffusione: se e come le immagini sono state create, chi le ha caricate e quali canali di distribuzione sono stati impiegati.

    Le indagini e le tracce digitali
    Gli accertamenti si concentrano su più fronti: raccolta delle segnalazioni, acquisizione dei file pubblicati, identificazione dei gestori del sito e dei profili responsabili della diffusione. I magistrati potranno richiedere consulenze tecniche per stabilire se le immagini siano effettivamente artefatte o il risultato di manipolazioni, e per ricostruire i collegamenti informatici. Non è escluso il coinvolgimento della Polizia Postale e di esperti di informatica forense, chiamati a mappare server, account e flussi di condivisione.

    Il problema sociale e le vittime
    Dietro l’apparato tecnologico ci sono persone reali: la diffusione di immagini intime fabbricate con l’IA può avere effetti profondi sulla reputazione, sulla sfera privata e sulla salute psicologica delle vittime. La nuova norma intende tutela­re la dignità e il diritto all’immagine in un contesto dove la circolazione virale del materiale digitale può amplificare il danno in poche ore. Nel contempo, le procure devono però dimostrare l’illiceità della condotta e il collegamento tra gli autori materiali e la rete di diffusione.

    Verso responsabilità e prevenzione
    L’episodio romano riporta al centro il nodo della responsabilità online: piattaforme, gestori di siti e intermediari tecnici sono spesso snodi chiave per risalire ai responsabili. L’indagine avviata a Roma potrebbe portare a misure cautelari, sequestri e richieste di identificazione degli autori. Ma solleva anche la questione preventiva: come regolamentare l’uso di tecnologie in grado di riprodurre fedelmente volti e voci e come tutelare le potenziali vittime prima che il danno si consumi.

    Il fascicolo di piazzale Clodio è solo il primo passo di una partita che unisce diritto penale, tecnologie digitali e tutela delle persone: nelle prossime settimane saranno gli atti investigativi a chiarire responsabilità, dinamiche di diffusione e, si spera, a prevenire nuovi abusi.

      Ultime notizie

      Exit mobile version