Cronaca
Porno con l’intelligenza artificiale: SocialMediaGirls, il sito che “spoglia” le vip italiane.
Sul sito “SocialMediaGirls.com” circolano immagini deepfake iperrealistiche generate con l’Ai. La giornalista Francesca Barra denuncia alla Polizia Postale: «Non sono io, ma qualcuno ha costruito quella menzogna. È un abuso che marchia la dignità».
Un’altra pagina nera del web. Dopo il caso “Phica.net”, un nuovo sito pornografico non consensuale è finito nel mirino delle autorità. Si chiama SocialMediaGirls.com, e dietro la facciata di un forum per adulti ospita centinaia di immagini false, create con l’intelligenza artificiale, che ritraggono donne famose completamente nude. Scatti mai esistiti, ma talmente realistici da sembrare veri.
Il meccanismo è perverso e tecnologicamente raffinato: l’Ai viene utilizzata per “spogliare” qualunque fotografia pubblica, manipolandola fino a renderla un ritratto pornografico credibile. A finire nel tritacarne digitale non sono solo influencer e modelle, ma anche conduttrici, giornaliste e politiche italiane: Anna Tatangelo, Chiara Ferragni, Maria De Filippi, Selvaggia Lucarelli, Maria Elena Boschi, Cristina D’Avena, Annalisa, Andrea Delogu, Benedetta Parodi e Angelina Mango.
La prima a denunciare pubblicamente l’abuso è stata Francesca Barra, giornalista e scrittrice, che ha scoperto sul sito false immagini di sé. «Non sono io, ma qualcuno ha deciso di costruire quella menzogna per ottenere attenzione e insinuare il dubbio che potessi essermi mostrata in quel modo negli ambienti in cui lavoro» ha scritto sui social.
«Ho pensato ai miei figli, all’imbarazzo e alla paura. Non è arte, è una violenza. Un abuso che marchia la dignità e la fiducia».
La Barra ha sporto denuncia alla Polizia Postale, dando il via a un’indagine che si preannuncia complessa. Perché, come già accaduto con “Phica.net”, il sito si muove in una zona d’ombra del web, nascosto tra forum accessibili solo agli iscritti e server collocati all’estero. Nella sezione italiana del portale, chiamata “Italian Nude Vip”, compaiono decine di pagine dedicate a celebrità nostrane.
E non si tratta soltanto di deepfake: in alcuni casi circolano anche foto rubate da telefoni o telecamere di sorveglianza, oppure scatti presi da Instagram e manipolati.
La parte più inquietante è che il sito offre una app — con prova gratuita — che promette a chiunque di “denudare” una persona in pochi click. Il software, ribattezzato “Ai Undress Porn”, consente di caricare una foto qualsiasi e ottenere un risultato iperrealistico in pochi secondi. Un giocattolo tecnologico che trasforma l’intelligenza artificiale in uno strumento di violenza di genere.
«Le tecnologie dovrebbero servire al progresso, non alla sopraffazione» ha commentato ancora la Barra. «E invece troppo spesso diventano armi di vergogna e di distruzione dell’identità. Chi crea o diffonde questo materiale commette un reato, ma la legge arriva sempre dopo».
Il nuovo caso riaccende il dibattito sulla pornografia non consensuale e sui limiti dell’Ai, tema ancora privo di una normativa specifica. Gli strumenti di generazione automatica delle immagini, nati per scopi artistici o commerciali, vengono usati per creare contenuti pornografici falsi che si diffondono senza controllo. Un fenomeno che colpisce le donne in modo sproporzionato, rendendo la rete un luogo potenzialmente ostile.
La Polizia Postale ha già avviato accertamenti per identificare gli amministratori del forum e bloccarne l’accesso dall’Italia. Ma il rischio è che, come accaduto in passato, il sito ricompaia altrove, con un altro nome e nuovi domini.
Nel frattempo, la vicenda ha scatenato indignazione tra le protagoniste involontarie di questi falsi scatti, molte delle quali stanno valutando azioni legali.
Francesca Barra, che ha da poco discusso una tesi in criminologia sul cyberbullismo, riassume il senso della battaglia in poche parole: «Nessuna donna dovrebbe trovarsi davanti a un corpo inventato e sentirsi ferita due volte: nell’immagine e nell’impunità».
E mentre la tecnologia continua a correre, la dignità digitale sembra arrancare. Perché l’intelligenza artificiale, se lasciata senza regole, rischia di diventare — ancora una volta — l’arma più moderna di un’antica forma di violenza.
