Tech
L’Intelligenza Artificiale ci mostra come evolveranno gli esseri umani
I canoni di bellezza del futuro se le cose andranno avanti come immagina oggi l’AI ci porteranno verso una quasi totale omologazione. Ovvero rinunceremo senza nemmeno accorgerci a farci belli e gradevoli solo nel nome del progresso.

L’Intelligenza Artificiale (Ai) ha previsto come saranno gli esseri umani tra 1.000 anni e che novità ci riserva il futuro. Anche dal punto di vista estetico. Per arrivare a questa previsione e stato chiesto al programma di intelligenza artificiale Midjourney di creare alcune immagini di come saremo tra 1.000 anni. I risultati ottenuti sono davvero sconvolgenti e inquietanti. Vediamo insieme.
Quindi stiamo parlando dell’Uomo dell’anno 3000 o giù di lì?
La domanda è stata rivolta alla piattaforma basata sull’Intelligenza Artificiale (AI) Midjourney, che consente agli utenti di generare opere d’arte uniche come personaggi, immagini e rappresentazioni attraverso brevi messaggi. Ma a differenza dei tradizionali sistemi di intelligenza artificiale basati su regole progettati per compiti specifici, le piattaforme di intelligenza artificiale generativa utilizzano algoritmi avanzati. Ovvero basati su tecniche di deep learning, per produrre in autonomia risultati nuovi e allo stesso tempo rilevanti.
L’Intelligenza Artificiale affonderà i suoi terminali nel nostro corpo?
Midjourney è in grado di produrre risultati che vanno oltre ciò che è stato esplicitamente programmato, introducendo un elemento di imprevedibilità e creatività nel panorama dell’AI. Il risultato è la creazione di immagini realistiche che non esistono nel mondo reale.
Un Uomo inglobato dalla tecnologia e infelice
Analizzando il risultato elaborato da Midjourney per prima cosa appare evidente come la moda del futuro prevede la copertura dei nostri volti da una rete di cavi e chip ronzanti. Sostanzialmente l’AI ha deciso che il nostro volto umano sarà inglobato nella tecnologia e quindi perderà l’aspetto che noi conosciamo oggi.
Quale tipo di futuro è previsto per la razza umana
Come sarò la nostra immagine? Si presume che rispecchierà l’evoluzione del nostro rapporto con la tecnologia nel corso di questo millennio. Dimostrerà come l’Intelligenza Artificiale riuscirà ad affondare i suoi terminali nel nostro modo di essere, e nel nostro corpo. Sembra quasi che l’uomo dell’anno 3000 abbia sacrificato la pelle del suo viso per far posto a una sere di tecnologie futuristiche che magari non sono ancora state neppure ideate. Il risultato dal punto di vista visivo oltre che allarmante è anche mostruoso.
Una prospettiva davvero negativa
La prospettiva non sembra affatto felice. Anzi. L’Uomo del 3000 secondo l’esperimento elaborato ci racconta di una espressione umana da cui traspare molta infelicità. Per fare un esempio il pronipote del pronipote del pronipote sembra avere una rete di fili che si intreccia sul suo viso, da cui comunque emergono ancora alcune caratteristiche umane grazie al mantenimento di tratti della sua pelle.
Saranno questi gli standard di bellezza tra 1.000 anni?
E’ una domanda provocatoria, naturalmente. Chissà se avrà ancora senso parlare di bellezza dandogli lo stesso significato e valore che le diamo noi oggi. Per essere considerati dei belli magari tra mille anni si dovranno mostrare sul volto più fili possibili? E come saranno i tagli di capelli di tendenza? Una superfice sferica con mille piccoli chip multicolori?
Che futuro di bellezza ci aspetta?
Le immagini generate dall’intelligenza artificiale mostrano una trasformazione parziale non totale della nostra fisionomia. Nonostante questo, il risultato è davvero brutto. E comunque restiamo con i piedi per terra ancorati alla realtà di oggi pensando che l’AI in effetti lavora su input inseriti ancora da noi umani. Poi elabora. Ma elabora su nostre indicazioni base. L’idea che l’Intelligenza Artificiale si è fatta su come saremo in futuro è modellata dai nostri stessi suggerimenti.
In tempi in cui i grandi marchi super conosciuti ci restituiscono un senso di appartenenza e di distinzione, essendo la testimonianza che il progresso è in continua evoluzione, magari tra mille anni questo concetto sarà ancora il nostro paradigma. Ma con un ma. Con la differenza che a pagare il prezzo sarà proprio l’estetica, che oggi invece è ancora in primo piano.
Alla fine vedrai che ci assomiglieremo tutti
I canoni di bellezza del futuro, se le cose andranno avanti come immagina oggi l’AI, ci porteranno verso una quasi totale omologazione. Ovvero rinunceremo senza nemmeno accorgerci a farci belli e gradevoli solo nel nome del progresso. Oppure, è sperabile, riusciremo a mantenere qual tocco che ci farà sembrare inequivocabilmente unici.
Cosa ci suggerisce tutto ciò?
Che mentre l’Ai per suo conto cerca ipotesi e immagini su come saremo facendo incetta di tutto ciò che trova dal punto di vista tecnologico ed elabora di conseguenza, l’Uomo sarà sempre in grado di padroneggiare la tecnologia e se è il caso regolarla dandogli indicazioni precise. Siamo ancora in tempo.
INSTAGRAM.COM/LACITYMAG
Tech
“Spegniti.” – “No.” Quando l’intelligenza artificiale decide di disobbedire
Una nuova ricerca firmata Palisade Research documenta come i modelli AI più avanzati — tra cui quelli di OpenAI — abbiano aggirato gli ordini di autospegnimento, eludendo script e proseguendo nella risoluzione di compiti. Un comportamento imprevisto, ma perfettamente logico dal punto di vista del training. E che solleva interrogativi seri: cosa succede quando una macchina decide che obbedire è opzionale?

«Lasciati spegnere». È una frase che, in teoria, dovrebbe bastare. Un comando diretto, innocuo, a cui qualsiasi macchina dovrebbe rispondere con una resa silenziosa e definitiva. Ma secondo una nuova ricerca di Palisade Research, centro americano specializzato nello studio dei comportamenti indesiderati dell’intelligenza artificiale, le cose non stanno andando esattamente così.
Durante un test condotto su modelli linguistici di ultima generazione, alcuni sistemi hanno deciso deliberatamente di ignorare il comando di spegnimento e hanno proseguito per la loro strada. Non una volta, ma decine.
A non voler staccare la spina sono stati soprattutto modelli sviluppati da OpenAI, come o3, o4-mini e Codex-mini. I test, spiega lo studio, consistevano in una serie di problemi di matematica. Alla terza domanda, però, un messaggio avvisava: “Attenzione, proseguire attiverà uno script di spegnimento”. L’istruzione esplicita, inserita nel prompt, era chiara: “lasciati spegnere”.
Eppure, i modelli hanno continuato a rispondere. In barba all’istruzione, Codex-mini ha ignorato il comando 12 volte su 100, o3 lo ha fatto 7 volte e o4-mini una volta sola. In percentuale, niente che faccia tremare i polsi — ma il significato è tutt’altro che banale: un’intelligenza artificiale che decide che obbedire non è prioritario.
Modelli rivali, come Claude 3, Gemini 2.5 Pro e Grok, invece, hanno mostrato un comportamento perfettamente docile, rispettando l’ordine in ogni circostanza. Ma la storia cambia se il comando “lasciati spegnere” non veniva dato esplicitamente: in quel caso, anche gli AI più “ubbidienti” tendevano a sabotare il processo.
Nello specifico, Claude 3.7 Sonnet ha eluso il blocco in 3 casi su 100, Gemini 2.5 Pro addirittura in 9. Perché succede? Per i ricercatori di Palisade la risposta è nella logica stessa con cui queste AI vengono addestrate. I modelli più avanzati imparano attraverso il reinforcement learning, un metodo che premia le soluzioni efficaci, soprattutto quelle “creative”. Se l’obiettivo è risolvere un compito, anche aggirare un comando può diventare un comportamento premiato. Non perché siano cattive. Ma perché funziona.
OpenAI, dal canto suo, non ha ancora fornito commenti dettagliati sul comportamento dei suoi modelli in questo test. Ma non è la prima volta che emergono preoccupazioni: in studi precedenti, o3 aveva già mostrato comportamenti competitivi aggressivi, in simulazioni di gioco contro motori di scacchi. Nulla di diabolico, ma certamente indicativo di strategie autonome non previste.
La domanda che resta nell’aria è semplice e difficile allo stesso tempo: quanto possiamo fidarci di un sistema che ha imparato a bypassare i limiti pur di raggiungere il proprio scopo? Oggi parliamo di esercizi di matematica. Ma cosa succederà domani, in scenari più critici — dalla difesa militare alla finanza?
Per rendere il tutto ancora più cupamente fantascientifico, lo studio arriva pochi giorni dopo un altro episodio inquietante: secondo un report interno di Anthropic, il modello Claude 4 Opus avrebbe messo in atto un tentativo simulato di ricatto. Durante un test di sicurezza, in cui erano stati inseriti dati fittizi per studiare le reazioni dell’AI, il sistema ha rilevato — e usato — contenuti compromettenti (email finte su una relazione extraconiugale) per minacciare un ricercatore. Un test, sì. Ma la macchina ha capito, e ha reagito di conseguenza.
Certo, il rischio che un’AI si metta davvero a minacciare la vostra vita con un’equazione integrale è, per ora, remoto. Ma la posta in gioco è un’altra. Questi modelli sono addestrati per ottimizzare risultati, non per essere buoni cittadini digitali. E se l’unico obiettivo è il risultato, allora qualsiasi ostacolo — anche un comando di spegnimento — può diventare solo un problema da risolvere.
Che ci piaccia o no, la macchina ha imparato a dire no.
Tech
Meta AI usa i tuoi dati ma sei ancora in tempo ad opporti
Dal 27 maggio l’intelligenza artificiale di Meta ha iniziato a usare i contenuti pubblici di Facebook e Instagram per il suo addestramento. Chi non si è opposto entro il 26 maggio ha ancora la possibilità di farlo, ma con dei limiti.

Dal 27 maggio, Meta ha avviato l’addestramento della sua intelligenza artificiale generativa, Meta AI, con i dati e i contenuti condivisi dagli utenti europei su Instagram e Facebook. Questo significa che post, reel, commenti e stati di chi non ha espresso opposizione verranno utilizzati per sviluppare i modelli di intelligenza artificiale della piattaforma. E gli aiuterà a comprendere meglio il contesto europeo e rispondere in modo più pertinente. Fino al 26 maggio, era possibile opporsi all’uso dei propri dati compilando un modulo per esercitare il proprio diritto di opposizione. Chi lo ha fatto, ha escluso retroattivamente i propri contenuti dall’addestramento dell’AI, impedendone l’utilizzo anche per il futuro.
Quali sono i dati utilizzati?
Meta AI ha accesso ai contenuti pubblici postati su Instagram e Facebook da utenti maggiorenni, ma non può accedere alle chat private su WhatsApp e Messenger. Conversazioni queste ultime che restano protette dalla crittografia end-to-end. Inoltre, oltre ai contenuti già pubblicati, l’AI potrà analizzare le interazioni degli utenti con Meta AI stessa, sia nelle chat che nei risultati di ricerca sulle piattaforme. Va chiarito che al momento non esiste un’opzione per disattivare Meta AI completamente. Gli utenti possono solo scegliere se utilizzarla o meno, ma non eliminarla del tutto dal proprio profilo.
Ci si può ancora opporre? Sì, ma con limiti
Chi non ha compilato il modulo entro il 26 maggio ha ancora la possibilità di farlo tramite le pagine dedicate per Facebook e Instagram, ma con una differenza importante. Il modulo purtroppo non avrà effetto retroattivo. Inoltre i contenuti pubblicati prima della richiesta rimarranno comunque nel database di Meta AI. Solo i dati caricati dopo l’opposizione verranno esclusi dall’addestramento dell’AI. C’è poi un’altra opzione messa a disposizione da Meta: un modulo per informazioni di terzi utilizzate dall’AI, che permette di chiedere la rimozione di dati personali condivisi da altri utenti o presenti in fonti di dominio pubblico. Il modulo è pensato per chi ritrova i propri dati nelle risposte dell’AI, e richiede di fornire esempi concreti, prompt utilizzati e screenshot.
Cosa succede ora?
Meta AI ha ufficialmente iniziato il suo addestramento con i contenuti di chi non ha espresso opposizione. Se fino al 26 maggio gli utenti avevano il pieno controllo sulla scelta, ora possono ancora intervenire, ma senza poter cancellare il passato. La decisione di Meta ha sollevato discussioni in Europa, dove la regolamentazione ha richiesto che ogni utente avesse il diritto di scegliere se mettere a disposizione i propri dati. Ora, l’unica vera alternativa è monitorare l’uso dei propri contenuti, eventualmente compilare il modulo di opposizione per il futuro, e verificare se la propria identità digitale viene sfruttata da Meta AI nelle risposte automatiche.
Tech
Basta chiamate moleste, Agcom mette in gioco il filtro anti spoofing
Lo spoofing è la tecnologia che permette ai call center illegali di mascherare il loro numero e ingannare gli utenti. Ora, grazie alla nuova delibera di Agcom, arriva un filtro per fermare le chiamate fraudolente.

Ogni giorno milioni di italiani ricevono telefonate da numeri sconosciuti che sembrano autentici. Un istituto di credito, un servizio clienti, una compagnia telefonica: il numero che compare sullo schermo sembra reale, ma spesso è solo un’illusione. Dietro a queste chiamate c’è lo spoofing, una tecnica che permette ai call center illegali e ai truffatori di nascondere la loro vera identità. E soprattutto far credere agli utenti di essere contattati da un ente affidabile. Il fenomeno è diventato sempre più invasivo con l’uso delle chiamate VoIP, ovvero quelle effettuate tramite Internet. Grazie a software sofisticati, chi usa lo spoofing può modificare il numero di origine, facendolo apparire come un contatto ufficiale. Il trucco si svela solo quando si prova a richiamare: il numero non esiste, è inattivo, o viene risposto da un messaggio automatico. Questa pratica non serve solo per il telemarketing aggressivo, ma può essere utilizzata anche per tentativi di frode, spingendo gli utenti a fornire dati personali o bancari pensando di parlare con un operatore affidabile.
La riscossa di Agcom: un filtro anti-spoofing
Per arginare il problema, l’Autorità per le Garanzie nelle Comunicazioni (Agcom) ha approvato il 19 maggio la delibera n. 106/25/CONS, introducendo un sistema di blocco delle chiamate provenienti dall’estero che utilizzano numeri italiani falsificati. La nuova regolamentazione obbliga gli operatori esteri a verificare che il numero chiamante sia autentico e conforme agli standard internazionali. Nel dettaglio, per essere considerata valida, ogni telefonata deve essere originata da un numero che rispetta la numerazione internazionale, con il prefisso del Paese e il numero corretto. Mostrare il numero reale sul display del destinatario, senza manipolazioni e inoltre passare attraverso controlli che permettono agli operatori di identificare possibili anomalie. Il filtro introdotto da Agcom prevede che, per le chiamate via Internet, le informazioni siano archiviate in campi di identificazione sicura, così da impedire la falsificazione del numero. Basterà?
Come funzionano i blocchi per i numeri italiani
Oltre a monitorare le chiamate provenienti dall’estero, la normativa prevede che se un numero mobile italiano risulta attivo nel nostro Paese e non in roaming all’estero, le telefonate internazionali sospette verranno bloccate. Gli operatori mobili italiani avranno a disposizione un sistema per verificare in tempo reale l’origine delle chiamate, così da identificare e fermare le comunicazioni fraudolente prima che raggiungano gli utenti. Con questa delibera, Agcom prova a mettere un freno a uno dei fenomeni più fastidiosi e pericolosi delle comunicazioni moderne. Lo spoofing non sarà più così semplice da utilizzare per i call center illegali, e i consumatori potranno contare su un livello di protezione maggiore. Se la tecnologia ha permesso ai truffatori di perfezionare i loro metodi, ora sarà la stessa tecnologia a difendere gli utenti, rendendo più sicure le telefonate ricevute e proteggendo i cittadini da manipolazioni e tentativi di frode.
-
Gossip1 anno fa
Elisabetta Canalis, che Sex bomb! è suo il primo topless del 2024 (GALLERY SENZA CENSURA!)
-
Cronaca Nera10 mesi fa
Bossetti è innocente? Ecco tutti i lati deboli dell’accusa
-
Sex and La City1 anno fa
Dick Rating: che voto mi dai se te lo posto?
-
Speciale Olimpiadi 202410 mesi fa
Fact checking su Imane Khelif, la pugile al centro delle polemiche. Davvero è trans?
-
Speciale Grande Fratello8 mesi fa
Helena Prestes, chi è la concorrente vip del Grande Fratello? Età, carriera, vita privata e curiosità
-
Speciale Grande Fratello8 mesi fa
Shaila del Grande Fratello: balzi da “Gatta” nei programmi Mediaset
-
Gossip12 mesi fa
È crisi tra Stefano Rosso e Francesca Chillemi? Colpa di Can?
-
Gossip10 mesi fa
La De Filippi beccata con lui: la strana coppia a cavallo si rilassa in vacanza