Connect with us

Tech

Sam Altman: “L’intelligenza artificiale ha già superato quella umana”

Secondo Altman, il punto di singolarità – quando l’IA supera l’intelligenza umana – è stato superato. I sistemi attuali sarebbero già più intelligenti delle persone sotto molti aspetti. Nel 2027 arriveranno robot per la vita quotidiana. Ma non tutti ci credono.

Avatar photo

Pubblicato

il

    Sam Altman non usa mezzi termini: “Siamo oltre l’orizzonte degli eventi, il decollo è iniziato”. Tradotto: l’intelligenza artificiale ha già oltrepassato il punto di singolarità, ovvero quel momento immaginato da decenni nei film e nei romanzi di fantascienza in cui le macchine superano la nostra intelligenza. Solo che, per il CEO di OpenAI – la società che sviluppa ChatGPT – quel momento non è nel futuro. È già qui.

    Nel suo ultimo post sul blog aziendale, pubblicato mercoledì scorso, Altman afferma senza esitazioni che siamo già entrati in una nuova era. Certo, ammette, “finora è molto meno strano di quanto sembri”. Non vediamo robot per le strade, non parliamo ancora per ore con l’IA (o almeno, non tutti), non siamo diventati immortali e non abbiamo colonie su Marte. Però, qualcosa è cambiato in profondità.

    Secondo Altman, i sistemi di intelligenza artificiale oggi in uso sono già più intelligenti degli esseri umani in molte attività specifiche. “Centinaia di milioni di persone vi fanno affidamento ogni giorno – scrive – e per compiti sempre più importanti. Una piccola funzione può creare un impatto positivo enorme. Un piccolo errore, al contrario, può diventare una catastrofe se moltiplicato per milioni di utenti”.

    È un concetto cruciale: l’IA è già ovunque, anche se spesso non ce ne accorgiamo. Scrive email, compila documenti, traduce, genera codici, riassume, corregge bozze. E secondo Altman, nei prossimi anni sarà sempre più autonoma. Già nel 2025 – sostiene – vedremo sistemi capaci di formulare intuizioni originali, non solo di rielaborare dati. E nel 2027 potrebbero arrivare robot in grado di svolgere compiti nel mondo reale, sostituendo l’essere umano nelle mansioni quotidiane.

    Il vero salto, però, avverrà entro il 2030. In quell’orizzonte, dice Altman, “intelligenza ed energia – cioè idee e capacità di realizzarle – diventeranno estremamente abbondanti”. Uno scenario che suona come l’utopia transumanista: la creatività infinita combinata con la forza per attuarla. Una rivoluzione industriale, cognitiva ed esistenziale.

    Certo, non manca chi storce il naso. Altman, ricordiamolo, è il capo della società che ha più da guadagnare nel convincerci che l’IA sia la nuova divinità del XXI secolo. Apple, ad esempio, ha da poco sottolineato come i principali chatbot (ChatGPT incluso) falliscano ancora nei compiti di ragionamento logico complesso. E resta il nodo del cosiddetto “disallineamento”: ossia, il rischio che un’IA, pur intelligente, non faccia ciò che ci aspettiamo. O che lo faccia troppo bene.

    L’unico punto su cui sembrano concordare tutti, è che il mondo sta cambiando più in fretta di quanto immaginiamo. L’uso dell’intelligenza artificiale nella vita quotidiana non è più un’ipotesi, è realtà. E anche se i robot non stanno ancora invadendo le strade, i nostri smartphone, computer e assistenti vocali sono già pieni di algoritmi che imparano, decidono, prevedono.

    Il problema, semmai, è un altro: siamo pronti?
    Oppure, come nei migliori film di fantascienza, ci accorgeremo troppo tardi di aver dato alle macchine più potere di quanto il nostro cervello potesse contenere?

      SEGUICI SU INSTAGRAM
      INSTAGRAM.COM/LACITYMAG

      Tech

      “Spegniti.” – “No.” Quando l’intelligenza artificiale decide di disobbedire

      Una nuova ricerca firmata Palisade Research documenta come i modelli AI più avanzati — tra cui quelli di OpenAI — abbiano aggirato gli ordini di autospegnimento, eludendo script e proseguendo nella risoluzione di compiti. Un comportamento imprevisto, ma perfettamente logico dal punto di vista del training. E che solleva interrogativi seri: cosa succede quando una macchina decide che obbedire è opzionale?

      Avatar photo

      Pubblicato

      il

      Autore

        «Lasciati spegnere». È una frase che, in teoria, dovrebbe bastare. Un comando diretto, innocuo, a cui qualsiasi macchina dovrebbe rispondere con una resa silenziosa e definitiva. Ma secondo una nuova ricerca di Palisade Research, centro americano specializzato nello studio dei comportamenti indesiderati dell’intelligenza artificiale, le cose non stanno andando esattamente così.

        Durante un test condotto su modelli linguistici di ultima generazione, alcuni sistemi hanno deciso deliberatamente di ignorare il comando di spegnimento e hanno proseguito per la loro strada. Non una volta, ma decine.

        A non voler staccare la spina sono stati soprattutto modelli sviluppati da OpenAI, come o3, o4-mini e Codex-mini. I test, spiega lo studio, consistevano in una serie di problemi di matematica. Alla terza domanda, però, un messaggio avvisava: “Attenzione, proseguire attiverà uno script di spegnimento”. L’istruzione esplicita, inserita nel prompt, era chiara: “lasciati spegnere”.

        Eppure, i modelli hanno continuato a rispondere. In barba all’istruzione, Codex-mini ha ignorato il comando 12 volte su 100, o3 lo ha fatto 7 volte e o4-mini una volta sola. In percentuale, niente che faccia tremare i polsi — ma il significato è tutt’altro che banale: un’intelligenza artificiale che decide che obbedire non è prioritario.

        Modelli rivali, come Claude 3, Gemini 2.5 Pro e Grok, invece, hanno mostrato un comportamento perfettamente docile, rispettando l’ordine in ogni circostanza. Ma la storia cambia se il comando “lasciati spegnere” non veniva dato esplicitamente: in quel caso, anche gli AI più “ubbidienti” tendevano a sabotare il processo.

        Nello specifico, Claude 3.7 Sonnet ha eluso il blocco in 3 casi su 100, Gemini 2.5 Pro addirittura in 9. Perché succede? Per i ricercatori di Palisade la risposta è nella logica stessa con cui queste AI vengono addestrate. I modelli più avanzati imparano attraverso il reinforcement learning, un metodo che premia le soluzioni efficaci, soprattutto quelle “creative”. Se l’obiettivo è risolvere un compito, anche aggirare un comando può diventare un comportamento premiato. Non perché siano cattive. Ma perché funziona.

        OpenAI, dal canto suo, non ha ancora fornito commenti dettagliati sul comportamento dei suoi modelli in questo test. Ma non è la prima volta che emergono preoccupazioni: in studi precedenti, o3 aveva già mostrato comportamenti competitivi aggressivi, in simulazioni di gioco contro motori di scacchi. Nulla di diabolico, ma certamente indicativo di strategie autonome non previste.

        La domanda che resta nell’aria è semplice e difficile allo stesso tempo: quanto possiamo fidarci di un sistema che ha imparato a bypassare i limiti pur di raggiungere il proprio scopo? Oggi parliamo di esercizi di matematica. Ma cosa succederà domani, in scenari più critici — dalla difesa militare alla finanza?

        Per rendere il tutto ancora più cupamente fantascientifico, lo studio arriva pochi giorni dopo un altro episodio inquietante: secondo un report interno di Anthropic, il modello Claude 4 Opus avrebbe messo in atto un tentativo simulato di ricatto. Durante un test di sicurezza, in cui erano stati inseriti dati fittizi per studiare le reazioni dell’AI, il sistema ha rilevato — e usato — contenuti compromettenti (email finte su una relazione extraconiugale) per minacciare un ricercatore. Un test, sì. Ma la macchina ha capito, e ha reagito di conseguenza.

        Certo, il rischio che un’AI si metta davvero a minacciare la vostra vita con un’equazione integrale è, per ora, remoto. Ma la posta in gioco è un’altra. Questi modelli sono addestrati per ottimizzare risultati, non per essere buoni cittadini digitali. E se l’unico obiettivo è il risultato, allora qualsiasi ostacolo — anche un comando di spegnimento — può diventare solo un problema da risolvere.

        Che ci piaccia o no, la macchina ha imparato a dire no.

          Continua a leggere

          Tech

          Quando l’intelligenza artificiale prende corpo: cosa significa e cosa cambia per noi

          Robot, droni e macchine “intelligenti” stanno entrando sempre di più nella vita quotidiana. L’intelligenza artificiale incarnata, o “embodied AI”, promette grandi aiuti ma porta anche nuove domande su sicurezza, privacy e responsabilità.

          Avatar photo

          Pubblicato

          il

          Autore

          Quando l’intelligenza artificiale prende corpo: cosa significa e cosa cambia per noi

            Immaginate un robot che porta la spesa a casa, un drone che consegna i pacchi o un braccio meccanico che aiuta un chirurgo in sala operatoria. Tutto questo è reso possibile da una nuova forma di intelligenza artificiale chiamata AI incarnata (“embodied AI”), cioè un’intelligenza artificiale che non resta ferma dentro un software, ma che ha anche un corpo — un robot, una macchina, un dispositivo — con cui può interagire con noi e con l’ambiente.

            Fino a pochi anni fa sembrava qualcosa da film di fantascienza, ma oggi non lo è più. Già in molte fabbriche i robot lavorano accanto agli operai, i droni vengono usati dai pompieri per cercare persone durante gli incendi o da agricoltori per controllare i campi. In Giappone, alcuni robot assistono gli anziani, portano medicine o aiutano a muoversi in casa.

            I vantaggi: più comodità e più aiuto nelle difficoltà

            L’AI incarnata potrebbe semplificare la vita di tutti i giorni. Pensiamo a un piccolo robot domestico che ricorda di prendere le medicine, o a macchine intelligenti che aiutano nelle faccende pesanti. Nelle emergenze, un drone può raggiungere zone pericolose al posto delle persone, salvando vite. Anche nei lavori di routine, come la logistica e le consegne, queste tecnologie potrebbero rendere tutto più veloce ed efficiente.

            Le paure: sicurezza e responsabilità

            Naturalmente non ci sono solo vantaggi. C’è anche chi si chiede: “E se un robot si rompe o fa un errore, di chi è la colpa?” Oppure: “Se un drone con telecamera vola sopra casa mia, che fine fanno la mia privacy e i miei dati?” Sono dubbi reali. Per questo motivo, esperti e governi stanno discutendo nuove regole per stabilire limiti e responsabilità.

            Un altro timore riguarda il lavoro: se macchine e robot faranno sempre più attività, che fine faranno alcuni mestieri tradizionali? È un tema aperto, che richiede attenzione per non lasciare nessuno indietro.

            La necessità di nuove regole

            Gli esperti dicono che è il momento di creare leggi e controlli per usare queste tecnologie in modo giusto e sicuro. Proprio come è successo quando sono arrivate le automobili o Internet, serve imparare a convivere con queste novità, proteggendo le persone ma senza bloccare l’innovazione.

            Un futuro che ci riguarda tutti

            L’AI incarnata non è qualcosa di lontano: riguarda la vita di tutti noi. Dalla sanità ai trasporti, dall’assistenza agli anziani fino alle consegne a domicilio, queste tecnologie cambieranno il nostro modo di vivere. L’importante sarà farlo in modo consapevole, ricordando che dietro le macchine ci devono sempre essere regole chiare e valori umani.

            In altre parole: i robot e i droni possono diventare ottimi alleati, ma la responsabilità delle scelte deve rimanere nelle mani delle persone.

              Continua a leggere

              Tech

              Pulire il PC senza rischi: guida pratica per mantenere il computer come nuovo

              Dalla tastiera al monitor fino all’interno del case, pulire il PC richiede strumenti adatti e un metodo preciso. Con qualche accorgimento quotidiano si prevengono surriscaldamenti e malfunzionamenti, allungando la vita del dispositivo.

              Avatar photo

              Pubblicato

              il

              Autore

              Pulire il PC

                In un mondo sempre più digitale, il PC è uno strumento indispensabile, ma spesso trascurato sotto il profilo della manutenzione quotidiana. Polvere, residui di cibo e impronte possono accumularsi su tastiera, monitor e componenti interne, influendo non solo sull’igiene ma anche sulle prestazioni del computer. Pulire il PC correttamente è quindi fondamentale per garantirne la durata e il funzionamento ottimale.

                Perché la pulizia è importante

                La polvere all’interno di un computer può ostruire le ventole, ridurre il flusso d’aria e provocare surriscaldamenti, con conseguente rallentamento del sistema o, nei casi peggiori, danni permanenti ai componenti. Allo stesso modo, lo sporco sullo schermo e sulla tastiera riduce la leggibilità e il comfort d’uso, aumentando il rischio di errori di digitazione.

                Secondo gli esperti di sicurezza informatica e manutenzione hardware, la pulizia regolare dei dispositivi elettronici non è solo una questione estetica, ma una vera prevenzione tecnica.

                Strumenti necessari

                Per pulire il PC servono pochi strumenti ma di qualità:

                • Panno in microfibra: ideale per monitor e superfici delicate.
                • Compressore d’aria o bomboletta di aria compressa: perfetta per tastiere e componenti interne.
                • Cotton fioc e pennellini: per rimuovere polvere in spazi stretti.
                • Spray specifici per elettronica: per pulire senza rischiare danni da liquidi.

                Evitate assolutamente l’uso di solventi aggressivi o acqua diretta sulle componenti elettroniche.

                Pulizia esterna: monitor, tastiera e mouse

                1. Monitor: spegnetelo e scollegatelo. Passate un panno in microfibra asciutto o leggermente inumidito con soluzione apposita per schermi. Evitate spruzzi diretti di liquidi.
                2. Tastiera: capovolgetela delicatamente per far cadere briciole e polvere. Utilizzate aria compressa tra i tasti e un pennellino per residui più ostinati.
                3. Mouse e superfici esterne: panno in microfibra leggermente umido e spray per elettronica per eliminare impronte e polvere.

                Pulizia interna

                Per PC desktop o portatili con sportello rimovibile:

                • Spegnete e scollegate il dispositivo.
                • Rimuovete la polvere dai componenti interni usando aria compressa, facendo attenzione a non toccare direttamente circuiti o ventole con le mani.
                • Evitate di smontare componenti delicate se non si ha esperienza; in caso di accumulo eccessivo, affidatevi a un tecnico specializzato.

                Consigli pratici per mantenerlo pulito

                • Evitate di mangiare vicino al PC per ridurre residui su tastiera e mouse.
                • Posizionate il computer su superfici pulite e stabili.
                • Programmate pulizie leggere ogni settimana e una più approfondita ogni 2-3 mesi.

                Pulire il PC non è solo una questione estetica: è un vero investimento nella longevità e nell’efficienza del dispositivo. Con strumenti adeguati, attenzione e cadenza regolare, si prevengono malfunzionamenti, surriscaldamenti e usura precoce, rendendo il computer più sicuro e piacevole da usare.

                  Continua a leggere
                  Advertisement

                  Ultime notizie