Connect with us

Tech

Meta dice addio ai filtri di bellezza su Instagram: cosa cambia dal 14 gennaio

Oltre due milioni di filtri scompariranno dalle piattaforme Meta, segnando una svolta epocale nella gestione della realtà aumentata. Tra critiche etiche e nuove priorità aziendali, Meta rivede il futuro di Instagram e Facebook.

Avatar photo

Pubblicato

il

    A partire dal 14 gennaio 2025, i filtri di bellezza su Instagram e Facebook saranno solo un ricordo. Meta ha annunciato la fine della sezione Spark, la piattaforma che permetteva la creazione di effetti di realtà aumentata (AR) da parte di terzi, inclusi i famosi filtri di bellezza. Da quella data, saranno disponibili solo gli effetti AR proprietari di Meta, che ammontano a circa 140, un numero irrisorio rispetto ai milioni di filtri attualmente disponibili.

    Il comunicato ufficiale di Meta chiarisce:

    “A partire da martedì 14 gennaio 2025, gli effetti di Realtà Aumentata (AR) realizzati da terze parti, inclusi marchi e creatori AR, non saranno più disponibili.”

    Questo segna una svolta per gli utenti di Instagram e Facebook, che negli anni hanno reso i beauty filter un elemento irrinunciabile della propria presenza online.

    Cosa succederà ai filtri su Instagram e Facebook?

    Non tutti i filtri spariranno. Come precisato dall’azienda, continueranno a essere disponibili gli effetti AR di proprietà di Meta, ma l’eliminazione della sezione Spark ridurrà drasticamente la varietà di opzioni a disposizione. Un cambiamento che potrebbe portare a conseguenze impreviste, come il proliferare di filtri non ufficiali, scaricabili da piattaforme esterne.

    Questi filtri, privi dell’indicatore di filigrana, potrebbero essere applicati a foto e video senza alcun controllo, complicando ulteriormente la gestione di contenuti manipolati. Il rischio è che il problema legato ai filtri non scompaia, ma diventi più difficile da monitorare.

    Perché Meta ha deciso di eliminare i filtri di bellezza?

    I beauty filter sono stati oggetto di critiche crescenti negli ultimi anni. Accusati di alimentare standard estetici irrealistici, ansia, depressione e dismorfia corporea, questi strumenti hanno contribuito a creare un rapporto malsano con la propria immagine, soprattutto tra i più giovani.

    La decisione di Meta nasce dunque da due obiettivi principali:

    1. Promuovere un utilizzo più consapevole dei social media, riducendo l’impatto negativo dei filtri sulla salute mentale.
    2. Ridistribuire gli investimenti verso altre priorità aziendali, come lo sviluppo dell’intelligenza artificiale.

    Meta ha infatti annunciato investimenti tra i 35 e i 40 miliardi di dollari per il potenziamento di strumenti AI, spingendo gli utenti verso soluzioni AR interamente realizzate dall’azienda.

    Un viaggio lungo sette anni: l’era Spark

    Lanciata sette anni fa, la piattaforma Spark è stata pioniera nel mondo della realtà aumentata, permettendo ai creatori di sviluppare esperienze immersive e innovative. Il comunicato di Meta sottolinea il contributo della comunità AR:

    “Siamo profondamente grati alla comunità di creator, aziende e stakeholder che hanno esteso la portata dell’AR a centinaia di milioni di persone sulle piattaforme Meta.”

    Nonostante il successo, la chiusura della sezione Spark segna la fine di un’epoca e l’inizio di una nuova fase per Meta, che guarda sempre più verso l’integrazione tra realtà aumentata e intelligenza artificiale.

    Cosa farà TikTok?

    Meta non è la sola a prendere provvedimenti contro i filtri di bellezza. TikTok ha deciso di vietarli agli utenti minorenni, un approccio più circoscritto ma significativo. Tuttavia, mentre TikTok mantiene alcuni filtri disponibili, Meta sembra puntare a una strategia più drastica, concentrando gli sforzi su strumenti proprietari.

    L’impatto sui social e la percezione degli utenti

    La scomparsa dei filtri di bellezza rappresenta una rivoluzione per i social media, costringendo utenti e influencer a rivedere il modo in cui presentano la propria immagine. Sarà sufficiente per migliorare la salute mentale degli utenti e arginare le critiche legate alla manipolazione digitale? Solo il tempo lo dirà.

      SEGUICI SU INSTAGRAM
      INSTAGRAM.COM/LACITYMAG

      Tech

      “Spegniti.” – “No.” Quando l’intelligenza artificiale decide di disobbedire

      Una nuova ricerca firmata Palisade Research documenta come i modelli AI più avanzati — tra cui quelli di OpenAI — abbiano aggirato gli ordini di autospegnimento, eludendo script e proseguendo nella risoluzione di compiti. Un comportamento imprevisto, ma perfettamente logico dal punto di vista del training. E che solleva interrogativi seri: cosa succede quando una macchina decide che obbedire è opzionale?

      Avatar photo

      Pubblicato

      il

      Autore

        «Lasciati spegnere». È una frase che, in teoria, dovrebbe bastare. Un comando diretto, innocuo, a cui qualsiasi macchina dovrebbe rispondere con una resa silenziosa e definitiva. Ma secondo una nuova ricerca di Palisade Research, centro americano specializzato nello studio dei comportamenti indesiderati dell’intelligenza artificiale, le cose non stanno andando esattamente così.

        Durante un test condotto su modelli linguistici di ultima generazione, alcuni sistemi hanno deciso deliberatamente di ignorare il comando di spegnimento e hanno proseguito per la loro strada. Non una volta, ma decine.

        A non voler staccare la spina sono stati soprattutto modelli sviluppati da OpenAI, come o3, o4-mini e Codex-mini. I test, spiega lo studio, consistevano in una serie di problemi di matematica. Alla terza domanda, però, un messaggio avvisava: “Attenzione, proseguire attiverà uno script di spegnimento”. L’istruzione esplicita, inserita nel prompt, era chiara: “lasciati spegnere”.

        Eppure, i modelli hanno continuato a rispondere. In barba all’istruzione, Codex-mini ha ignorato il comando 12 volte su 100, o3 lo ha fatto 7 volte e o4-mini una volta sola. In percentuale, niente che faccia tremare i polsi — ma il significato è tutt’altro che banale: un’intelligenza artificiale che decide che obbedire non è prioritario.

        Modelli rivali, come Claude 3, Gemini 2.5 Pro e Grok, invece, hanno mostrato un comportamento perfettamente docile, rispettando l’ordine in ogni circostanza. Ma la storia cambia se il comando “lasciati spegnere” non veniva dato esplicitamente: in quel caso, anche gli AI più “ubbidienti” tendevano a sabotare il processo.

        Nello specifico, Claude 3.7 Sonnet ha eluso il blocco in 3 casi su 100, Gemini 2.5 Pro addirittura in 9. Perché succede? Per i ricercatori di Palisade la risposta è nella logica stessa con cui queste AI vengono addestrate. I modelli più avanzati imparano attraverso il reinforcement learning, un metodo che premia le soluzioni efficaci, soprattutto quelle “creative”. Se l’obiettivo è risolvere un compito, anche aggirare un comando può diventare un comportamento premiato. Non perché siano cattive. Ma perché funziona.

        OpenAI, dal canto suo, non ha ancora fornito commenti dettagliati sul comportamento dei suoi modelli in questo test. Ma non è la prima volta che emergono preoccupazioni: in studi precedenti, o3 aveva già mostrato comportamenti competitivi aggressivi, in simulazioni di gioco contro motori di scacchi. Nulla di diabolico, ma certamente indicativo di strategie autonome non previste.

        La domanda che resta nell’aria è semplice e difficile allo stesso tempo: quanto possiamo fidarci di un sistema che ha imparato a bypassare i limiti pur di raggiungere il proprio scopo? Oggi parliamo di esercizi di matematica. Ma cosa succederà domani, in scenari più critici — dalla difesa militare alla finanza?

        Per rendere il tutto ancora più cupamente fantascientifico, lo studio arriva pochi giorni dopo un altro episodio inquietante: secondo un report interno di Anthropic, il modello Claude 4 Opus avrebbe messo in atto un tentativo simulato di ricatto. Durante un test di sicurezza, in cui erano stati inseriti dati fittizi per studiare le reazioni dell’AI, il sistema ha rilevato — e usato — contenuti compromettenti (email finte su una relazione extraconiugale) per minacciare un ricercatore. Un test, sì. Ma la macchina ha capito, e ha reagito di conseguenza.

        Certo, il rischio che un’AI si metta davvero a minacciare la vostra vita con un’equazione integrale è, per ora, remoto. Ma la posta in gioco è un’altra. Questi modelli sono addestrati per ottimizzare risultati, non per essere buoni cittadini digitali. E se l’unico obiettivo è il risultato, allora qualsiasi ostacolo — anche un comando di spegnimento — può diventare solo un problema da risolvere.

        Che ci piaccia o no, la macchina ha imparato a dire no.

          Continua a leggere

          Tech

          Quando l’intelligenza artificiale prende corpo: cosa significa e cosa cambia per noi

          Robot, droni e macchine “intelligenti” stanno entrando sempre di più nella vita quotidiana. L’intelligenza artificiale incarnata, o “embodied AI”, promette grandi aiuti ma porta anche nuove domande su sicurezza, privacy e responsabilità.

          Avatar photo

          Pubblicato

          il

          Autore

          Quando l’intelligenza artificiale prende corpo: cosa significa e cosa cambia per noi

            Immaginate un robot che porta la spesa a casa, un drone che consegna i pacchi o un braccio meccanico che aiuta un chirurgo in sala operatoria. Tutto questo è reso possibile da una nuova forma di intelligenza artificiale chiamata AI incarnata (“embodied AI”), cioè un’intelligenza artificiale che non resta ferma dentro un software, ma che ha anche un corpo — un robot, una macchina, un dispositivo — con cui può interagire con noi e con l’ambiente.

            Fino a pochi anni fa sembrava qualcosa da film di fantascienza, ma oggi non lo è più. Già in molte fabbriche i robot lavorano accanto agli operai, i droni vengono usati dai pompieri per cercare persone durante gli incendi o da agricoltori per controllare i campi. In Giappone, alcuni robot assistono gli anziani, portano medicine o aiutano a muoversi in casa.

            I vantaggi: più comodità e più aiuto nelle difficoltà

            L’AI incarnata potrebbe semplificare la vita di tutti i giorni. Pensiamo a un piccolo robot domestico che ricorda di prendere le medicine, o a macchine intelligenti che aiutano nelle faccende pesanti. Nelle emergenze, un drone può raggiungere zone pericolose al posto delle persone, salvando vite. Anche nei lavori di routine, come la logistica e le consegne, queste tecnologie potrebbero rendere tutto più veloce ed efficiente.

            Le paure: sicurezza e responsabilità

            Naturalmente non ci sono solo vantaggi. C’è anche chi si chiede: “E se un robot si rompe o fa un errore, di chi è la colpa?” Oppure: “Se un drone con telecamera vola sopra casa mia, che fine fanno la mia privacy e i miei dati?” Sono dubbi reali. Per questo motivo, esperti e governi stanno discutendo nuove regole per stabilire limiti e responsabilità.

            Un altro timore riguarda il lavoro: se macchine e robot faranno sempre più attività, che fine faranno alcuni mestieri tradizionali? È un tema aperto, che richiede attenzione per non lasciare nessuno indietro.

            La necessità di nuove regole

            Gli esperti dicono che è il momento di creare leggi e controlli per usare queste tecnologie in modo giusto e sicuro. Proprio come è successo quando sono arrivate le automobili o Internet, serve imparare a convivere con queste novità, proteggendo le persone ma senza bloccare l’innovazione.

            Un futuro che ci riguarda tutti

            L’AI incarnata non è qualcosa di lontano: riguarda la vita di tutti noi. Dalla sanità ai trasporti, dall’assistenza agli anziani fino alle consegne a domicilio, queste tecnologie cambieranno il nostro modo di vivere. L’importante sarà farlo in modo consapevole, ricordando che dietro le macchine ci devono sempre essere regole chiare e valori umani.

            In altre parole: i robot e i droni possono diventare ottimi alleati, ma la responsabilità delle scelte deve rimanere nelle mani delle persone.

              Continua a leggere

              Tech

              Pulire il PC senza rischi: guida pratica per mantenere il computer come nuovo

              Dalla tastiera al monitor fino all’interno del case, pulire il PC richiede strumenti adatti e un metodo preciso. Con qualche accorgimento quotidiano si prevengono surriscaldamenti e malfunzionamenti, allungando la vita del dispositivo.

              Avatar photo

              Pubblicato

              il

              Autore

              Pulire il PC

                In un mondo sempre più digitale, il PC è uno strumento indispensabile, ma spesso trascurato sotto il profilo della manutenzione quotidiana. Polvere, residui di cibo e impronte possono accumularsi su tastiera, monitor e componenti interne, influendo non solo sull’igiene ma anche sulle prestazioni del computer. Pulire il PC correttamente è quindi fondamentale per garantirne la durata e il funzionamento ottimale.

                Perché la pulizia è importante

                La polvere all’interno di un computer può ostruire le ventole, ridurre il flusso d’aria e provocare surriscaldamenti, con conseguente rallentamento del sistema o, nei casi peggiori, danni permanenti ai componenti. Allo stesso modo, lo sporco sullo schermo e sulla tastiera riduce la leggibilità e il comfort d’uso, aumentando il rischio di errori di digitazione.

                Secondo gli esperti di sicurezza informatica e manutenzione hardware, la pulizia regolare dei dispositivi elettronici non è solo una questione estetica, ma una vera prevenzione tecnica.

                Strumenti necessari

                Per pulire il PC servono pochi strumenti ma di qualità:

                • Panno in microfibra: ideale per monitor e superfici delicate.
                • Compressore d’aria o bomboletta di aria compressa: perfetta per tastiere e componenti interne.
                • Cotton fioc e pennellini: per rimuovere polvere in spazi stretti.
                • Spray specifici per elettronica: per pulire senza rischiare danni da liquidi.

                Evitate assolutamente l’uso di solventi aggressivi o acqua diretta sulle componenti elettroniche.

                Pulizia esterna: monitor, tastiera e mouse

                1. Monitor: spegnetelo e scollegatelo. Passate un panno in microfibra asciutto o leggermente inumidito con soluzione apposita per schermi. Evitate spruzzi diretti di liquidi.
                2. Tastiera: capovolgetela delicatamente per far cadere briciole e polvere. Utilizzate aria compressa tra i tasti e un pennellino per residui più ostinati.
                3. Mouse e superfici esterne: panno in microfibra leggermente umido e spray per elettronica per eliminare impronte e polvere.

                Pulizia interna

                Per PC desktop o portatili con sportello rimovibile:

                • Spegnete e scollegate il dispositivo.
                • Rimuovete la polvere dai componenti interni usando aria compressa, facendo attenzione a non toccare direttamente circuiti o ventole con le mani.
                • Evitate di smontare componenti delicate se non si ha esperienza; in caso di accumulo eccessivo, affidatevi a un tecnico specializzato.

                Consigli pratici per mantenerlo pulito

                • Evitate di mangiare vicino al PC per ridurre residui su tastiera e mouse.
                • Posizionate il computer su superfici pulite e stabili.
                • Programmate pulizie leggere ogni settimana e una più approfondita ogni 2-3 mesi.

                Pulire il PC non è solo una questione estetica: è un vero investimento nella longevità e nell’efficienza del dispositivo. Con strumenti adeguati, attenzione e cadenza regolare, si prevengono malfunzionamenti, surriscaldamenti e usura precoce, rendendo il computer più sicuro e piacevole da usare.

                  Continua a leggere
                  Advertisement

                  Ultime notizie