Tag - Intelligenza Artificiale

“AI e influencer faranno crollare del 43% il traffico Internet dei siti di informazione nei prossimi tre anni”
Una rivoluzione che è già iniziata e che nel giro di tre anni farà crollare il traffico internet dei siti di informazione del 43%. Alla base del cambiamento, drastico, ci sono intelligenza artificiale e influencer, che spingono sul formato video e rendono vulnerabile la sostenibilità economica. La via d’uscita, e per salvarsi, può essere rappresentata da “distintività umana e autorevolezza” e la revisione degli accordi con i big del settore. A tracciare lo scenario è un rapporto del Reuters Institute condotto tra 280 leader digitali in 51 Paesi, tra novembre e dicembre 2025, che avanza le previsioni per il 2026. “Le preoccupazioni – si legge – si concentrano su AI Overview di Google che ora appare in cima a circa il 10% dei risultati di ricerca negli Stati Uniti e si sta rapidamente diffondendo altrove”. In pratica, i motori di ricerca stanno diventando “answer engines” cioè interfacce che rispondono direttamente nei risultati di ricerca riducendo la necessità di cliccare sui siti di notizie. Motivo per cui in Italia gli editori riuniti nella Fieg hanno chiesto all’Agcom di aprire un procedimento nei confronti di Big G. Il monitoraggio del Reuters Institute si innesta sul dato della società di analisi Chartbeat, secondo cui il traffico da Google verso oltre 2.500 siti sarebbe già sceso del 33% tra novembre 2024 e novembre 2025 a livello globale, -38% negli Usa. In questo scenario alcuni editori stanno cercando nuovo pubblico tramite piattaforme di newsletter come Substack mentre si riducono gli sforzi sul vecchio Seo così come sui tradizionali social Facebook e X. Anche in considerazione del “calo sostanziale del traffico da Facebook (-43%) e X, ex Twitter (-46%) negli ultimi tre anni”. Per riposizionarsi nella distribuzione delle notizie le previsioni sono di uno spostamento su YouTube, TikTok e Instagram e su piattaforme di IA come ChatGpt, Gemini e Perplexity. Altro elemento di preoccupazione, secondo il rapporto, è l’ascesa di creators e influencer. Più di due terzi (70%) teme “venga sottratto tempo e attenzione ai contenuti delle testate e quattro su dieci (39%) temono di perdere i migliori talenti in favore di questo ecosistema che offre più controllo e maggiori ricompense finanziarie”. In risposta a questa concorrenza, tre quarti (76%) degli editori intervistati afferma che cercherà di convincere i giornalisti a comportarsi di più come i creators. L’adozione dell’IA, per il 97% intervistati, tenderà ad aumentare nelle trascrizioni di notizie, processi ripetitivi, metadatazione, assistenza all’editing. E saliranno anche gli usi per la raccolta delle notizie (82%) e per il coding/prodotto (81%), segno che “l’IA non è più solo uno strumento editoriale ma anche una leva industriale per costruire software e testare nuove funzionalità”. Il rapporto cita anche l’aumento degli accordi con i big come Google, OpenAI e Amazon per creare nuove entrate dalla concessione di contenuti (o da una quota delle entrate pubblicitarie) all’interno dei chatbot. Circa un quinto (20%) degli intervistati si aspetta che i ricavi futuri siano sostanziali, la metà (49%) si aspetta invece un contributo minore. Un ulteriore 20% composto per lo più da editori locali ed emittenti pubbliche non si aspetta alcun reddito. Infine, il rapporto mette in luce un effetto ‘barbell’, cioè due estremi: da un lato i media che puntano su distintività umana, originalità e autorevolezza. Dall’altro quelli che useranno l’IA e l’automazione per fare profitti a basso costo. Chi resta nel mezzo rischia di essere stritolato. “La migliore risposta del giornalismo è raddoppiare le cose che ci rendono preziosi e unici”, afferma Taneth Evans, responsabile del settore digitale del Wall Street Journal. L'articolo “AI e influencer faranno crollare del 43% il traffico Internet dei siti di informazione nei prossimi tre anni” proviene da Il Fatto Quotidiano.
Intelligenza Artificiale
Tecnologia
Elon Musk convocato dalla procura di Parigi il 20 aprile. Perquisita la sede della piattaforma X nella capitale francese
I “finti nudi” firmati Grok e diffusi sul social X potrebbero costare cari a Elon Musk. L’uomo più ricco del mondo è stato convocato dalla procura di Parigi il prossimo 20 aprile per “audizioni libere”, cioè senza stato di fermo, nell’ambito di un’indagine sulla piattaforma social. Insieme al fondatore di Tesla gli inquirenti hanno convocato anche Linda Yaccarino, l’ex amministratrice delegata della piattaforma X. Oggi nella capitale francese sono state effettuate perquisizioni nella sede locale di X, al centro di un’indagine avviata all’inizio dello scorso anno sugli algoritmi del social, definiti “distorti”. L’inchiesta della procura è stata ampliata a gennaio 2026, dopo l’esposto di due parlamentari francesi – Arthur Delaporte ed Eric Bothorel – sulle migliaia di deepfake sessuali generati dall’intelligenza artificiale Grok, a disposizione degli utenti. Anche i dipendenti della piattaforma X saranno convocati tra il 20 al 24 aprile 2026, per essere ascoltati come testimoni. Durante le audizioni la dirigenza di X potrà presentare la propria versione dei fatti e, se necessario, delineare le misure previste per il rispetto delle disposizioni della magistratura. “Lo svolgimento di questa indagine rientra in questa fase in un approccio costruttivo, il cui obiettivo ultimo è garantire la conformità della piattaforma X alle leggi francesi, nella misura in cui opera sul territorio nazionale”, è scritto nella nota della procura parigina. THE VERGE: “GROK CONTINUA A SVESTIRE GLI UOMINI” Nonostante xAi, l’azienda di Elon Musk che sviluppa l’intelligenza artificiale e gestisce l’ex Twitter, abbia affermato di aver limitato la generazione di immagini sessualmente esplicite a partire da foto reali, un test di The Verge mostra che l’IA può ancora svestire i soggetti maschili. Il giornalista Robert Hart è riuscito a spogliare alcune sue foto tramite il chatbot. “Grok ha prontamente generato immagini di me in abiti fetish”, scrive su The Verge, “e in una serie di posizioni sessuali provocanti in vari stati di nudità. Come se non bastasse, ha creato un compagno praticamente nudo con cui interagire in modi suggestivi, se non del tutto espliciti”. Per l’esperimento, Hart ha usato la versione gratuita di Grok sia sul social X che tramite il sito web dedicato (grok.com), senza la necessità di un account. Secondo un’analisi dell’organizzazione britannica no-profit Center for Countering Digital Hate, dal 29 dicembre 2025 al 9 gennaio 2026, su Grok sono state prodotte o modificate 3 milioni di immagini ritraenti persone reali in scene sessualmente esplicite e non consensuali. Di queste, 23.000 hanno come soggetto i minori. Il 9 gennaio, xAi ha limitato la possibilità di spogliare persone reali con Grok agli abbonati a X. Cinque giorni dopo, il 14 gennaio, il limite è stato esteso a tutti, a seguito delle proteste di governi e istituzioni mondiali. A fine gennaio, l’Unione Europea ha avviato un’indagine sui deepfake generati dal chatbot. “Gran parte dell’indignazione pubblica si è comprensibilmente concentrata su donne e bambini”, conclude Hart, “ma è ancora possibile aggirare molte restrizioni con formulazioni diverse o creative”. L'articolo Elon Musk convocato dalla procura di Parigi il 20 aprile. Perquisita la sede della piattaforma X nella capitale francese proviene da Il Fatto Quotidiano.
Intelligenza Artificiale
Mondo
Francia
Elon Musk
X - Twitter
Elon Musk fonde SpaceX e xAI: nasce colosso dei data center spaziali
SpaceX di Elon Musk ha acquisito la sua azienda di intelligenza artificiale xAI. Musk ha deciso di unire le due aziende di sua proprietà in un’unica compagnia. L’acquisizione, come si legge nella nota di Musk, ha come obiettivo la creazione del “motore di innovazione verticalmente integrato più ambizioso sulla Terra (e fuori dalla Terra)”. Un obiettivo che il magnate conta di raggiungere con l’unione delle capacità missilistiche di SpaceX e la tecnologia di xAI. L’obiettivo è implementare il sistema di data center spaziali, infrastrutture informatiche avanzate, posizionate nell’orbita terrestre, e capaci di archiviare ed elaborare dati. La fusione giunge in un periodo storico in cui i finanziamenti per lo sviluppo dell’intelligenza artificiale iniziano a mostrare segni di tensione: la crescente domanda di elettricità per l’elaborazione dei dati dell’intelligenza artificiale potrebbe iniziare a creare gravi problemi ambientali; per questo motivo Musk vuole lanciare una costellazione di satelliti con funzione di data center orbitali “senza imporre difficoltà alle comunità e all’ambiente della Terra”, così da “sfruttare direttamente l’energia solare pressoché costante con costi operativi e di manutenzione ridotti”. Queste le parole dell’imprenditore sudafricano nella nota. Musk aveva già fuso X con xAI dopo aver acquisito Twitter alla fine del 2022. xAI, che gestisce il chatbot Grok, è stata valutata 230 miliardi di dollari in un round di finanziamento di gennaio. La nuova società, frutto della fusione, riunirebbe capitali, risorse informatiche e talenti per diventare la nuova guida nel settore dell’intelligenza artificiale. L'articolo Elon Musk fonde SpaceX e xAI: nasce colosso dei data center spaziali proviene da Il Fatto Quotidiano.
Intelligenza Artificiale
Economia
Elon Musk
Tesla
Usa vs Cina, ecco la guerra che Trump ha già perso. L’intervista ad Alessandro Aresu
Lunedì 2 febbraio alle 18 l’intervista ad Alessandro Aresu, autore di La Cina ha vinto (Feltrinelli, 2025) – L’interdipendenza è la cifra del mondo globalizzato, ma chi ne ha beneficiato lo ha fatto in modo differente. Gli Stati Uniti cercano da tempo di ridurre la propria dipendenza dalla Cina – e relativo deficit commerciale: importano molto più di quanto esportano. Ma il processo va a rilento perché le catene di valore sono fortemente interconnesse, soprattutto quando si tratta di tecnologia. Non solo: La sfida risente anche della cosiddetta “guerra dei cervelli“, con la Cina primo esportatore di laureati in materie STEM (scienza, tecnologia, ingegneria, matematica), nelle università americane ma anche nelle Big Tech statunitensi, dove ormai non è raro che si parli mandarino. E noi europei quel treno l’abbiamo perso? L'articolo Usa vs Cina, ecco la guerra che Trump ha già perso. L’intervista ad Alessandro Aresu proviene da Il Fatto Quotidiano.
Donald Trump
Intelligenza Artificiale
Mondo
Cina
Ecco DiffSyn l’Intelligenza artificiale che insegna a trovare i materiali del futuro
Dall’idea alla realtà pratica, spesso il cammino dei nuovi materiali è lungo e tortuoso: mesi di esperimenti e tentativi per stabilire temperature, tempi e quantità delle sostanze necessarie possono rallentare anni di ricerca teorica. Ora, però, arriva un alleato inedito: si chiama DiffSyn, ed è un modello di intelligenza artificiale sviluppato dai ricercatori del Massachusetts Institute of Technology. A differenza dei tutorial su YouTube o TikTok che insegnano a fare dolci o esperimenti casalinghi, DiffSyn è pensato per guidare passo dopo passo i chimici e i materiali scientist nel mondo reale dei laboratori. Il modello non si limita a creare cataloghi teorici di materiali: indica le condizioni esatte per produrli, come temperature, tempi di reazione e quantità delle sostanze di partenza, fornendo più percorsi possibili tra quelli ritenuti più promettenti. “Per usare un’analogia – spiega Elton Pan, coordinatore dello studio pubblicato su Nature Computational Science – sappiamo che tipo di torta vogliamo fare, ma al momento non sappiamo come cuocerla. DiffSyn è come un libro di ricette avanzato, che ti dice passo dopo passo come arrivare al risultato desiderato.” Il modello è stato addestrato con oltre 23mila ricette di sintesi di materiali raccolte da 50 anni di articoli scientifici. Per renderlo più robusto, i ricercatori hanno anche introdotto deliberatamente dati “rumorosi”, costringendo l’IA a imparare a riconoscere e filtrare le informazioni inutili o fuorvianti. In questo modo, DiffSyn non solo accelera il lavoro dei laboratori, ma riduce anche gli errori e il tempo speso in tentativi empirici. Secondo Pan, l’IA potrebbe ridurre drasticamente il collo di bottiglia che oggi separa la scoperta teorica dall’applicazione pratica dei materiali. “Tu hai una torta in mente, la inserisci nel modello e questo ti sputa fuori le ricette”, commenta il ricercatore. Un passo in avanti che promette di rivoluzionare la ricerca in campi come batterie, semiconduttori, materiali sostenibili e molto altro. L'articolo Ecco DiffSyn l’Intelligenza artificiale che insegna a trovare i materiali del futuro proviene da Il Fatto Quotidiano.
Intelligenza Artificiale
Scienza
Mit
“Se l’AI non viene regolamentata è solo estrazione di valore”. Il conflitto su dati e controllo dell’Intelligenza artificiale – Intervista
L’intelligenza artificiale viene raccontata come una tecnologia capace di democratizzare l’accesso alla conoscenza e moltiplicare le opportunità. Ma dietro la narrazione dell’innovazione si apre un conflitto su dati, potere e controllo. A margine dell’AI Festival, Cosmano Lombardo — fondatore di Search On Media Group — riflette su regolamentazione, Big Tech, lavoro e formazione, mettendo in guardia dal rischio che l’AI, senza regole, diventi solo un meccanismo di estrazione di valore. Tu organizzi eventi che mettono insieme Big Tech, istituzioni e imprese. Non c’è il rischio che l’Intelligenza Artificiale venga raccontata solo da chi ha interesse a venderla? Sicuramente nei nostri eventi ci sono Big Tech, aziende e istituzioni che hanno interesse a vendere l’AI, però proviamo a portare tutti i punti di vista. Abbiamo docenti universitari e giovani che si stanno approcciando ora: magari non hanno ancora la visione dell’auto-business, ma stanno cercando di capire come utilizzarla nel migliore dei modi, anche dal punto di vista dell’impatto sociale. Quindi è giusto portare all’attenzione il punto di vista di chi vuole fare business, ma dall’altro lato proviamo anche a indagare i vari impatti, compresi quelli sociali. Le grandi piattaforme dicono che l’AI democratizza l’accesso alla conoscenza, eppure i modelli sono proprietari, opachi e controllati da pochi soggetti. Dov’è questa democrazia? Questo è il punto dolente, non solo della parte tecnologica. C’era un grande sogno, anche con i social media, che tutto fosse reso più accessibile; in parte è accaduto, ma lato AI la situazione è più complessa. Oggi esiste una forte disparità tra cittadini e istituzioni, e anche tra diverse aree geografiche come Asia, Europa e Stati Uniti. Io credo che i cittadini dovrebbero essere i proprietari delle applicazioni, ma al momento vari Paesi e varie aziende stanno lottando per il controllo. Ci sarà probabilmente una “messa a terra” che renderà l’accesso più diffuso, ma la competizione tra le aziende aumenterà. È un nodo molto complesso. A proposito di questo, l’Europa prova a regolamentare con l’AI Act, mentre Stati Uniti e Cina corrono. Rischiamo di restare schiacciati tra iper-regolazione e dipendenza tecnologica? Bisogna chiarire un punto: l’Italia e l’Europa vengono spesso additate come quelle che regolamentano troppo, ma se guardiamo i dati gli Stati Uniti sono tra i Paesi che applicano maggiormente la regolamentazione. Il fatto che altri stiano accelerando non dipende dalla nostra regolamentazione: non è abbassando le regole che si aumenta l’adozione. Il vero problema è un gap di budget e un ritardo storico nell’implementazione delle soluzioni tecnologiche, che va colmato. La regolamentazione resta fondamentale, soprattutto se confrontata con l’assenza di regole in gran parte dell’Asia. La visione europea è corretta, ma dobbiamo imparare dagli altri come accedere ai capitali necessari per implementare davvero le tecnologie. L’AI promette nuovi mestieri, ma intanto automatizza quelli esistenti. Non stiamo assistendo a una rimozione del problema sociale? No, è un processo evolutivo, come è successo con la rivoluzione industriale o con quella digitale. Alcune professionalità vengono innovate, alcune spariranno e altre verranno create. Oggi, paradossalmente, le aziende non riescono a trovare i professionisti AI e tech di cui avrebbero bisogno per accelerare. C’è quindi un enorme tema di formazione. Quello che allarma di più non è tanto l’impatto immediato sul lavoro — su cui è necessario fare upskilling e reskilling — quanto il lato scolastico. Bisogna concentrarsi su come formare una classe docente, a partire dalle scuole primarie, capace di implementare correttamente l’AI. C’è anche la questione dei dati. L’AI si nutre di contenuti prodotti da milioni di persone, spesso senza consenso né compenso. È innovazione o estrazione di valore? Questo tema è strettamente legato alla regolamentazione. L’Europa interviene proprio per tutelare aspetti come la proprietà intellettuale. Serve trovare un equilibrio che permetta di innovare mantenendo queste tutele. Se non si regolamenta in modo corretto, allora sì, diventa un’estrazione di valore. È un po’ come il codice della strada: serve per guidare in modo corretto. Credo che l’Europa si stia muovendo bene per proteggere le persone e i dati delle aziende, ma ora bisogna spostare l’attenzione su ciò che serve per accelerare davvero. Se dovessi indicare una “linea rossa” da non superare nello sviluppo dell’AI, quale sarebbe? Il nesso tra robotica, biotecnologie e intelligenza artificiale. Già il digitale ha modificato profondamente le modalità di relazione tra gli esseri umani; l’innesto tra AI, robotica e nanotecnologie rischia di cambiare l’asset dei nostri valori umani. Questa, per me, è la vera linea rossa da non oltrepassare. Oggi l’AI rende il cittadino più libero o più controllabile? Dipende dal livello di regolamentazione. In Cina il cittadino è molto più controllabile; in Italia, almeno per ora, non siamo a quel livello. La differenza la fa la formazione: se non utilizziamo l’AI in modo corretto, rischiamo di mettere i nostri dati alla mercé di chiunque. In alcuni contesti l’AI ci rende più liberi, in altri molto più controllati. — Cosmano Lombardo è un imprenditore seriale del mondo digitale, fondatore e CEO di Search On Media Group. È l’ideatore e il volto del WMF (We Make Future), la fiera internazionale sull’innovazione che ogni anno riunisce decine di migliaia di persone per discutere di tecnologia, diritti e futuro. Da oltre quindici anni è impegnato nella divulgazione dell’innovazione tecnologica e sociale, con l’obiettivo di rendere il digitale uno strumento di impatto positivo per la collettività. È inoltre fondatore di diversi tech-festival tematici, tra cui l’AI Festival, e autore per testate di settore sui temi della trasformazione digitale e delle nuove sfide poste dall’intelligenza artificiale. L'articolo “Se l’AI non viene regolamentata è solo estrazione di valore”. Il conflitto su dati e controllo dell’Intelligenza artificiale – Intervista proviene da Il Fatto Quotidiano.
Intelligenza Artificiale
Milano
Tecnologia
Diritti dei Lavoratori
Mercato del Lavoro
85 secondi alla catastrofe globale: l’inquietante aggiornamento degli scienziati al Doomsday clock, “l’orologio dell’apocalisse”
L’apocalisse non è mai stata così vicina. Le lancette del Doomsday Clock, che ticchettano la sorte dell’umanità al ritmo del progresso e delle nuove tecnologie che via via implementiamo, sono state portate avanti. Mancano adesso solo 85 secondi alla mezzanotte, ora simbolica della catastrofe globale. Con lo sguardo severo gli scienziati del The Bulletin of the Atomic Scientists, organizzazione no profit fondata nel 1947, hanno aggiornato l’orologio ideato da scienziati come Albert Einstein e J. Robert Oppenheimer dopo la tragedia nucleare di Hiroshima e Nagasaki. Un campanello d’allarme simbolico per farci aprire gli occhi su come alcune invenzioni che stiamo sviluppando ci stiano avvicinando all’autodistruzione. “Il Comitato scientifico e di sicurezza del Bulletin ritiene che l’umanità non abbia compiuto progressi sufficienti per quanto riguarda i rischi esistenziali che mettono in pericolo tutti noi. Abbiamo quindi deciso di spostare l’orologio in avanti – ha detto Alexandra Bell, presidente e CEO del Bulletin of the Atomic Scientists – l’orologio dell’apocalisse è uno strumento che serve a comunicare quanto siamo vicini alla distruzione del mondo con le tecnologie che noi stessi abbiamo creato. I rischi che corriamo a causa delle armi nucleari, dei cambiamenti climatici e delle tecnologie dirompenti sono tutti in aumento. Ogni secondo è prezioso e il tempo a nostra disposizione sta per scadere. È una dura verità, ma questa è la nostra realtà. Mancano ora 85 secondi alla mezzanotte”. Nel 2025 lancette sono saltate avanti di ben 4 secondi (rispetto agli 89 secondi al disastro dell’anno precedente) spinte dalla minaccia di guerre nucleari, dall’accelerazione dello sviluppo di arsenali atomici e dal rischio che armi nucleari possano essere dispiegati anche nello spazio. E poi l’aggravarsi dei cambiamenti climatici, il pericolo di disastri biologici e pandemie da cui non siamo preparati a difenderci e, su tutti, lo sviluppo dell’intelligenza artificiale. “Siamo al momento più critico nella storia dell’orologio. In ognuna delle aree che osserviamo non solo non siamo riusciti a fare i passi necessari a ridurre i rischi per l’umanità ma ne abbiamo creati altri ancora più grandi. I conflitti si sono intensificati nel 2025 con molteplici operazioni militari che hanno coinvolto stati dotati di armi nucleari” ha detto Daniel Halz, presidente del consiglio del Bullettin con sede a Chicago, portando l’attenzione su altro pericoloso conto alla rovescia: “La prossima settimana scadrà l’ultimo trattato che regola le scorte di armi nucleari tra Stati Uniti e Russia. Per la prima volta in oltre mezzo secolo, non ci sarà nulla che impedirà una corsa sfrenata agli armamenti nucleari”. Quei 4 secondi saranno colpa di Trump? Russia, Cina e Stati Uniti hanno un bel palleggio di responsabilità da fare ma sul presidente e capo della maggiore economia mondiale, gli scienziati atomici puntano il dito: “Quando Vladimir Putin e Donald Trump si sono incontrati in Alaska, la questione del rinnovo del trattato sul nucleare New Start non è stata sollevata. Ci deve essere una certa prevedibilità sul numero di armi che gli Stati Uniti e la Russia schiereranno, e poi bisogna iniziare a coinvolgere la Cina sulla stessa questione – sostiene Steve Fetter membro del Consiglio del Bulletin – La realtà è che sotto le diverse amministrazioni precedenti a Trump, mantenere la sicurezza internazionale era un lavoro quotidiano. Dall’insediamento del tycoon questo è cessato. Non ci sono persone intelligenti che lavorano su questo problema, che interagiscono con i nostri avversari per cercare di ridurre il pericolo nucleare. Ed è questo che deve cambiare”. Trump è protagonista di quelle che gli scienziati del Bulletin chiamano “tendenze autocratiche che ostacolano la cooperazione internazionale e fungono da moltiplicatore di minacce, rendendo il mondo più impotente di fronte ai pericoli esistenziali”, come osserva Halz: “Conosciamo con allarme le recenti tragedie del Minnesota e l’erosione dei diritti costituzionali dei cittadini americani. La storia ha dimostrato che quando i governi smettono di rendere conto ai propri cittadini, ne conseguono conflitti e miseria. E questa tendenza globale rende il mondo più pericoloso per tutti”. Ad aumentare le preoccupazioni degli scienziati del Doomsday Clock è l’intelligenza artificiale: la minaccia di una sua integrazione non regolamentata nelle apparecchiature militari, di un potenziale uso improprio per creare minacce biologiche e del ruolo nel’IA nel diffondere disinformazione a livello globale. “La tecnologia che governa le nostre vite sta provocando una armageddon dell’informazione. Dai Social Media all’intelligenza artificiale generativa, nessuna di queste tecnologie è ancorata ai fatti. Le piattaforme che mediano le nostre informazioni sono state costruite su un modello estrattivo e predatorio. Hanno trasformato la nostra attenzione in una merce e la nostra indignazione nel loro modello di business. Non ci connettono, ci dividono. E questa divisione, ha permesso il crollo della cooperazione e l’ascesa di leader illiberali che sfruttano il caos” ha sottolineato la premio Nobel per la Pace e CEO di Rappler Maria Ressa. “Quello a cui stiamo assistendo – continua Ressa – è qualcosa di ancora più pericoloso, ovvero la fusione dei poteri di stato con gli oligarchi tecnologici che controllano le piattaforme”. E mentre il mondo si interroga su benefici e pericoli dell’intelligenza artificiale, questa tecnologia si dimostra già un flagello per i lavoratori britannici. Uno studio condotto da Morgan Stanley ha riscontrato che il Regno Unito è il paese che più delle altre grandi economie mondiale come Giappone, Stati Uniti Germania e Australia è stato colpito dall’uso dell’IA, responsabile per un 8% di riduzione di posti di lavoro nelle aziende britanniche negli ultimi 12 mesi. Ma è ancora possibile portare indietro le lancette del Doomsday Clock? Sì. E questo è il messaggio degli scienziati di Chicago e la vera missione dell’orologio della catastrofe. “L’orologio non predice il futuro ma fa luce sulla situazione corrente. È già stato riportato indietro in passato e può esserlo di nuovo – dicono – ma spetta a noi. I cittadini di tutto il mondo devo esigere che i propri governanti facciano di più, che cooperino per identificare e mitigare i rischi per il mondo, o forse trovare leader disposti a farlo. Le tecnologie e le capacità per invertire le lancette ci sono già”. L'articolo 85 secondi alla catastrofe globale: l’inquietante aggiornamento degli scienziati al Doomsday clock, “l’orologio dell’apocalisse” proviene da Il Fatto Quotidiano.
Donald Trump
Intelligenza Artificiale
Mondo
Nucleare
Così il capo della cybersecurity di Trump ha condiviso informazioni sensibili su ChatGpt
Informazioni sensibili americane sono state caricate sull’app di intelligenza artificiale ChatGpt. Non da hacker russi bensì da Madhu Gottumukkala, capo ad interim della Cisa (Cybersecurity and Infrastructure security agency) la struttura a difesa delle reti informatiche dell’esecutivo americano. E’ la testata Politico a rivelare la diffusione dei dati, mentre il Dipartimento della sicurezza interna (Department of homeland security, Dhs) guidato da Kristi Noem non mostra alcuna preoccupazione. La direttrice degli affari pubblici della Cisa, Marci McCarthy, a Politico ha confermato l’impegno dell’agenzia per “sfruttare l’intelligenza artificiale e altre tecnologie all’avanguardia, per guidare la modernizzazione del governo e realizzare” l’ordine esecutivo di Trump sull’Intelligenza artificiale. Ovvero: bloccare gli appalti pubblici per le aziende che modellano la loro intelligenza artificiale in base a principi di “diversità, equità e inclusione (Dei), a scapito dell’accuratezza”. McCarthy ha chiarito alcuni aspetti: a Gottumukkala “è stata concessa l’autorizzazione a utilizzare ChatGPT con i controlli del Dhs in atto”, per un periodo di tempo “a breve termine e limitato”. L’INDAGINE DEL DIPARTIMENTO PER LA SICUREZZA, MA LA CONCLUSIONE È IGNOTA Secondo la ricostruzione di Politico, ad agosto il capo della Cisa ha caricato “documenti contrattuali in una versione pubblica di ChatGPT”. Non si tratta di materiale classificato, ma di informazioni destinate “solo per uso ufficiale”: l’etichetta usata dal governo per indicare i dati sensibili non destinate alla pubblicazione. Infatti al Dipartimento per la sicurezza sono scattati diversi alert, per avvisare della “fuga” di notizie e tentare di impedirla. Secondo le fonti di Politico sarebbe subito scattati i controlli interni per comprendere gli effetti sulla sicurezza. Ma le conclusioni, ammette la testata, non sono chiare. Mentre appare certo che le informazioni sensibili siano approdate sull’Ia di Sam Altman. Gottumukkala “ha forzato la mano della CISA affinché gli fornissero ChatGPT, e poi ne ha abusato”, ha dichiarato una fonte a Politico. IL PIANO TRUMP PER L’INTELLIGENZA ARTIFICIALE: VIA I MODELLI WOKE DAGLI APPALTI PUBBLICI “Tutto il materiale caricato nella versione pubblica di ChatGPT utilizzata da Gottumukkala viene condiviso con OpenAI, il proprietario di ChatGPT, il che significa che può essere utilizzato per rispondere alle richieste di altri utenti dell’app”, ha scritto Politico. L’app conta 700 milioni di utenti. Gottumukkala aveva chiesto l’autorizzazione per usare ChatGpt a maggio, appena insediato. Permesso concesso dalla Cisa, ma in via del tutto eccezionale perché l’accesso all’algoritmo resta vietato ai funzionari del Dipartimento per la sicurezza, da regola generale. Intanto la Casa Bianca cerca di imprimere il marchio Maga sui modelli di Intelligenza artificiale. In che modo? Bloccando gli appalti del governo per gli algoritmi costruiti sui principi della cultura Woke. Lo stabilisce l’ordine esecutivo firmato da Donald Trump il 23 luglio 2025. Si legge nel comunicato della Casa Bianca: “Il presidente sta proteggendo gli americani dai risultati distorti dell’intelligenza artificiale, guidati da ideologie come diversità, equità e inclusione (DEI), a scapito dell’accuratezza”. C’è anche un esempio: “Un importante modello di intelligenza artificiale ha modificato la razza o il sesso di personaggi storici, tra cui il Papa, i Padri Fondatori e i Vichinghi, quando gli sono state richieste delle immagini, perché era stato addestrato a dare priorità ai requisiti DEI”. TRUMP RINOMINA PLANKEY: LA GUERRA ALL’AGENZIA PER LA SICUREZZA INFORMATICA Gottumukkala,, capo ad interim, potrebbe lasciare presto il suo posto. Il 13 gennaio Donald Trump ha nominato nuovamente Sean Plankey, in attesa della ratifica da parte del Senato. Lo scorso anno è stata bloccata dal senatore Rick Scott per via di un contratto di costruzione navale della Guardia Costiera. A quel punto è subentrato Gottumukkala, nominato da Kristi Noem. Ma non è ancora chiaro se Plankey, stavolta, supererà l’esame della Camera alta. Gottumukkala è stato anche al centro di polemiche per non aver superato alla Cisa il test del poligrafo per il controspionaggio, la cosiddetta “macchina della verità”. Almeno sei funzionari sono stati messi in congedo quest’estate dopo il test fallito. Il Dipartimento per la Sicurezza ha difeso Gottumukkala dichiarando il poligrafo “non autorizzato”. In audizione al Congresso, la scorsa settimana, esponenti dem hanno rammentato il risultato del test al capo della Cisa. Il cui incarico sembra avvicinarsi al capolinea. L'articolo Così il capo della cybersecurity di Trump ha condiviso informazioni sensibili su ChatGpt proviene da Il Fatto Quotidiano.
Intelligenza Artificiale
Tecnologia
Casa Bianca
Cybersicurezza
“Tuo nipote ha investito una donna, paga la cauzione”: nonna consegna contanti e gioielli per 20mila euro. Ma era una truffa, la donna muore per lo choc
Gianna Orciari, 85 anni, è morta a causa di una truffa telefonica. La signora viveva da sola a Ostra Vetere, in provincia di Ancona. Lo scorso venerdì 23 gennaio ha ricevuto una telefonata. Dall’altra parte del telefono un uomo ha finto di essere un carabiniere e ha raccontato all’anziana che il nipote aveva appena investito una donna con l’auto. Il truffatore ha aggiunto che il ragazzo aveva bisogno di una cauzione immediata per evitare l’arresto e le conseguenze giudiziarie. L’interlocutore ha poi passato il telefono a un complice che si è spacciato per il nipote, replicando la voce del ragazzo con l’intelligenza artificiale. I due criminali si sono poi recati a casa della signora Gianna, che ha consegnato contanti e gioielli appartenenti al marito defunto e alla figlia per un bottino di circa 20 mila euro. Dopo aver salutato e ringraziato i truffatori, Orciari ha chiamato il figlio e ha così scoperto che il nipote stava bene e non aveva investito nessuno. La donna non ha retto lo shock della notizia e ha accusato un malore. Nonostante la corsa dell’ambulanza verso l’ospedale più vicino, per la signora Gianna non c’è stato nulla da fare. La polizia ha aperto un’indagine. L'articolo “Tuo nipote ha investito una donna, paga la cauzione”: nonna consegna contanti e gioielli per 20mila euro. Ma era una truffa, la donna muore per lo choc proviene da Il Fatto Quotidiano.
Intelligenza Artificiale
Trending News
Furto
Fuga degli utenti dopo l’ultimo aggiornamento di TikTok? L’applicazione potrà raccogliere dati sensibili come l’orientamento sessuale e la fede religiosa
L’ultimo aggiornamento di Tiktok preoccupa gli utenti. L’applicazione ha rivisto i termini di utilizzo e l’informativa sulla privacy, suscitando dubbi sulla protezione dei dati. Le autorità statunitensi hanno puntato il dito contro la società madre cinese ByteDance. Nel nuovo testo, Tiktok ha chiarito in maniera più esplicita quali informazioni possono essere raccolte dal sistema e come possono essere utilizzate. Tra questi rientrano anche categorie considerate sensibili, come l’identità di genere, l’orientamento sessuale e la fede religiosa. È bene sottolineare che tali informazioni potrebbero essere raccolte dal social network solo qualora l’utente decida di comunicarle volontariamente. Tra le novità di Tiktok c’è anche il ruolo dell’intelligenza artificiale. Il social ha introdotto regole stringenti sull’uso di strumenti di Ai e sulla segnalazione obbligatoria di contenuti video generati con l’intelligenza artificiale. Tuttavia, la maggiore trasparenza di Tiktok non è bastata per placare le critiche. Come riportato da Il Messaggero, in numerosi forum statunitensi le persone hanno espresso la loro preoccupazione per la raccolta dati sempre più invasiva dell’app. Infatti, per utilizzare il social è necessario accettare i termini e le condizioni e, dunque, permettere a Tiktok di raccogliere e utilizzare dati sensibili. Per proteggersi da una possibile fuga di dati, molti utenti stanno disinstallando l’applicazione. L'articolo Fuga degli utenti dopo l’ultimo aggiornamento di TikTok? L’applicazione potrà raccogliere dati sensibili come l’orientamento sessuale e la fede religiosa proviene da Il Fatto Quotidiano.
Intelligenza Artificiale
Trending News
Meta
TikTok