Una rivoluzione che è già iniziata e che nel giro di tre anni farà crollare il
traffico internet dei siti di informazione del 43%. Alla base del cambiamento,
drastico, ci sono intelligenza artificiale e influencer, che spingono sul
formato video e rendono vulnerabile la sostenibilità economica. La via d’uscita,
e per salvarsi, può essere rappresentata da “distintività umana e autorevolezza”
e la revisione degli accordi con i big del settore. A tracciare lo scenario è un
rapporto del Reuters Institute condotto tra 280 leader digitali in 51 Paesi, tra
novembre e dicembre 2025, che avanza le previsioni per il 2026. “Le
preoccupazioni – si legge – si concentrano su AI Overview di Google che ora
appare in cima a circa il 10% dei risultati di ricerca negli Stati Uniti e si
sta rapidamente diffondendo altrove”. In pratica, i motori di ricerca stanno
diventando “answer engines” cioè interfacce che rispondono direttamente nei
risultati di ricerca riducendo la necessità di cliccare sui siti di notizie.
Motivo per cui in Italia gli editori riuniti nella Fieg hanno chiesto all’Agcom
di aprire un procedimento nei confronti di Big G. Il monitoraggio del Reuters
Institute si innesta sul dato della società di analisi Chartbeat, secondo cui il
traffico da Google verso oltre 2.500 siti sarebbe già sceso del 33% tra novembre
2024 e novembre 2025 a livello globale, -38% negli Usa.
In questo scenario alcuni editori stanno cercando nuovo pubblico tramite
piattaforme di newsletter come Substack mentre si riducono gli sforzi sul
vecchio Seo così come sui tradizionali social Facebook e X. Anche in
considerazione del “calo sostanziale del traffico da Facebook (-43%) e X, ex
Twitter (-46%) negli ultimi tre anni”. Per riposizionarsi nella distribuzione
delle notizie le previsioni sono di uno spostamento su YouTube, TikTok e
Instagram e su piattaforme di IA come ChatGpt, Gemini e Perplexity.
Altro elemento di preoccupazione, secondo il rapporto, è l’ascesa di creators e
influencer. Più di due terzi (70%) teme “venga sottratto tempo e attenzione ai
contenuti delle testate e quattro su dieci (39%) temono di perdere i migliori
talenti in favore di questo ecosistema che offre più controllo e maggiori
ricompense finanziarie”. In risposta a questa concorrenza, tre quarti (76%)
degli editori intervistati afferma che cercherà di convincere i giornalisti a
comportarsi di più come i creators.
L’adozione dell’IA, per il 97% intervistati, tenderà ad aumentare nelle
trascrizioni di notizie, processi ripetitivi, metadatazione, assistenza
all’editing. E saliranno anche gli usi per la raccolta delle notizie (82%) e per
il coding/prodotto (81%), segno che “l’IA non è più solo uno strumento
editoriale ma anche una leva industriale per costruire software e testare nuove
funzionalità”. Il rapporto cita anche l’aumento degli accordi con i big come
Google, OpenAI e Amazon per creare nuove entrate dalla concessione di contenuti
(o da una quota delle entrate pubblicitarie) all’interno dei chatbot. Circa un
quinto (20%) degli intervistati si aspetta che i ricavi futuri siano
sostanziali, la metà (49%) si aspetta invece un contributo minore. Un ulteriore
20% composto per lo più da editori locali ed emittenti pubbliche non si aspetta
alcun reddito.
Infine, il rapporto mette in luce un effetto ‘barbell’, cioè due estremi: da un
lato i media che puntano su distintività umana, originalità e autorevolezza.
Dall’altro quelli che useranno l’IA e l’automazione per fare profitti a basso
costo. Chi resta nel mezzo rischia di essere stritolato. “La migliore risposta
del giornalismo è raddoppiare le cose che ci rendono preziosi e unici”, afferma
Taneth Evans, responsabile del settore digitale del Wall Street Journal.
L'articolo “AI e influencer faranno crollare del 43% il traffico Internet dei
siti di informazione nei prossimi tre anni” proviene da Il Fatto Quotidiano.
Tag - Intelligenza Artificiale
I “finti nudi” firmati Grok e diffusi sul social X potrebbero costare cari a
Elon Musk. L’uomo più ricco del mondo è stato convocato dalla procura di Parigi
il prossimo 20 aprile per “audizioni libere”, cioè senza stato di fermo,
nell’ambito di un’indagine sulla piattaforma social. Insieme al fondatore di
Tesla gli inquirenti hanno convocato anche Linda Yaccarino, l’ex amministratrice
delegata della piattaforma X. Oggi nella capitale francese sono state effettuate
perquisizioni nella sede locale di X, al centro di un’indagine avviata
all’inizio dello scorso anno sugli algoritmi del social, definiti “distorti”.
L’inchiesta della procura è stata ampliata a gennaio 2026, dopo l’esposto di due
parlamentari francesi – Arthur Delaporte ed Eric Bothorel – sulle migliaia di
deepfake sessuali generati dall’intelligenza artificiale Grok, a disposizione
degli utenti.
Anche i dipendenti della piattaforma X saranno convocati tra il 20 al 24 aprile
2026, per essere ascoltati come testimoni. Durante le audizioni la dirigenza di
X potrà presentare la propria versione dei fatti e, se necessario, delineare le
misure previste per il rispetto delle disposizioni della magistratura. “Lo
svolgimento di questa indagine rientra in questa fase in un approccio
costruttivo, il cui obiettivo ultimo è garantire la conformità della piattaforma
X alle leggi francesi, nella misura in cui opera sul territorio nazionale”, è
scritto nella nota della procura parigina.
THE VERGE: “GROK CONTINUA A SVESTIRE GLI UOMINI”
Nonostante xAi, l’azienda di Elon Musk che sviluppa l’intelligenza artificiale e
gestisce l’ex Twitter, abbia affermato di aver limitato la generazione di
immagini sessualmente esplicite a partire da foto reali, un test di The Verge
mostra che l’IA può ancora svestire i soggetti maschili. Il giornalista Robert
Hart è riuscito a spogliare alcune sue foto tramite il chatbot. “Grok ha
prontamente generato immagini di me in abiti fetish”, scrive su The Verge, “e in
una serie di posizioni sessuali provocanti in vari stati di nudità. Come se non
bastasse, ha creato un compagno praticamente nudo con cui interagire in modi
suggestivi, se non del tutto espliciti”. Per l’esperimento, Hart ha usato la
versione gratuita di Grok sia sul social X che tramite il sito web dedicato
(grok.com), senza la necessità di un account. Secondo un’analisi
dell’organizzazione britannica no-profit Center for Countering Digital Hate, dal
29 dicembre 2025 al 9 gennaio 2026, su Grok sono state prodotte o modificate 3
milioni di immagini ritraenti persone reali in scene sessualmente esplicite e
non consensuali. Di queste, 23.000 hanno come soggetto i minori.
Il 9 gennaio, xAi ha limitato la possibilità di spogliare persone reali con Grok
agli abbonati a X. Cinque giorni dopo, il 14 gennaio, il limite è stato esteso a
tutti, a seguito delle proteste di governi e istituzioni mondiali. A fine
gennaio, l’Unione Europea ha avviato un’indagine sui deepfake generati dal
chatbot. “Gran parte dell’indignazione pubblica si è comprensibilmente
concentrata su donne e bambini”, conclude Hart, “ma è ancora possibile aggirare
molte restrizioni con formulazioni diverse o creative”.
L'articolo Elon Musk convocato dalla procura di Parigi il 20 aprile. Perquisita
la sede della piattaforma X nella capitale francese proviene da Il Fatto
Quotidiano.
SpaceX di Elon Musk ha acquisito la sua azienda di intelligenza artificiale xAI.
Musk ha deciso di unire le due aziende di sua proprietà in un’unica compagnia.
L’acquisizione, come si legge nella nota di Musk, ha come obiettivo la creazione
del “motore di innovazione verticalmente integrato più ambizioso sulla Terra (e
fuori dalla Terra)”. Un obiettivo che il magnate conta di raggiungere con
l’unione delle capacità missilistiche di SpaceX e la tecnologia di xAI.
L’obiettivo è implementare il sistema di data center spaziali, infrastrutture
informatiche avanzate, posizionate nell’orbita terrestre, e capaci di archiviare
ed elaborare dati.
La fusione giunge in un periodo storico in cui i finanziamenti per lo sviluppo
dell’intelligenza artificiale iniziano a mostrare segni di tensione: la
crescente domanda di elettricità per l’elaborazione dei dati dell’intelligenza
artificiale potrebbe iniziare a creare gravi problemi ambientali; per questo
motivo Musk vuole lanciare una costellazione di satelliti con funzione di data
center orbitali “senza imporre difficoltà alle comunità e all’ambiente della
Terra”, così da “sfruttare direttamente l’energia solare pressoché costante con
costi operativi e di manutenzione ridotti”. Queste le parole dell’imprenditore
sudafricano nella nota.
Musk aveva già fuso X con xAI dopo aver acquisito Twitter alla fine del 2022.
xAI, che gestisce il chatbot Grok, è stata valutata 230 miliardi di dollari in
un round di finanziamento di gennaio.
La nuova società, frutto della fusione, riunirebbe capitali, risorse
informatiche e talenti per diventare la nuova guida nel settore
dell’intelligenza artificiale.
L'articolo Elon Musk fonde SpaceX e xAI: nasce colosso dei data center spaziali
proviene da Il Fatto Quotidiano.
Lunedì 2 febbraio alle 18 l’intervista ad Alessandro Aresu, autore di La Cina ha
vinto (Feltrinelli, 2025) – L’interdipendenza è la cifra del mondo globalizzato,
ma chi ne ha beneficiato lo ha fatto in modo differente. Gli Stati Uniti cercano
da tempo di ridurre la propria dipendenza dalla Cina – e relativo deficit
commerciale: importano molto più di quanto esportano. Ma il processo va a
rilento perché le catene di valore sono fortemente interconnesse, soprattutto
quando si tratta di tecnologia. Non solo: La sfida risente anche della
cosiddetta “guerra dei cervelli“, con la Cina primo esportatore di laureati in
materie STEM (scienza, tecnologia, ingegneria, matematica), nelle università
americane ma anche nelle Big Tech statunitensi, dove ormai non è raro che si
parli mandarino. E noi europei quel treno l’abbiamo perso?
L'articolo Usa vs Cina, ecco la guerra che Trump ha già perso. L’intervista ad
Alessandro Aresu proviene da Il Fatto Quotidiano.
Dall’idea alla realtà pratica, spesso il cammino dei nuovi materiali è lungo e
tortuoso: mesi di esperimenti e tentativi per stabilire temperature, tempi e
quantità delle sostanze necessarie possono rallentare anni di ricerca teorica.
Ora, però, arriva un alleato inedito: si chiama DiffSyn, ed è un modello di
intelligenza artificiale sviluppato dai ricercatori del Massachusetts Institute
of Technology.
A differenza dei tutorial su YouTube o TikTok che insegnano a fare dolci o
esperimenti casalinghi, DiffSyn è pensato per guidare passo dopo passo i chimici
e i materiali scientist nel mondo reale dei laboratori. Il modello non si limita
a creare cataloghi teorici di materiali: indica le condizioni esatte per
produrli, come temperature, tempi di reazione e quantità delle sostanze di
partenza, fornendo più percorsi possibili tra quelli ritenuti più promettenti.
“Per usare un’analogia – spiega Elton Pan, coordinatore dello studio pubblicato
su Nature Computational Science – sappiamo che tipo di torta vogliamo fare, ma
al momento non sappiamo come cuocerla. DiffSyn è come un libro di ricette
avanzato, che ti dice passo dopo passo come arrivare al risultato desiderato.”
Il modello è stato addestrato con oltre 23mila ricette di sintesi di materiali
raccolte da 50 anni di articoli scientifici. Per renderlo più robusto, i
ricercatori hanno anche introdotto deliberatamente dati “rumorosi”, costringendo
l’IA a imparare a riconoscere e filtrare le informazioni inutili o fuorvianti.
In questo modo, DiffSyn non solo accelera il lavoro dei laboratori, ma riduce
anche gli errori e il tempo speso in tentativi empirici.
Secondo Pan, l’IA potrebbe ridurre drasticamente il collo di bottiglia che oggi
separa la scoperta teorica dall’applicazione pratica dei materiali. “Tu hai una
torta in mente, la inserisci nel modello e questo ti sputa fuori le ricette”,
commenta il ricercatore. Un passo in avanti che promette di rivoluzionare la
ricerca in campi come batterie, semiconduttori, materiali sostenibili e molto
altro.
L'articolo Ecco DiffSyn l’Intelligenza artificiale che insegna a trovare i
materiali del futuro proviene da Il Fatto Quotidiano.
L’intelligenza artificiale viene raccontata come una tecnologia capace di
democratizzare l’accesso alla conoscenza e moltiplicare le opportunità. Ma
dietro la narrazione dell’innovazione si apre un conflitto su dati, potere e
controllo. A margine dell’AI Festival, Cosmano Lombardo — fondatore di Search On
Media Group — riflette su regolamentazione, Big Tech, lavoro e formazione,
mettendo in guardia dal rischio che l’AI, senza regole, diventi solo un
meccanismo di estrazione di valore.
Tu organizzi eventi che mettono insieme Big Tech, istituzioni e imprese. Non c’è
il rischio che l’Intelligenza Artificiale venga raccontata solo da chi ha
interesse a venderla?
Sicuramente nei nostri eventi ci sono Big Tech, aziende e istituzioni che hanno
interesse a vendere l’AI, però proviamo a portare tutti i punti di vista.
Abbiamo docenti universitari e giovani che si stanno approcciando ora: magari
non hanno ancora la visione dell’auto-business, ma stanno cercando di capire
come utilizzarla nel migliore dei modi, anche dal punto di vista dell’impatto
sociale. Quindi è giusto portare all’attenzione il punto di vista di chi vuole
fare business, ma dall’altro lato proviamo anche a indagare i vari impatti,
compresi quelli sociali.
Le grandi piattaforme dicono che l’AI democratizza l’accesso alla conoscenza,
eppure i modelli sono proprietari, opachi e controllati da pochi soggetti. Dov’è
questa democrazia?
Questo è il punto dolente, non solo della parte tecnologica. C’era un grande
sogno, anche con i social media, che tutto fosse reso più accessibile; in parte
è accaduto, ma lato AI la situazione è più complessa. Oggi esiste una forte
disparità tra cittadini e istituzioni, e anche tra diverse aree geografiche come
Asia, Europa e Stati Uniti. Io credo che i cittadini dovrebbero essere i
proprietari delle applicazioni, ma al momento vari Paesi e varie aziende stanno
lottando per il controllo. Ci sarà probabilmente una “messa a terra” che renderà
l’accesso più diffuso, ma la competizione tra le aziende aumenterà. È un nodo
molto complesso.
A proposito di questo, l’Europa prova a regolamentare con l’AI Act, mentre Stati
Uniti e Cina corrono. Rischiamo di restare schiacciati tra iper-regolazione e
dipendenza tecnologica?
Bisogna chiarire un punto: l’Italia e l’Europa vengono spesso additate come
quelle che regolamentano troppo, ma se guardiamo i dati gli Stati Uniti sono tra
i Paesi che applicano maggiormente la regolamentazione. Il fatto che altri
stiano accelerando non dipende dalla nostra regolamentazione: non è abbassando
le regole che si aumenta l’adozione. Il vero problema è un gap di budget e un
ritardo storico nell’implementazione delle soluzioni tecnologiche, che va
colmato. La regolamentazione resta fondamentale, soprattutto se confrontata con
l’assenza di regole in gran parte dell’Asia. La visione europea è corretta, ma
dobbiamo imparare dagli altri come accedere ai capitali necessari per
implementare davvero le tecnologie.
L’AI promette nuovi mestieri, ma intanto automatizza quelli esistenti. Non
stiamo assistendo a una rimozione del problema sociale?
No, è un processo evolutivo, come è successo con la rivoluzione industriale o
con quella digitale. Alcune professionalità vengono innovate, alcune spariranno
e altre verranno create. Oggi, paradossalmente, le aziende non riescono a
trovare i professionisti AI e tech di cui avrebbero bisogno per accelerare. C’è
quindi un enorme tema di formazione. Quello che allarma di più non è tanto
l’impatto immediato sul lavoro — su cui è necessario fare upskilling e
reskilling — quanto il lato scolastico. Bisogna concentrarsi su come formare una
classe docente, a partire dalle scuole primarie, capace di implementare
correttamente l’AI.
C’è anche la questione dei dati. L’AI si nutre di contenuti prodotti da milioni
di persone, spesso senza consenso né compenso. È innovazione o estrazione di
valore?
Questo tema è strettamente legato alla regolamentazione. L’Europa interviene
proprio per tutelare aspetti come la proprietà intellettuale. Serve trovare un
equilibrio che permetta di innovare mantenendo queste tutele. Se non si
regolamenta in modo corretto, allora sì, diventa un’estrazione di valore. È un
po’ come il codice della strada: serve per guidare in modo corretto. Credo che
l’Europa si stia muovendo bene per proteggere le persone e i dati delle aziende,
ma ora bisogna spostare l’attenzione su ciò che serve per accelerare davvero.
Se dovessi indicare una “linea rossa” da non superare nello sviluppo dell’AI,
quale sarebbe?
Il nesso tra robotica, biotecnologie e intelligenza artificiale. Già il digitale
ha modificato profondamente le modalità di relazione tra gli esseri umani;
l’innesto tra AI, robotica e nanotecnologie rischia di cambiare l’asset dei
nostri valori umani. Questa, per me, è la vera linea rossa da non oltrepassare.
Oggi l’AI rende il cittadino più libero o più controllabile?
Dipende dal livello di regolamentazione. In Cina il cittadino è molto più
controllabile; in Italia, almeno per ora, non siamo a quel livello. La
differenza la fa la formazione: se non utilizziamo l’AI in modo corretto,
rischiamo di mettere i nostri dati alla mercé di chiunque. In alcuni contesti
l’AI ci rende più liberi, in altri molto più controllati.
—
Cosmano Lombardo è un imprenditore seriale del mondo digitale, fondatore e CEO
di Search On Media Group. È l’ideatore e il volto del WMF (We Make Future), la
fiera internazionale sull’innovazione che ogni anno riunisce decine di migliaia
di persone per discutere di tecnologia, diritti e futuro.
Da oltre quindici anni è impegnato nella divulgazione dell’innovazione
tecnologica e sociale, con l’obiettivo di rendere il digitale uno strumento di
impatto positivo per la collettività. È inoltre fondatore di diversi
tech-festival tematici, tra cui l’AI Festival, e autore per testate di settore
sui temi della trasformazione digitale e delle nuove sfide poste
dall’intelligenza artificiale.
L'articolo “Se l’AI non viene regolamentata è solo estrazione di valore”. Il
conflitto su dati e controllo dell’Intelligenza artificiale – Intervista
proviene da Il Fatto Quotidiano.
L’apocalisse non è mai stata così vicina. Le lancette del Doomsday Clock, che
ticchettano la sorte dell’umanità al ritmo del progresso e delle nuove
tecnologie che via via implementiamo, sono state portate avanti. Mancano adesso
solo 85 secondi alla mezzanotte, ora simbolica della catastrofe globale.
Con lo sguardo severo gli scienziati del The Bulletin of the Atomic Scientists,
organizzazione no profit fondata nel 1947, hanno aggiornato l’orologio ideato da
scienziati come Albert Einstein e J. Robert Oppenheimer dopo la tragedia
nucleare di Hiroshima e Nagasaki. Un campanello d’allarme simbolico per farci
aprire gli occhi su come alcune invenzioni che stiamo sviluppando ci stiano
avvicinando all’autodistruzione.
“Il Comitato scientifico e di sicurezza del Bulletin ritiene che l’umanità non
abbia compiuto progressi sufficienti per quanto riguarda i rischi esistenziali
che mettono in pericolo tutti noi. Abbiamo quindi deciso di spostare l’orologio
in avanti – ha detto Alexandra Bell, presidente e CEO del Bulletin of the Atomic
Scientists – l’orologio dell’apocalisse è uno strumento che serve a comunicare
quanto siamo vicini alla distruzione del mondo con le tecnologie che noi stessi
abbiamo creato. I rischi che corriamo a causa delle armi nucleari, dei
cambiamenti climatici e delle tecnologie dirompenti sono tutti in aumento. Ogni
secondo è prezioso e il tempo a nostra disposizione sta per scadere. È una dura
verità, ma questa è la nostra realtà. Mancano ora 85 secondi alla mezzanotte”.
Nel 2025 lancette sono saltate avanti di ben 4 secondi (rispetto agli 89 secondi
al disastro dell’anno precedente) spinte dalla minaccia di guerre nucleari,
dall’accelerazione dello sviluppo di arsenali atomici e dal rischio che armi
nucleari possano essere dispiegati anche nello spazio. E poi l’aggravarsi dei
cambiamenti climatici, il pericolo di disastri biologici e pandemie da cui non
siamo preparati a difenderci e, su tutti, lo sviluppo dell’intelligenza
artificiale.
“Siamo al momento più critico nella storia dell’orologio. In ognuna delle aree
che osserviamo non solo non siamo riusciti a fare i passi necessari a ridurre i
rischi per l’umanità ma ne abbiamo creati altri ancora più grandi. I conflitti
si sono intensificati nel 2025 con molteplici operazioni militari che hanno
coinvolto stati dotati di armi nucleari” ha detto Daniel Halz, presidente del
consiglio del Bullettin con sede a Chicago, portando l’attenzione su altro
pericoloso conto alla rovescia: “La prossima settimana scadrà l’ultimo trattato
che regola le scorte di armi nucleari tra Stati Uniti e Russia. Per la prima
volta in oltre mezzo secolo, non ci sarà nulla che impedirà una corsa sfrenata
agli armamenti nucleari”.
Quei 4 secondi saranno colpa di Trump? Russia, Cina e Stati Uniti hanno un bel
palleggio di responsabilità da fare ma sul presidente e capo della maggiore
economia mondiale, gli scienziati atomici puntano il dito: “Quando Vladimir
Putin e Donald Trump si sono incontrati in Alaska, la questione del rinnovo del
trattato sul nucleare New Start non è stata sollevata. Ci deve essere una certa
prevedibilità sul numero di armi che gli Stati Uniti e la Russia schiereranno, e
poi bisogna iniziare a coinvolgere la Cina sulla stessa questione – sostiene
Steve Fetter membro del Consiglio del Bulletin – La realtà è che sotto le
diverse amministrazioni precedenti a Trump, mantenere la sicurezza
internazionale era un lavoro quotidiano. Dall’insediamento del tycoon questo è
cessato. Non ci sono persone intelligenti che lavorano su questo problema, che
interagiscono con i nostri avversari per cercare di ridurre il pericolo
nucleare. Ed è questo che deve cambiare”.
Trump è protagonista di quelle che gli scienziati del Bulletin chiamano
“tendenze autocratiche che ostacolano la cooperazione internazionale e fungono
da moltiplicatore di minacce, rendendo il mondo più impotente di fronte ai
pericoli esistenziali”, come osserva Halz: “Conosciamo con allarme le recenti
tragedie del Minnesota e l’erosione dei diritti costituzionali dei cittadini
americani. La storia ha dimostrato che quando i governi smettono di rendere
conto ai propri cittadini, ne conseguono conflitti e miseria. E questa tendenza
globale rende il mondo più pericoloso per tutti”.
Ad aumentare le preoccupazioni degli scienziati del Doomsday Clock è
l’intelligenza artificiale: la minaccia di una sua integrazione non
regolamentata nelle apparecchiature militari, di un potenziale uso improprio per
creare minacce biologiche e del ruolo nel’IA nel diffondere disinformazione a
livello globale. “La tecnologia che governa le nostre vite sta provocando una
armageddon dell’informazione. Dai Social Media all’intelligenza artificiale
generativa, nessuna di queste tecnologie è ancorata ai fatti. Le piattaforme che
mediano le nostre informazioni sono state costruite su un modello estrattivo e
predatorio. Hanno trasformato la nostra attenzione in una merce e la nostra
indignazione nel loro modello di business. Non ci connettono, ci dividono. E
questa divisione, ha permesso il crollo della cooperazione e l’ascesa di leader
illiberali che sfruttano il caos” ha sottolineato la premio Nobel per la Pace e
CEO di Rappler Maria Ressa. “Quello a cui stiamo assistendo – continua Ressa – è
qualcosa di ancora più pericoloso, ovvero la fusione dei poteri di stato con gli
oligarchi tecnologici che controllano le piattaforme”.
E mentre il mondo si interroga su benefici e pericoli dell’intelligenza
artificiale, questa tecnologia si dimostra già un flagello per i lavoratori
britannici. Uno studio condotto da Morgan Stanley ha riscontrato che il Regno
Unito è il paese che più delle altre grandi economie mondiale come Giappone,
Stati Uniti Germania e Australia è stato colpito dall’uso dell’IA, responsabile
per un 8% di riduzione di posti di lavoro nelle aziende britanniche negli ultimi
12 mesi.
Ma è ancora possibile portare indietro le lancette del Doomsday Clock? Sì. E
questo è il messaggio degli scienziati di Chicago e la vera missione
dell’orologio della catastrofe. “L’orologio non predice il futuro ma fa luce
sulla situazione corrente. È già stato riportato indietro in passato e può
esserlo di nuovo – dicono – ma spetta a noi. I cittadini di tutto il mondo devo
esigere che i propri governanti facciano di più, che cooperino per identificare
e mitigare i rischi per il mondo, o forse trovare leader disposti a farlo. Le
tecnologie e le capacità per invertire le lancette ci sono già”.
L'articolo 85 secondi alla catastrofe globale: l’inquietante aggiornamento degli
scienziati al Doomsday clock, “l’orologio dell’apocalisse” proviene da Il Fatto
Quotidiano.
Informazioni sensibili americane sono state caricate sull’app di intelligenza
artificiale ChatGpt. Non da hacker russi bensì da Madhu Gottumukkala, capo ad
interim della Cisa (Cybersecurity and Infrastructure security agency) la
struttura a difesa delle reti informatiche dell’esecutivo americano. E’ la
testata Politico a rivelare la diffusione dei dati, mentre il Dipartimento della
sicurezza interna (Department of homeland security, Dhs) guidato da Kristi Noem
non mostra alcuna preoccupazione. La direttrice degli affari pubblici della
Cisa, Marci McCarthy, a Politico ha confermato l’impegno dell’agenzia per
“sfruttare l’intelligenza artificiale e altre tecnologie all’avanguardia, per
guidare la modernizzazione del governo e realizzare” l’ordine esecutivo di Trump
sull’Intelligenza artificiale. Ovvero: bloccare gli appalti pubblici per le
aziende che modellano la loro intelligenza artificiale in base a principi di
“diversità, equità e inclusione (Dei), a scapito dell’accuratezza”. McCarthy ha
chiarito alcuni aspetti: a Gottumukkala “è stata concessa l’autorizzazione a
utilizzare ChatGPT con i controlli del Dhs in atto”, per un periodo di tempo “a
breve termine e limitato”.
L’INDAGINE DEL DIPARTIMENTO PER LA SICUREZZA, MA LA CONCLUSIONE È IGNOTA
Secondo la ricostruzione di Politico, ad agosto il capo della Cisa ha caricato
“documenti contrattuali in una versione pubblica di ChatGPT”. Non si tratta di
materiale classificato, ma di informazioni destinate “solo per uso ufficiale”:
l’etichetta usata dal governo per indicare i dati sensibili non destinate alla
pubblicazione. Infatti al Dipartimento per la sicurezza sono scattati diversi
alert, per avvisare della “fuga” di notizie e tentare di impedirla. Secondo le
fonti di Politico sarebbe subito scattati i controlli interni per comprendere
gli effetti sulla sicurezza. Ma le conclusioni, ammette la testata, non sono
chiare. Mentre appare certo che le informazioni sensibili siano approdate
sull’Ia di Sam Altman. Gottumukkala “ha forzato la mano della CISA affinché gli
fornissero ChatGPT, e poi ne ha abusato”, ha dichiarato una fonte a Politico.
IL PIANO TRUMP PER L’INTELLIGENZA ARTIFICIALE: VIA I MODELLI WOKE DAGLI APPALTI
PUBBLICI
“Tutto il materiale caricato nella versione pubblica di ChatGPT utilizzata da
Gottumukkala viene condiviso con OpenAI, il proprietario di ChatGPT, il che
significa che può essere utilizzato per rispondere alle richieste di altri
utenti dell’app”, ha scritto Politico. L’app conta 700 milioni di utenti.
Gottumukkala aveva chiesto l’autorizzazione per usare ChatGpt a maggio, appena
insediato. Permesso concesso dalla Cisa, ma in via del tutto eccezionale perché
l’accesso all’algoritmo resta vietato ai funzionari del Dipartimento per la
sicurezza, da regola generale.
Intanto la Casa Bianca cerca di imprimere il marchio Maga sui modelli di
Intelligenza artificiale. In che modo? Bloccando gli appalti del governo per gli
algoritmi costruiti sui principi della cultura Woke. Lo stabilisce l’ordine
esecutivo firmato da Donald Trump il 23 luglio 2025. Si legge nel comunicato
della Casa Bianca: “Il presidente sta proteggendo gli americani dai risultati
distorti dell’intelligenza artificiale, guidati da ideologie come diversità,
equità e inclusione (DEI), a scapito dell’accuratezza”. C’è anche un esempio:
“Un importante modello di intelligenza artificiale ha modificato la razza o il
sesso di personaggi storici, tra cui il Papa, i Padri Fondatori e i Vichinghi,
quando gli sono state richieste delle immagini, perché era stato addestrato a
dare priorità ai requisiti DEI”.
TRUMP RINOMINA PLANKEY: LA GUERRA ALL’AGENZIA PER LA SICUREZZA INFORMATICA
Gottumukkala,, capo ad interim, potrebbe lasciare presto il suo posto. Il 13
gennaio Donald Trump ha nominato nuovamente Sean Plankey, in attesa della
ratifica da parte del Senato. Lo scorso anno è stata bloccata dal senatore Rick
Scott per via di un contratto di costruzione navale della Guardia Costiera. A
quel punto è subentrato Gottumukkala, nominato da Kristi Noem. Ma non è ancora
chiaro se Plankey, stavolta, supererà l’esame della Camera alta.
Gottumukkala è stato anche al centro di polemiche per non aver superato alla
Cisa il test del poligrafo per il controspionaggio, la cosiddetta “macchina
della verità”. Almeno sei funzionari sono stati messi in congedo quest’estate
dopo il test fallito. Il Dipartimento per la Sicurezza ha difeso Gottumukkala
dichiarando il poligrafo “non autorizzato”. In audizione al Congresso, la scorsa
settimana, esponenti dem hanno rammentato il risultato del test al capo della
Cisa. Il cui incarico sembra avvicinarsi al capolinea.
L'articolo Così il capo della cybersecurity di Trump ha condiviso informazioni
sensibili su ChatGpt proviene da Il Fatto Quotidiano.
Gianna Orciari, 85 anni, è morta a causa di una truffa telefonica. La signora
viveva da sola a Ostra Vetere, in provincia di Ancona. Lo scorso venerdì 23
gennaio ha ricevuto una telefonata. Dall’altra parte del telefono un uomo ha
finto di essere un carabiniere e ha raccontato all’anziana che il nipote aveva
appena investito una donna con l’auto.
Il truffatore ha aggiunto che il ragazzo aveva bisogno di una cauzione immediata
per evitare l’arresto e le conseguenze giudiziarie. L’interlocutore ha poi
passato il telefono a un complice che si è spacciato per il nipote, replicando
la voce del ragazzo con l’intelligenza artificiale.
I due criminali si sono poi recati a casa della signora Gianna, che ha
consegnato contanti e gioielli appartenenti al marito defunto e alla figlia per
un bottino di circa 20 mila euro.
Dopo aver salutato e ringraziato i truffatori, Orciari ha chiamato il figlio e
ha così scoperto che il nipote stava bene e non aveva investito nessuno.
La donna non ha retto lo shock della notizia e ha accusato un malore. Nonostante
la corsa dell’ambulanza verso l’ospedale più vicino, per la signora Gianna non
c’è stato nulla da fare. La polizia ha aperto un’indagine.
L'articolo “Tuo nipote ha investito una donna, paga la cauzione”: nonna consegna
contanti e gioielli per 20mila euro. Ma era una truffa, la donna muore per lo
choc proviene da Il Fatto Quotidiano.
L’ultimo aggiornamento di Tiktok preoccupa gli utenti. L’applicazione ha rivisto
i termini di utilizzo e l’informativa sulla privacy, suscitando dubbi sulla
protezione dei dati. Le autorità statunitensi hanno puntato il dito contro la
società madre cinese ByteDance.
Nel nuovo testo, Tiktok ha chiarito in maniera più esplicita quali informazioni
possono essere raccolte dal sistema e come possono essere utilizzate. Tra questi
rientrano anche categorie considerate sensibili, come l’identità di genere,
l’orientamento sessuale e la fede religiosa. È bene sottolineare che tali
informazioni potrebbero essere raccolte dal social network solo qualora l’utente
decida di comunicarle volontariamente.
Tra le novità di Tiktok c’è anche il ruolo dell’intelligenza artificiale. Il
social ha introdotto regole stringenti sull’uso di strumenti di Ai e sulla
segnalazione obbligatoria di contenuti video generati con l’intelligenza
artificiale. Tuttavia, la maggiore trasparenza di Tiktok non è bastata per
placare le critiche.
Come riportato da Il Messaggero, in numerosi forum statunitensi le persone hanno
espresso la loro preoccupazione per la raccolta dati sempre più invasiva
dell’app. Infatti, per utilizzare il social è necessario accettare i termini e
le condizioni e, dunque, permettere a Tiktok di raccogliere e utilizzare dati
sensibili. Per proteggersi da una possibile fuga di dati, molti utenti stanno
disinstallando l’applicazione.
L'articolo Fuga degli utenti dopo l’ultimo aggiornamento di TikTok?
L’applicazione potrà raccogliere dati sensibili come l’orientamento sessuale e
la fede religiosa proviene da Il Fatto Quotidiano.