“Sono un medico: cosa posso fare con l’intelligenza artificiale?”, “Quali sono i
punti di forza dell’AI per lo psicologo?”, “Come posso utilizzare l’AI da
commercialista?”, “Cosa fa l’AI per l’avvocato?”, “Quali sono i vantaggi dell’AI
per i notai?”. C’è un nuovo libro – con possibilità di lettura interattiva – in
cui sono gli stessi professionisti a spiegare come l’AI può già essere utile (e
quanto lo sarà in futuro) nei rispettivi ambiti. Si chiama “Supervisor, i
professionisti dell’AI”, opera di Filippo Poletti, top voice di LinkedIn, dove
dal 2017 cura una rubrica quotidiana dedicata al lavoro. Nel libro ci sono gli
interventi di 70 esperti, tra cui i presidenti nazionali di 9 ordini
professionali e di istituzioni pubbliche a partire dall’AgID. Qui di seguito,
l’intervista di Poletti a Filippo Anelli, presidente della Federazione Nazionale
degli Ordini dei Medici Chirurghi e degli Odontoiatri (FNOMCeO), estratta dal
libro (376 pagine, 28.50 euro) edito da Guerini e Associati.
*****
Presidente Anelli, come vede evolversi il mestiere del medico? In particolare,
quali opportunità potranno emergere dall’adozione dell’intelligenza artificiale?
“La professione medica è oggi al crocevia di cambiamenti epocali, che
coinvolgono non solo la sfera scientifica e tecnologica, ma anche quella etica,
sociale e normativa. In questo scenario, l’intelligenza artificiale rappresenta
l’innovazione dirompente per eccellenza in ambito medico. La disponibilità di
una mole di dati praticamente illimitata, insieme alla capacità di elaborarli
con grande rapidità, apre scenari un tempo impensabili, soprattutto in ambito
predittivo: diagnostica precoce, terapie personalizzate, monitoraggio in tempo
reale, sviluppo di farmaci, ma anche ottimizzazione dei processi amministrativi
e formazione clinica avanzata sono solo alcuni dei campi di applicazione.
L’impatto dell’intelligenza artificiale nella professione medica è profondo e
multiforme, trasformando molti aspetti della fornitura di cure mediche, della
ricerca e dell’amministrazione. Tra le aree sulle quali l’AI ha maggior impatto,
l’imaging, la diagnosi precoce, i piani di trattamento e terapie personalizzate;
e, ancora, la progettazione di nuovi farmaci, tramite modelli predittivi; il
monitoraggio dei pazienti in tempo reale; i compiti amministrativi e
burocratici, quali la gestione degli appuntamenti o l’aggiornamento delle
cartelle cliniche; la formazione, tramite modelli di simulazione avanzati; il
coinvolgimento dei pazienti e l’aderenza alle terapie; la sorveglianza delle
malattie e la previsione di epidemie e pandemie. In particolare, in ambito
sanitario l’intelligenza artificiale sta automatizzando molti compiti
amministrativi, come la pianificazione degli appuntamenti, la gestione delle
cartelle cliniche dei pazienti e l’elaborazione delle richieste di
assicurazione. Ciò riduce l’onere amministrativo per i professionisti della
sanità, consentendo loro di concentrarsi maggiormente sull’assistenza ai
pazienti”.
Nell’ottica della trasformazione consapevole della vostra professione, quali
sono le sfide critiche che occorre presidiare nell’integrazione dell’AI?
“L’AI nella professione medica non solo sta migliorando l’efficienza e
l’accuratezza dei servizi sanitari, ma sta anche aprendo la strada a soluzioni
sanitarie più innovative, personalizzate e accessibili in tutto il mondo. L’AI,
tuttavia, non è priva di criticità e come tutti gli strumenti può prestarsi a un
utilizzo improprio. La diffusione massiva e sistemica di applicazioni di AI
impone la necessità di una regolamentazione chiara e condivisa in linea con
l’Europa, oltre a sollevare tutta una serie di questioni etiche, legali e
formative. Tra queste, il rischio di una disumanizzazione del rapporto di cura,
la responsabilità legale in caso di errore indotto dall’algoritmo,
l’interpretazione corretta delle informazioni, l’accentuazione delle
disuguaglianze nell’accesso alle cure, la privacy dei dati, la sicurezza
informatica.
Tra i rischi paventati, ci sono anche quelli legati a un approccio
eccessivamente centrato sull’efficienza, che potrebbe ridurre l’interazione
umana e ridimensionare l’interazione medico-paziente. L’AI potrebbe, inoltre,
non essere in grado di considerare adeguatamente la complessità del contesto
clinico del singolo paziente, influenzato anche da fattori socioeconomici e da
convinzioni o preferenze personali. Ancora, gli algoritmi potrebbero
rispecchiare i pregiudizi umani nelle scelte decisionali o diventare il
“magazzino” dell’opinione medica collettiva. Ad esempio, l’analisi di patologie
in cui venga sistematicamente sospesa la cura perché ritenute a esito infausto
potrebbe portare alla conclusione che siano comunque incurabili: una profezia
che si autoconferma. Infine, ma non certo ultimo per importanza, gli algoritmi
potrebbero perseguire obiettivi non etici. Il conflitto etico potrebbe crearsi
per le differenze di intenti e obiettivi tra chi finanzia e realizza un
algoritmo e chi lo utilizza.
Per mitigare questi rischi è essenziale trovare un equilibrio tra l’efficienza
offerta dall’AI e la necessità di considerare l’individualità e il contesto
clinico di ciascun paziente. Gli operatori sanitari dovrebbero essere coinvolti
attivamente nella gestione e nella supervisione dei sistemi di AI, garantendo
che la tecnologia sia utilizzata come strumento complementare e non come
sostituto delle competenze umane. Normative e linee guida chiare sono
fondamentali per garantire un utilizzo etico e sicuro dell’AI in ambito medico”.
Quali sono le competenze che i medici dovranno sviluppare nei prossimi anni?
“È stato detto, e non potrei essere più d’accordo, che in futuro la competizione
non sarà tra medico e macchina ma tra medici che sapranno usare le nuove
tecnologie e medici che non saranno in grado di farlo. E per utilizzare bene
l’intelligenza artificiale in medicina non bastano le competenze tecnologiche:
occorre la capacità di governarla, integrando tali competenze con quelle mediche
e anche con le skill non prettamente tecniche, date da intuito, esperienza
clinica, capacità di ascolto del paziente e di interpretazione dei dati.
L’AI da sola, come già detto, potrebbe non essere in grado di considerare
adeguatamente il contesto clinico complesso di ciascun paziente, come le
variabili socio-economiche, le preferenze personali e altri fattori che possono
influenzare le decisioni di cura. E un focus esclusivo sull’efficienza immediata
potrebbe trascurare la necessità di valutare l’efficacia a lungo termine delle
decisioni di cura, con potenziali ripercussioni sulla salute a lungo termine del
paziente.
Non vogliamo che i sistemi digitali si trasformino in surrogati del medico, come
accaduto in Gran Bretagna con chatbot che hanno sostituito il primo contatto tra
il medico e il paziente. Al contrario, gli algoritmi devono essere strumenti
fondamentali, volti a potenziare la precisione diagnostica e l’efficacia
terapeutica, senza erodere la relazione umana.
Il medico, dunque, pur mantenendo il suo ruolo centrale, dovrà essere in grado
di integrare i suggerimenti dell’AI nelle decisioni, rispettando e valorizzando
il punto di vista del paziente. La formazione dei professionisti sanitari, di
pari passo, dovrà evolversi includendo competenze digitali, in modo da preparare
i medici a lavorare in sinergia con le nuove tecnologie, ma anche competenze in
ambito comunicativo, per spiegare l’utilizzo dell’AI ai pazienti e rafforzare
l’interazione umana. I medici di domani dovranno imparare a dedicare tempo al
paziente, ad ascoltarlo, a rivalutare la singolarità dell’individuo utilizzando
la complessità degli strumenti a disposizione, tra cui l’AI, per giungere a una
diagnosi e per definire una terapia.
Prendersi cura della persona significa rispettare l’altro come individuo che a
noi si affida, preservare la sua dignità, rendere esigibili – grazie alle nostre
competenze – i suoi diritti.
È un cambiamento che presuppone una profonda modifica anche dei percorsi
formativi, in grado di preparare un medico che possa utilizzare lo strumento
della comunicazione come l’atto più importante per la cura del paziente, e le
nuove tecnologie come ausilio prezioso per migliorare i percorsi di diagnosi e
di cura, senza mai sovrastare o, peggio ancora, sostituire il clinico”.
Da ultimo, in termini di governance della professione, quali iniziative la
Federazione Nazionale degli Ordini dei Medici Chirurghi e degli Odontoiatri sta
progettando e portando avanti per supportare gli iscritti in questa fase storica
caratterizzata da grandi innovazioni tecnologiche?
“L’utilizzo delle nuove tecnologie, tra le quali l’intelligenza artificiale ha
un ruolo da protagonista, è una delle quattro direttrici sulle quali si sta
sviluppando la revisione del Codice di Deontologia medica, la cui edizione
vigente risale al 2014. Le altre sono i “nuovi” diritti, come
l’autodeterminazione, il pluralismo culturale, la libertà della ricerca e della
scienza; la comunicazione, intesa come rapporto medico paziente, con le altre
professioni, e con l’esterno; e la responsabilità, autonomia e rischio clinico,
che riguarda, tra le altre cose, il conflitto di interesse e il rapporto tra il
Codice e la legge. Si tratta di tematiche che riguardano non solo i medici, ma
l’intera società civile. Per questo abbiamo voluto ampliare il confronto,
affiancando alla Consulta deontologica un board di esperti – medici, giuristi,
giornalisti, filosofi della medicina, ingegneri clinici – per condividere le
linee su cui intervenire. Tra i componenti, in quanto esperti di questa
tematica, Carlo Casonato, professore ordinario di Diritto costituzionale
comparato all’università di Trento e Lorenzo Leogrande, past president
dell’Associazione Italiana Ingegneri Clinici e docente all’Università Cattolica
di Roma, che all’intelligenza artificiale ha dedicato, tra l’altro, uno dei
nostri podcast “Salute e sanità”, che raccontano le innovazioni in medicina.
In questo percorso, grande è stato l’apporto del Gruppo di lavoro dedicato alle
nuove tecnologie informatiche. Mentre il Comitato Centrale, il 4 marzo 2025, ha
approvato all’unanimità un documento sull’AI che sancisce un principio chiaro:
l’AI deve essere usata esclusivamente a supporto del medico, garantendo
trasparenza, spiegabilità e qualità dei dati; il medico rimane responsabile
delle scelte cliniche, mentre il paziente deve essere informato attivamente
sull’uso di algoritmi, potenzialità e rischi. Dal punto di vista formativo,
all’AI sono stati dedicati convegni e corsi di formazione, ultimo, nel mese di
maggio del 2025, quello realizzato a Roma in occasione dell’Assemblea dei Medici
Ospedalieri Europei (AEMH) e dedicato all’impatto sulla professione medica di
intelligenza artificiale, realtà aumentata e metaverso.
Quelli delle innovazioni tecnologiche e della tutela dei dati sensibili sono,
del resto, temi cari alla FNOMCeO, che ha intitolato loro diversi articoli del
vigente Codice di Deontologia medica e che ulteriormente li svilupperà, alla
luce delle innovazioni tecnologiche, scientifiche e legislative, e del contesto
di digitalizzazione e di circolazione dei dati anche a livello internazionale,
nel nuovo testo in corso di revisione.
Rinnovare il Codice di Deontologia Medica rappresenta sempre una sfida per la
professione, giacché comporta una profonda riflessione sulla natura dell’essere
medico e sul ruolo che i medici, attraverso quest’antica arte professionale,
svolgono nella nostra società nell’assicurare la salute, nel curare le malattie
e nel lenire le sofferenze.
Questo è tanto più vero oggi: nei suoi primi undici anni di vita, il Codice
vigente ha attraversato vere e proprie rivoluzioni scientifiche, tecnologiche,
sociali, bioetiche, passando attraverso una pandemia, l’uso sempre più diffuso
dell’intelligenza artificiale, la crisi del Servizio sanitario nazionale, che
vede vacillare – sotto i colpi dei tagli economici e delle ragioni di bilancio –
i principi fondanti di universalismo e uguaglianza. Ecco allora la necessità di
una revisione profonda, che non veda la professione ripiegarsi su sé stessa, ma
che parta da un confronto con la società civile e arrivi a un cambio di passo,
un cambio di paradigma, intendendo per questo la necessità di rivedere la
definizione del ruolo del medico, ossia il passaggio da un professionista oggi
preparato per curare la malattia a un medico capace e formato per curare la
persona.
Si tratta di un cambio di prospettiva radicale, capace di intercettare i bisogni
della nostra società, legati anche a una maggiore esigibilità da parte dei
cittadini dei propri diritti, ma anche di adeguare la professione medica ai
cambiamenti in atto derivanti dalla rivoluzione digitale e dalla necessità di
preservare la natura e l’ambiente che ci circonda.
Il punto d’arrivo dovrà essere un Codice che indichi chiaramente ai medici di
domani che devono imparare a dedicare tempo al paziente, ad ascoltarlo, a
rivalutare la singolarità dell’individuo, utilizzando la complessità degli
strumenti a disposizione per giungere a una presa in carico della persona nella
sua interezza, perché il medico debba non solo curare le malattie attraverso la
diagnosi e la terapia ma essere sempre più il medico della persona”.
L'articolo “Supervisor, i professionisti dell’AI”: un libro per inquadrare
potenzialità e sfide dalla medicina all’avvocatura proviene da Il Fatto
Quotidiano.
Tag - Intelligenza Artificiale
L’intelligenza artificiale ci sta già rubando il lavoro? L’ondata di
licenziamenti annunciati negli ultimi mesi negli Stati Uniti da grandi gruppi di
settori che vanno dalla tecnologia al retail rende la domanda inevitabile. Ma
dietro i massicci piani di ridimensionamento del personale ci sono quasi sempre
ragioni più banali rispetto all’adozione di chatbot in grado di sostituire i
colletti bianchi. Vedi preoccupazioni per l’andamento dell’economia complici i
dazi voluti da Donald Trump, vendite in calo causa pressione sui prezzi (vero
tallone d’Achille dell’amministrazione del tycoon) e consumi stagnanti, errori
gestionali a cui occorre rimediare. E la vecchia tentazione di tagliare i costi
per migliorare i margini e così compiacere gli investitori. Basti dire che nei
primi undici mesi dell’anno, se si considerano anche la pubblica amministrazione
e l’industria manifatturiera, oltreoceano sono stati ufficializzati oltre 1,1
milione di esuberi, di cui 153mila solo a ottobre: è il livello più alto dal
2020. Ma, secondo una ricognizione della società di outplacement Challenger,
Gray & Christmas solo in 55mila casi l’AI è stata citata come esplicita
“giustificazione” della riduzione della forza lavoro. Le motivazioni prevalenti
sono invece legate a condizioni di mercato, chiusure e ristrutturazioni. Seguite
dall’impatto dei licenziamenti collettivi targati Doge.
OBIETTIVO “SNELLIMENTO” PER COMPIACERE GLI AZIONISTI
Tra le Big tech, Amazon è il caso più eclatante. A cavallo della pandemia ha più
che raddoppiato la forza lavoro in scia al boom dell’e-commerce. A fine ottobre
è arrivato il primo brusco dietrofront, con l’annuncio di 14.000 tagli nella
divisione corporate. Parte, secondo Reuters, di un più ampio piano che potrebbe
prevedere in tutto fino a 30mila esuberi. Se è vero che una parte dei posti
eliminati saranno sostituiti da nuove mansioni legate all’AI, i tagli puntano
soprattutto a snellire l’organizzazione per convincere Wall Street che il
gruppo, a fronte dei 125 miliardi investiti quest’anno in infrastrutture cloud e
data center per la stessa intelligenza artificiale, resta attento all’efficienza
e a salvaguardare i margini di profitto.
Obiettivo “dimagrimento” anche per Microsoft, che nonostante ottimi risultati di
bilancio sta portando avanti un piano da 15mila esuberi mirato a “ridurre i
livelli gestionali”, le procedure e i ruoli interni. Sul modello di Google, che
nell’ultimo anno – mentre destinava 85 miliardi di spese in conto capitale agli
impianti necessari per alimentare nuovi servizi di intelligenza artificiale – ha
silenziosamente eliminato un terzo dei manager che gestivano piccoli team e
offerto buonuscite agli impiegati di una decina di divisioni.
A sua volta Oracle, prima del maxi accordo da 300 miliardi di dollari con OpenAI
per la vendita di potenza di calcolo e dell’annuncio di corposi investimenti per
rispondere alla “crescente domanda di servizi AI”, ha deciso di compensare il
boom dei costi con una ristrutturazione senza precedenti. Previsti almeno 3mila
licenziamenti tra Usa, Canada, India e Filippine nelle business unit dedicate a
cloud e servizi finanziari, ma gli analisti prevedono che il numero potrebbe
salire a 10mila.
TAGLI COME REAZIONE A UNA CRISI
Poi c’è chi taglia per salvare i bilanci a fronte di un business in calo, o dopo
errori di valutazione e crisi reputazionali. Intel ridurrà la forza lavoro di
oltre il 20% (più di 20mila persone) rispetto a fine 2024 per salvare il
salvabile dopo aver perso il treno del boom dei chip per AI, comparto dominato
da Nvidia e AMD, e investito troppo in progetti che non hanno portato i ritorni
sperati. Meta, le cui spese in infrastrutture per l’AI hanno superato i 70
miliardi, secondo il Wall Street Journal si prepara a ridurre dal 10 al 30% il
personale della divisione dedicata al metaverso, che dal 2020 ha bruciato oltre
60 miliardi di dollari non ha mai generato i risultati attesi.
Dal canto suo UPS, che quest’anno ha ridotto del 50% il volume delle consegne
effettuate per Amazon perché poco redditizie, ha eliminato 48.000 posizioni tra
impiegati e addetti operativi: licenziamenti che dipendono per la maggior parte
dalla chiusura di un centinaio di magazzini e dalla riduzione dei volumi nel
tentativo di difendere i profitti minacciati dalla politica tariffaria di Trump.
Hanno tutta l’aria di tagli vecchio stile, per tagliare i costi a fronte di
risultati finanziari non brillanti, anche quelli di big come Target e Starbucks.
A fine ottobre Michael Fiddelke, nuovo ad della catena di grandi magazzini
dell’abbigliamento, ha annunciato come primo atto il taglio di 1.800 ruoli
corporate – circa l’8% del personale che lavora nella sede centrale – per
“semplificare la struttura” e alleggerire i costi fissi proteggendo i margini.
La multinazionale del caffè, alle prese con un business in rallentamento, ha
reagito a sua volta con chiusure e due round di licenziamenti tra i colletti
bianchi, per un totale di 2mila persone. Da questo lato dell’Atlantico pure il
colosso del cibo confezionato Nestlé, reduce dallo scandalo del licenziamento
dell’amministratore delegato causa relazioni improprie con un subordinato,
progetta di uscire dall’angolo e spingere ulteriormente profitti già elevati con
una cura da cavallo a base di maggiore “efficienza” somministrata dal nuovo
numero uno Philipp Navratil, che lascerà a casa 16mila dipendenti.
QUANDO L’AI SOSTITUISCE COMPITI RIPETITIVI
Molto più circoscritti i casi in cui l’AI viene davvero già utilizzata per
sostituire forza lavoro umana. ServiceNow, piattaforma di servizi cloud per le
aziende che hanno necessità di gestire flussi di lavoro digitali, utilizza
agenti AI per gestire 24 ore al giorno compiti ripetitivi nell’Information
technology, nel customer service, nello sviluppo software e negli acquisti.
Salesforce (servizi di gestione delle relazioni con i clienti) a settembre ha
deciso di ridurre di 4mila unità i lavoratori dedicati al supporto ai clienti
perché secondo l’ad Marc Benioff “servono meno teste”: oltre il 50% del lavoro è
già stato automatizzato. Mentre il colosso tecnologico Hp a fine novembre ha
ufficializzato tra 4mila e 6mila tagli (circa il 10% della forza lavoro)
nell’ambito di un piano per “snellire” la struttura e incorporare nei suoi
processi l’intelligenza artificiale per accelerare lo sviluppo di nuovi prodotti
e gestire il supporto ai clienti. E ancora: nel settore legale, come ha
raccontato il Financial Times, grandi studi come Clifford Chance e Bryan Cave
Leighton Paisner hanno ridotto rispettivamente del 10 e dell’8% le posizioni nei
servizi di staff, citando come motivazione anche una maggiore adozione di
strumenti di intelligenza artificiale.
Non mancano però i casi in cui il tentativo di rimpiazzare lavoratori con
chatbot finisce con un buco nell’acqua: la fintech Klarna, nota per i pagamenti
rateizzati (“Buy now, pay later”), contava di sostituire 800 impiegati full-time
del customer service, ma la scorsa primavera ha dovuto fare marcia indietro
perché la qualità del servizio si è rivelata troppo bassa. Speculare la parabola
di Ibm, che due anni fa aveva congelato 7.800 assunzioni per ruoli di back
office da sostituire con assistenti virtuali: ha ottenuto risparmi per 4,5
miliardi e nel frattempo ha aumentato la forza lavoro in settori come
l’ingegneria del software, il marketing e le vendite, in cui l’interazione tra
esseri umani è premiante. Bicchiere mezzo pieno per il gruppo. Non per gli
impiegati – “circa 200” nelle risorse umane, secondo il ceo Arvind Krishna – il
cui lavoro viene ora svolto da agenti AI.
Il fatto che AI e automazione non siano ancora la ragione principale dei
licenziamenti non significa ovviamente che nel medio periodo l’impatto non si
vedrà. Goldman Sachs prevede nei prossimi tre anni una potenziale riduzione
della forza lavoro dell’11% da parte delle aziende Usa, soprattutto nei servizi
ai clienti.
L'articolo L’AI ci sta già rubando il lavoro? Negli Usa 1,1 milioni di
licenziamenti da inizio anno, ma dietro c’è soprattutto l’ossessione per i
margini di profitto proviene da Il Fatto Quotidiano.
Colpo di scena dall’America. Walt Disney Company ha annunciato un investimento
massiccio da 1 miliardo di dollari in OpenAI, sancendo una partnership che
porterà icone come Paperino, Topolino, Cenerentola, Biancaneve e Luke Skywalker
all’interno di Sora, il potente generatore di video dell’azienda guidata da Sam
Altman.
L’intesa, resa nota giovedì 11 dicembre, rende così Disney il primo grande
partner a licenziare ufficialmente i propri contenuti per Sora. L’accordo ha una
durata triennale e apre scenari inediti per i fan: sarà possibile creare e
condividere brevi video basati su oltre 200 personaggi tratti dagli universi
Disney, Pixar, Marvel e Star Wars, utilizzando semplici prompt di testo.
“Questo accordo dimostra come le aziende di IA e i leader creativi possano
collaborare in modo responsabile per promuovere l’innovazione a beneficio della
società”, ha commentato Sam Altman, CEO di OpenAI. Bob Iger, CEO di Disney, ha
aggiunto che l’intesa “amplierà la portata della nostra narrazione attraverso
l’IA generativa, rispettando e proteggendo al contempo i creatori e le loro
opere“.
La collaborazione tra Disney e OpenAI va oltre il campo dell’intrattenimento
degli utenti, assumendo una valenza strategica significativa. Il colosso
dell’intrattenimento diventerà infatti un “cliente chiave” dell’azienda di
intelligenza artificiale, implementando le sue tecnologie nello sviluppo di
nuovi prodotti e rendendo ChatGPT disponibile ai propri dipendenti.
L’accordo giunge in una fase critica: se da una parte l’impressionante capacità
di Sora di produrre filmati di straordinario realismo suscita meraviglia,
dall’altra si intensificano le preoccupazioni riguardo alla proliferazione di
“AI slop” (contenuti di bassa qualità generati in massa), alla diffusione di
deepfake e alle potenziali violazioni del diritto d’autore.
L'articolo Walt Disney Company investe un miliardo di dollari in OpenAI:
Paperino, Topolino, Cenerentola, Biancaneve e Luke Skywalker sbarcheranno su
Sora proviene da Il Fatto Quotidiano.
Gli architetti dell’intelligenza artificiale sono la persona dell’anno 2025 di
Time. “Il 2025 è stato l’anno in cui il pieno potenziale dell’intelligenza
artificiale è emerso in tutta la sua portata e in cui è diventato chiaro che non
si tornerà indietro”, si legge sul profilo X della testata. “Per aver inaugurato
l’era delle macchine pensanti, per aver stupito e preoccupato l’umanità, per
aver trasformato il presente e trasceso il possibile, gli Architetti dell’IA
sono la Persona dell’Anno 2025“, viene spiegato nella motivazione.
La copertina richiama la foto iconica Lunch atop a Skyscraper del 1932 in cui
sono ritratti degli operai impegnati nella costruzione di un grattacielo che
pranzano seduti su una trave di acciaio. Al loro posto figurano Mark Zuckerberg,
Ceo di Meta; Lisa Su, Ceo di AMD; Elon Musk, XAl; Jensen Huang, presidente e Ceo
di Nvidia; Sam Altman, Ceo di OpenAl; Demis Hassabis, Ceo di DeepMind
Technologies; Dario Amodei, Ceo di Anthropic; Fei-Fei Li, co-direttore dello
Human-Centered Al Institute di Stanford e Ceo di World Labs.
L’intelligenza artificiale era una delle principali candidate al titolo, insieme
ai Ceo Jensen Huang di Nvidia e Sam Altman di OpenAI. Era considerato un
possibile candidato anche Papa Leone XIV, il primo pontefice americano, la cui
elezione quest’anno è seguita alla morte di Papa Francesco, oltre al presidente
Donald Trump, al primo ministro israeliano Benjamin Netanyahu e al sindaco
eletto di New York Zohran Mamdani, tutti presenti nelle liste dei favoriti.
Nel 2024 Trump era stato nominato persona dell’anno dalla rivista, succedendo a
Taylor Swift, vincitrice nel 2023. La prima persona dell’anno fu nominata dalla
rivista nel 1927 quando i suoi redattori iniziarono a scegliere la persona che,
a loro giudizio, aveva maggiormente segnato le notizie dei precedenti dodici
mesi.
L'articolo Per il Time gli architetti dell’Intelligenza artificiale sono la
persona dell’anno 2025: “Hanno inaugurato l’era delle macchine pensanti”
proviene da Il Fatto Quotidiano.
McDonald’s al centro delle polemiche in Olanda. La famosissima catena di fast
food ha dovuto ritirare il proprio spot natalizio per la pioggia di critiche
ricevute. Il motivo? Una pubblicità di 45 secondi girata con l’intelligenza
artificiale e giudicata dagli utenti poco reale. Il video si basa su una
provocazione: “Il Natale è il periodo peggiore dell’anno“. Tra le tante scene si
vedono persone a cui volano via i regali e Babbo Natale sulla sua slitta
arrabbiato a causa del traffico. L’idea? Ribaltare il Natale in tutto e per
tutto. La provocazione non è stata presa bene e la scarsa veridicità delle
immagini non ha convinto – comprensibilmente – gli spettatori.
LA RISPOSTA DI THE SWEETSHOP
Dopo la pioggia di critiche è arrivata la risposta della casa di produzione che
ha realizzato le immagini dello spot: The Sweetshop. “Per sette settimane non
abbiamo dormito quasi mai”, ha dichiarato l’azienda. La casa di produzione ha
aggiunto che “fino a 10 dei nostri specialisti interni di intelligenza
artificiale e post-produzione presso The Gardening Club lavoravano a stretto
contatto con i registi”. L’idea di The Sweetshop era quella di cogliere momenti
della quotidianità e unirli, in un video generato dall’IA. “Abbiamo generato
quelle che sembravano riprese giornaliere poi le abbiamo elaborate in fase di
montaggio. Non si è trattato di un trucco dell’intelligenza artificiale. Era un
film”, ha concluso l’azienda, il cui lavoro è stato criticato sui social e
cestinato da McDonald’s.
> McDonald’s is getting cooked after it released an AI-generated commercial in
> the Netherlands
>
> The US-based firm that created the ad has since released a statement, saying,
> “AI didn’t create this film — we did.” pic.twitter.com/RIUI29Rpt5
>
> — Morning Brew ☕️ (@MorningBrew) December 9, 2025
L'articolo Lo spot natalizio di McDonald’s viene distrutto dalle critiche dei
clienti e l’azienda lo ritira proviene da Il Fatto Quotidiano.
Nel 2026, la pubblicità potrebbe sbarcare su Gemini, il sistema d’intelligenza
artificiale di Google (Alphabet). O almeno questo è ciò che nelle scorse ore è
circolato online a partire da un’esclusiva (subito smentita) della testata
giornalistica Adweek che citava fonti interne all’azienda. È una prima epifania:
vero o falso che sia, si inizia a pensare a come saranno inglobate le pubblicità
nei sistemi di ricerca con l’Ai e il rischio che gli utenti non riescano a
distinguere tra oggettività, induzione all’acquisto e spot inizia a essere
concreto. Le leggi sul tema, però, ad oggi sono molto carenti.
IL CASO GOOGLE
Ma partiamo dall’attualità. Nel caso di Google, il condizionale sulla notizia di
Gemini è d’obbligo: a stretto giro, infatti, è arrivata la smentita ufficiale su
X da parte di Ginny Marvin, Ads Product Liaison di Google: non solo non ci sono
annunci visibili su Gemini, ha detto, ma mancano anche piani futuri
sull’argomento. D’altro canto, però, ha confermato l’impegno di Google su AI
Overviews, i riassunti generati dall’intelligenza artificiale che tutti vediamo
tra i risultati di ricerca: negli Usa, infatti, tra i risultati già possono
comparire annunci pubblicitari in linea con le richieste dell’utente ed è solo
questione di tempo prima che la funzione si estenda in tutto il mondo.
E QUELLO DI CHAT GPT
Anche ChatGPT, in queste stesse ore, ha fatto discutere attorno allo stesso
tema. Alcuni utenti paganti hanno visto comparire, durante una conversazione con
l’Ai, il suggerimento per un’app (Peloton) che sembrava in tutto e per tutto
simile ad una proposta pubblicitaria integrata nelle conversazioni. Il
co-fondatore della startup di intelligenza artificiale Hyperbolic, Yuchen Jin,
lo ha raccontato con un post di X, screenshot incluso. Contrariato, ha fatto
notare, oltretutto, di essere un abbonato super-pagante (200 dollari al mese per
il piano Pro): come considerarlo se non una sperimentazione di open Ai sulla
pubblicità? Daniel McAuley, responsabile dei dati di OpenAI ha però chiarito che
non era uno spot bensì “solo un suggerimento per installare l’app di Peloton”,
in linea – spiegava – con alcune implementazioni legate alle app che la
piattaforma sta prevedendo per il futuro. Ma ha dovuto però ammettere che “la
mancanza di pertinenza” della conversazione ha reso l’esperienza negativa e
confusa.
LA PUBBLICITÀ PER SOSTENERSI
Il fatto che si sia subito pensato all’advertising apre però una riflessione
d’obbligo: con il tempo, i sistemi di ricerca basati sull’Ai, che restituiscono
testi complessi e strutturati basati su fonti non sempre chiare (dall’origine
spesso opaca e scorretta) avranno integrata la pubblicità per potersi sostenere.
Sostituiranno i tradizionali motori di ricerca e, come già accade per gli
adolescenti che li utilizzano come psicologo, avranno funzioni più invasive sia
in termini di ciò che restituiranno all’utente, sia in termini di comprensione,
profilazione e targetizzazione dell’utente. Grazie al machine learning, il
linguaggio sarà sempre più naturale e confidenziale così come l’approfondimento
delle informazioni “umane”. Tutti elementi preziosi per modellare il marketing
sull’utente. Esempio banale: se farò una ricerca su un problema amoroso, potrei
ricevere in futuro sia una risposta sul tema, sia il consiglio commerciale sui
migliori terapeuti (inserzionisti) per me? Probabilmente sì.
LEGGI CARENTI
Intanto le norme – a partire dalla legge delega sull’IA recentemente approvata
in Italia e che dovrà produrre i relativi decreti legislativi – non regolano
specificamente l’introduzione della pubblicità in questi sistemi. “Né l’Ai Act
europeo né la legge italiana in proibiscono chiaramente l’utilizzo della
pubblicità nei sistemi d’intelligenza artificiale – spiega Fulvio Sarzana,
avvocato e docente presso l’Università Lum di Bari -. Certo però le tematiche
antitrust hanno un peso importante: parliamo comunque di decisioni automatizzate
che possono anche incidere sui diritti fondamentali dei cittadini”.
PRIVACY, ANTITRUST E AI ACT
Ci sono infatti due tipi di problematiche: la prima riguarda la privacy e il
regolamento europeo (GDPR) che impone la possibilità di contrastare il
trattamento automatizzato dei propri dati; la seconda è di tipo concorrenziale,
legata alla posizione dominante dei servizi pubblicitari che potrebbe
coinvolgere anche il settore dei chatbot. Ciononostante, “l’advertising – spiega
Sarzana – non è uno dei campi contenuti nell’allegato 3 dell’AI Act perché non
si ritiene causi rischi sistemici per i diritti fondamentali dei cittadini”.
TRASPARENZA ASSENTE
Si aggiunge poi il problema della protezione del segreto industriale da parte
delle aziende: capire quanto ciò che appare all’utente sia veicolato
dall’advertising o dai rapporti tra inserzionisti e aziende sarà sempre più
difficile. “È il problema del black box dell’intelligenza artificiale: – spiega
Sarzana – non siamo in grado di capire come funziona l’algoritmo. Il GDPR
permette di opporsi al trattamento automatizzato della nostra persona, di
opporsi alla ricostruzione di noi e della nostra personalità fatta dai sistemi.
Però sapere come funziona l’algoritmo e quindi capire quali siano gli
accostamenti che portano a una risultanza, ad oggi, non è previsto da alcuna
norma. E questo ha a che vedere sia con le pubblicità che con i diritti delle
persone”. Non esistono insomma disposizioni che obbligano a mostrare il codice:
“Rimarrà sempre un aspetto oscuro nelle tecnologie, a maggior ragione
dell’intelligenza artificiale, che può generare anche allucinazioni o fornire
quadri distorti delle persone, oltre creare un ecosistema opaco ”. Capace un
giorno di spingerci, anche con linguaggio sempre più comprensivo, naturale e
confidenziale, a comprare.
L'articolo La pubblicità si affaccia anche nella AI. Il caso (smentito) di
Gemini e quello di ChatGPT. Le leggi? Sono già obsolete proviene da Il Fatto
Quotidiano.
Un passo avanti straordinario nel campo della robotica e delle protesi: i
ricercatori dell’Università dello Utah hanno realizzato una mano bionica in
grado di “pensare” quasi da sola. La protesi è dotata di una propria “mente”
artificiale, che le permette di capire autonomamente come posizionare le dita e
quanta forza esercitare per afferrare oggetti e compiere azioni quotidiane.
Lo studio, pubblicato su Nature Communications, ha coinvolto nove persone con
arti intatti e quattro soggetti con amputazioni tra polso e gomito. I risultati
mostrano che la nuova protesi rende i movimenti più naturali e intuitivi, poiché
il controllo è condiviso tra l’Intelligenza Artificiale e l’utente, riducendo lo
sforzo mentale richiesto per coordinare ogni singola mossa.
Chi non ha perso un arto non deve ragionare coscientemente su dove posizionare
ogni dito per afferrare una tazza o stringere una mano correttamente. Chi
utilizza una protesi, invece, si trova spesso ad affrontare proprio questa
difficoltà.
Per affrontarla, i ricercatori guidati da Jacob George e Marshall Trout hanno
integrato nella punta delle dita sensori di pressione e vicinanza su una mano
protesica già in commercio. Una rete neurale artificiale è stata poi addestrata
a determinare come dovrebbero muoversi le dita per compiere ciascuna azione.
L’algoritmo è in grado di prevedere la distanza dell’oggetto e di muovere le
dita di conseguenza. Nonostante l’autonomia della mano, l’utente mantiene sempre
il controllo: il sistema combina continuamente l’azione dell’AI con i comandi
dell’utilizzatore, decodificati attraverso i segnali elettrici provenienti dalla
pelle e dai muscoli.
FOTO DI ARCHIVIO
L'articolo Mano bionica “intelligente”: l’Ai aiuta a muovere le dita in modo
naturale proviene da Il Fatto Quotidiano.
N el suo dialogo intitolato Fedro, attraverso il mito di Theuth e la figura di
Socrate, Platone esprime la sua celebre critica della scrittura. Per il filosofo
greco, la scrittura è un pharmakon, rimedio e veleno al tempo stesso. La
scrittura appare immobile, incapace di adattarsi all’interlocutore come invece
fa il dialogo vivo; priva di autonomia, perché non sa difendere da sé le proprie
tesi; inadeguata ad accrescere la sapienza, poiché offre informazioni senza
generare la memoria e la saggezza che nascono dall’interazione dialettica. È,
infine, un “gioco bellissimo” ma assai distante dalla serietà del processo
dialettico orale che conduce alla conoscenza. Ciononostante, pur non essendo
“vera” filosofia, per Platone la scrittura è uno strumento a essa necessario,
così com’è necessaria per la cosiddetta hypomnesis, ovvero la capacità
richiamare alla mente un’informazione.
Se per il filosofo greco la scrittura rappresentava un ausilio esterno alla
memoria, oggi la psicologia cognitiva e le neuroscienze hanno ampliato quella
intuizione con il concetto di cognitive offloading. Con questa espressione si
indicano tutte le pratiche attraverso cui gli individui delegano a un supporto
esterno parte dei propri processi cognitivi, come ad esempio la funzione di
ricordare informazioni, trasformando strumenti e tecnologie in estensioni delle
proprie capacità mnemoniche. Tra queste si annoverano gesti quotidiani come
segnare una lista della spesa, annotare un compleanno su un calendario o
ricorrere al proverbiale nodo al fazzoletto.
> Per Platone la scrittura è pharmakon, rimedio e veleno al tempo stesso: pur
> non essendo “vera” filosofia è uno strumento che le è necessario, così com’è
> necessaria per la capacità di richiamare alla mente un’informazione.
Negli ultimi dieci anni, allo studio dello “scarico” cognitivo hanno dato un
forte impulso la comparsa e la diffusione della rete, e delle tecnologie
digitali. I dispositivi connessi, infatti, moltiplicano all’infinito le
possibilità di delega della funzione cognitiva del ricordo, ma le loro
pervasività e facilità di utilizzo rischiano di sbilanciare l’equilibrio di
benefici e costi di queste pratiche a favore dei secondi.
I dispositivi connessi ‒ se ne erano già accorti i fondatori del cyberpunk, il
cui lavoro è stato fondamentale per cristallizzare nella nostra cultura
l’immaginario del digitale ‒ funzionano come una vera e propria protesi della
nostra mente, che ne esternalizza una o più funzioni cognitive, tra cui,
appunto, la memoria. In un paper intitolato The benefits and potential costs of
cognitive offloading for retrospective information, Lauren L. Richmond e Ryan G.
Taylor si dedicano a ricostruire una panoramica di alcuni degli studi e degli
esperimenti più significativi nell’ambito del cognitive offloading.
Alla base di questo corpus teorico e sperimentale c’è il fatto che, per compiere
un ampio numero di azioni quotidiane, le persone si affidano a due tipi di
memoria: quella retrospettiva, ovvero la capacità di ricordare informazioni dal
passato, e quella propositiva, ossia la capacità di ricordare azioni da compiere
nel futuro. Per portare a termine compiti che comportano l’uso di tutti e due i
tipi di memoria, possiamo contare sulla nostra capacità di ricordare o delegare
questa funzione a un supporto esterno.
Questo spiega il motivo per cui la maggior parte delle persone intervistate nei
contesti di ricerca esaminati da Richmond e Taylor dichiara di usare tecniche di
cognitive offloading per compensare peggioramenti nelle proprie performance
mnemotecniche. Io stesso, che mi sono vantato a lungo di avere una memoria di
ferro, sono stato costretto, passati i quaranta e diventato genitore per due
volte, a dover ricorrere a promemoria, note e appunti per riuscire a ricordare
impegni e scadenze.
> Con l’espressione cognitive offloading si indicano le pratiche attraverso cui
> gli individui delegano a un supporto esterno la funzione di ricordare
> informazioni, trasformando strumenti e tecnologie in estensioni delle proprie
> capacità mnemoniche.
Età e capacità mnemoniche sono infatti due fattori collegati alla necessità di
eseguire azioni di scarico cognitivo. Superata l’adolescenza, a mano a mano che
ci si inoltra nella vita adulta si è costretti a ricordare un numero di cose più
elevato, compito per cui il cognitive offloading offre indubbi benefici. Uno dei
più evidenti risiede nel fatto che, a differenza di altre mnemotecniche più
specifiche, non ha bisogno di una formazione mirata. Per un adulto con una
percezione del tempo funzionale, usare un’agenda fisica o virtuale è un gesto
intuitivo e immediato, che non richiede ulteriore carico cognitivo.
La facilità d’uso non è l’unico vantaggio. Alcuni degli studi passati in
rassegna nello studio mostrano come l’offloading cognitivo generi benefici per
entrambi i tipi di memoria. Ad esempio, esso permette non soltanto di ricordare
informazioni archiviate in precedenza, ma riesce anche ad attivare il ricordo di
informazioni non archiviate tramite meccanismi di associazione mentale: una
persona che ha segnato sulla propria lista della spesa di acquistare un
barattolo di alici ha più probabilità di ricordarsi di acquistare il burro
rispetto a una persona che non lo ha fatto, anche se il burro non è presente
nella lista. Per quanto banali, questi esempi mostrano quanto le pratiche di
offloading cognitivo siano d’ausilio alla memoria.
Tali benefici, tuttavia, non sono gratuiti ma comportano una serie di costi.
Alcuni studi hanno evidenziato più difficoltà a ricordare le informazioni
“scaricate” quando, in modo improvviso e inaspettato, viene negato loro accesso
alle informazioni archiviate. Se invece il soggetto è consapevole del fatto che
l’accesso può esser negato, le performance mnemoniche si dimostrano più
efficaci. Un altro costo è la possibilità di favorire la formazione di falsi
ricordi. Altri test condotti in laboratorio mostrano come quando le persone sono
forzate a pratiche di scarico cognitivo, risultano meno capaci di individuare
elementi estranei, aggiunti all’archivio delle informazioni a loro insaputa.
> Le pratiche di offloading cognitivo possono essere d’ausilio alla memoria.
> Tali benefici, tuttavia, comportano una serie di costi, ad esempio una maggior
> difficoltà a reperire informazioni quando viene improvvisamente a mancare
> l’accesso all’archivio esterno.
Perciò, così come la scrittura per Platone aveva natura “farmacologica”, e
offriva al tempo stesso rimedio e veleno per la memoria, anche le pratiche di
cognitive offloading comportano costi e benefici. Da questa prospettiva, la
diffusione dell’intelligenza artificiale (IA) sta mettendo in luce come questo
strumento, ubiquo e facilmente accessibile, stia favorendo nuove forme di
scarico cognitivo, e incidendo sul modo in cui le persone si rapportano alle
informazioni, nonché sullo sviluppo del loro pensiero critico.
Disponibili ormai ovunque, alla stregua di un motore di ricerca, le IA
aggiungono all’esperienza utente la capacità di processare e presentare le
informazioni, senza doversi confrontare direttamente con le relative fonti.
Quale impatto esercita questa dinamica sulla capacità di pensiero critico? È la
domanda al centro di uno studio condotto dal ricercatore Michael Gerlich su 666
partecipanti di età e percorsi formativi differenti. Questo studio analizza la
relazione tra uso di strumenti di intelligenza artificiale e capacità di
pensiero critico, mettendo in luce il ruolo mediatore delle pratiche di
offloading cognitivo. Per pensiero critico si intende la capacità di analizzare,
valutare e sintetizzare le informazioni al fine di prendere decisioni ragionate,
incluse le abilità di problem solving e di valutazione critica delle situazioni.
Secondo Gerlich, le caratteristiche delle interfacce basate su IA ‒ dalla
velocità di accesso ai dati alla presentazione semplificata delle risposte ‒
scoraggiano l’impegno nei processi cognitivi più complessi.
> La diffusione dell’intelligenza artificiale sta mettendo in luce come questo
> strumento stia favorendo nuove forme di “scarico” cognitivo, incidendo sul
> modo in cui le persone si rapportano alle informazioni e sviluppano pensiero
> critico.
Studi condotti in ambiti come sanità e finanza mostrano infatti che se da un
lato il supporto automatizzato migliora l’efficienza, dall’altro riduce la
necessità, per questi professionisti, di esercitare analisi critica. Una
dinamica analoga si osserva nella cosiddetta “memoria transattiva”, ossia la
tendenza a ricordare il luogo in cui un’informazione è archiviata o il suo
contenuto, fenomeno già noto come “effetto Google”. Le IA accentuano questo
processo, sollevando ulteriori interrogativi sul possibile declino delle
capacità di ritenzione perché, anche in questo caso, la loro capacità di
sintetizzare le informazioni fa sì che l’utente non debba più impegnarsi in un
confronto con le fonti, ma sviluppa invece la consapevolezza che potrà farle
affiorare in qualsiasi momento, rivolgendole a un’interfaccia che mima una
conversazione umana
Effetti simili riguardano attenzione e concentrazione: da un lato gli strumenti
digitali aiutano a filtrare il rumore informativo, dall’altro favoriscono la
frammentazione e il calo della concentrazione. Emergono inoltre ambivalenze
anche nel problem solving: l’IA può ampliare le possibilità di soluzione ma
rischia di ridurre l’indipendenza cognitiva, amplificare bias nei dataset o
opacizzare i processi decisionali, rendendoli difficilmente interpretabili dagli
utenti. Una condizione, quest’ultima, oggetto di un ampio dibattito anche in
ambito militare, dove lo sviluppo di sistemi automatizzati di comando e
controllo pone dubbi di natura etica, politica e psicologica.
I test effettuati confermano che l’uso intensivo di strumenti basati su IA
favorisce pratiche di cognitive offloading che, pur alleggerendo il carico
cognitivo e liberando risorse mentali, si associano a un declino della capacità
di pensiero critico, in particolare nelle fasce più giovani. Questo declino
viene misurato attraverso la metodologia HCTA (Halpern Critical Thinking
Assessment), un test psicometrico che prende il nome dalla psicologa cognitiva
Diane F. Halpert e misura le abilità di pensiero critico (come valutazione
della probabilità e dell’incertezza, problem solving decisionale, capacità di
trarre conclusioni basate su prove), grazie a un set di domande aperte e a
risposta multipla applicate a uno scenario di vita quotidiana.
> L’uso intensivo di strumenti basati su IA favorisce pratiche di cognitive
> offloading che, pur alleggerendo il carico cognitivo, si associano a un
> declino della capacità di pensiero critico, in particolare nelle fasce più
> giovani.
Anche in questo caso, è piuttosto chiaro come l’applicazione della tecnologia ai
processi cognitivi possa risultare deleteria, inducendo una sorta di pigrizia
difficile da controbilanciare. Le pratiche di scarico cognitivo, infatti,
producono i loro benefici quando attivano la mente delle persone che le
utilizzano. È quello che succede, per esempio, nel metodo Zettelkasten, una
delle tecniche di gestione della conoscenza più conosciute.
Creato dal sociologo tedesco Niklas Luhmann negli anni Cinaquanta del Novecento,
lo Zettelkasten è un metodo di annotazione pensato per facilitare la scrittura
di testi non fiction e rafforzare la memoria delle proprie letture, che prevede
di ridurre il tempo che passa tra la lettura di un testo e la sua elaborazione
scritta, prendendo appunti e note durante la lettura dello stesso. Come spiega
Sonke Ahrens in How to take smart notes, uno dei principali testi di
divulgazione sul metodo Zettelkasten, la scrittura non è un gesto passivo.
Eseguirlo attiva aree del nostro cervello che sono direttamente collegate al
ricordo e alla memoria. Lo scarico cognitivo alla base del suo funzionamento
produce perciò un beneficio proprio perché impegna chi lo esegue sia a
confrontarsi direttamente con il testo che sta leggendo, sia a scrivere durante
l’atto stesso della lettura. Adottare il metodo Zettelkasten significa perciò
introdurre in quest’ultima attività una componente di frizione e di impegno, che
sono la base della sua efficacia.
> Automatizzando le pratiche di offloading cognitivo rischiamo di privarci del
> tempo necessario affinché un’informazione si depositi nella nostra memoria
> fino a diventare un pensiero originale.
A differenza della maggior parte delle interfacce attraverso cui interagiamo con
le tecnologie, in particolare con quelle digitali e di intelligenza artificiale,
il metodo Zettelkasten è fatto per produrre attrito. È proprio tale attrito che
stimola la nostra mente, la attiva e produce benefici sulle nostre capacità
cognitive. Lo Zettelkasten è progettato per far pensare le persone e non il
contrario, come recita il titolo di uno dei testi più famosi sull’usabilità web
e l’interazione uomo-computer.
Perché se ogni processo diventa liscio, privo di frizione, e la tecnologia che
lo rende possibile si fa impalpabile fino a scomparire, quello che corriamo è
proprio il rischio di non dover pensare. Quando chiediamo a un’intelligenza
artificiale di sintetizzare un libro, invece di leggerlo e riassumerlo noi
stessi, quello che stiamo facendo è schivare il corpo a corpo con il testo e la
scrittura che un metodo come lo Zettelkasten prescrive come base per la sua
efficacia. Automatizzare le pratiche di scarico cognitivo significa trasformare
in costi i benefici che esse possono apportare alla nostra capacità di ricordare
e pensare, proprio perché ad andare perduta è la durata, ovvero il tempo
necessario affinché un’informazione si depositi nella nostra memoria fino a
diventare un pensiero originale.
Prendere atto di questa contraddizione significa spostare l’attenzione dalla
dimensione neurologica a quella culturale e sociale. Perché è vero che invocare
interfacce più “visibili” e capaci di generare attrito nell’esperienza utente, o
elaborare strategie educative mirate, come suggerisce l’autore, sono atti utili
e necessari a riconoscere e gestire l’impatto delle IA sulle nostre menti, ma
senza porsi il problema dell’accesso al capitale culturale necessario per un uso
consapevole e critico delle tecnologie, tali soluzioni rischiano di restare
lettera morta. O, peggio, rischiano di acuire le differenze tra chi ha il
capitale culturale ed economico per permettersi di limitare il proprio l’accesso
alla tecnologia e chi, al contrario, finisce per subire in modo passivo le
scelte delle grandi aziende tecnologiche, che proprio sulla pigrizia sembrano
star costruendo l’immaginario dei loro strumenti di intelligenza artificiale.
> Nel marketing di alcune aziende gli strumenti di IA non sembrano tanto protesi
> capaci di potenziare creatività e pensiero critico, quanto scorciatoie per
> aggirare i compiti più noiosi o ripetitivi che la vita professionale comporta.
Per come vengono presentati nella comunicazione corporate, gli strumenti di
intelligenza artificiale assomigliano meno a delle protesi capaci di potenziare
la creatività o il pensiero critico e più a scorciatoie per aggirare i compiti
più noiosi, ripetitivi o insulsi che la vita professionale comporta. Il video di
presentazione degli strumenti di scrittura “smart” della sedicesima iterazione
dell’iPhone è emblematico del tenore di questo discorso. Warren, l’impiegato
protagonista dello spot, li usa proprio per dare un tono professionale al testo
dell’email con cui scarica sul suo superiore un compito che dovrebbe eseguire
lui. Quella che, all’apparenza, potrebbe sembrare una celebrazione dell’astuzia
working class è in realtà una visione in cui l’automazione non ha liberato
l’uomo dalle catene del lavoro, ma gli ha solo fornito degli strumenti per non
essere costretto a pensare prima di agire.
Ancora una volta, l’uso delle tecnologie si rivela non soltanto una questione
politica, ma anche ‒ e soprattutto ‒ una questione sociale e di classe. Una
questione che andrebbe rimessa al centro del dibattito sull’intelligenza
artificiale, superando la dicotomia, tutto sommato sterile, tra apocalittici e
integrati che ancora sembra dominarlo.
L'articolo Ricordare per procura proviene da Il Tascabile.
di Cibelle Dardi
Dicembre, stagione di tredicesime e scontrini lunghi, vede la macchina dei
consumi natalizi accelerare a pieno regime. Tra le corsie dei supermercati e le
vetrine online, quest’anno emerge un ospite speciale, non si vede ma si
percepisce ovunque: l’intelligenza artificiale generativa. In pochi anni, i
giocattoli con IA generativa (smart toys) hanno soppiantato il bambolotto con
chip: orsetti che creano storie, robot che memorizzano abitudini e console
perennemente connesse.
La questione non è soltanto tecnologica, è soprattutto economica: il giocattolo
non è più il prodotto finale, ma diventa il terminale di una filiera di raccolta
dati. I report Trouble in Toyland 2025 e Privacy Not Included di Mozilla
evidenziano come, in molti smart toys, sicurezza e tutela dei minori cedano il
passo ai margini di profitto e alle esigenze di lancio sul mercato in tempi
rapidi. Gli smart toys sono giocattoli interattivi connessi via Wi‑Fi o
Bluetooth, equipaggiati con microfoni, fotocamere, geolocalizzazione e sensori:
il bambino non interagisce con un semplice peluche, ma con server remoti che
accumulano dati su comportamenti e voce, sollevando dubbi sulla privacy.
Uno studio dell’Università di Basilea ha valutato 12 smart toys presenti sul
mercato europeo, riscontrando criticità rilevanti di conformità al Gdpr,
dall’assenza di crittografia adeguata nel traffico dati di alcuni dispositivi
alle app che chiedono permessi (microfono, geolocalizzazione) non sempre
necessari al semplice funzionamento del gioco.
Tra i nuovi arrivi sugli scaffali c’è anche Poe l’Orso Peluche Racconta Storie,
distribuito da Giochi Preziosi. Si tratta di un peluche che utilizza l’IA
generativa per creare favole personalizzate, appoggiandosi all’app Plai Ai Story
Creator e a un’infrastruttura cloud per l’elaborazione del linguaggio. Secondo
quanto dichiarato dal produttore nelle Faq di supporto, i dati non vengono
venduti e le informazioni inserite nell’app servono unicamente a personalizzare
la storia; resta il fatto che questo scambio continuo di input abitua il bambino
all’idea che l’accesso all’intrattenimento passi attraverso la condivisione di
dati.
Anche le icone del passato cambiano pelle: il Tamagotchi Uni di Bandai, erede
dell’ovetto anni ’90, oggi si connette al Wi‑Fi per entrare nel Tamaverse,
metaverso proprietario dove si incrociano personaggi, oggetti virtuali ed eventi
globali. Quel che era un circuito chiuso sul piccolo display diventa così un
nodo di rete, aggiornato da remoto e immerso in uno scambio continuo di dati,
che richiede ai genitori molta più attenzione e competenza digitale.
Il quadro è ancora più preoccupante nel segmento low cost, popolato da robot
interattivi che replicano funzioni e design dei modelli di punta – come i cani
robot tipo Dog‑E – e vengono venduti in massa su piattaforme e-commerce. In
questo segmento, il rischio privacy si intreccia con l’opacità di produttori
extra Ue e informative spesso difficili da ricostruire. Le app proprietarie che
gestiscono gli smart toys, come ricordano anche le schede informative del
Garante, tendono spesso a richiedere permessi estesi – per esempio accesso a
microfono, memoria del dispositivo o geolocalizzazione – non sempre
proporzionati alle effettive esigenze di funzionamento del gioco.
In pratica, si regala un giocattolo e si porta in casa un “cavallo di Troia”
digitale, con il rischio che i dati finiscano su server fuori dallo Spazio
economico europeo, dove valgono regole diverse dal Gdpr.
La direzione è chiara: la mercificazione dell’utente parte dalla culla. Se un
robot con IA generativa costa poche decine di euro, il vero margine è nel
profilo digitale del futuro consumatore, costruito sulle sue interazioni. La
cameretta smette di essere rifugio privato e diventa una miniera di dati, dove
l’intimità del gioco si scambia, byte dopo byte, con l’efficienza degli
algoritmi di profilazione.
IL BLOG SOSTENITORE OSPITA I POST SCRITTI DAI LETTORI CHE HANNO DECISO DI
CONTRIBUIRE ALLA CRESCITA DE ILFATTOQUOTIDIANO.IT, SOTTOSCRIVENDO L’OFFERTA
SOSTENITORE E DIVENTANDO COSÌ PARTE ATTIVA DELLA NOSTRA COMMUNITY. TRA I POST
INVIATI, PETER GOMEZ E LA REDAZIONE SELEZIONERANNO E PUBBLICHERANNO QUELLI PIÙ
INTERESSANTI. QUESTO BLOG NASCE DA UN’IDEA DEI LETTORI, CONTINUATE A RENDERLO IL
VOSTRO SPAZIO. DIVENTARE SOSTENITORE SIGNIFICA ANCHE METTERCI LA FACCIA, LA
FIRMA O L’IMPEGNO: ADERISCI ALLE NOSTRE CAMPAGNE, PENSATE PERCHÉ TU ABBIA UN
RUOLO ATTIVO! SE VUOI PARTECIPARE, AL PREZZO DI “UN CAPPUCCINO ALLA SETTIMANA”
POTRAI ANCHE SEGUIRE IN DIRETTA STREAMING LA RIUNIONE DI REDAZIONE DEL GIOVEDÌ –
MANDANDOCI IN TEMPO REALE SUGGERIMENTI, NOTIZIE E IDEE – E ACCEDERE AL FORUM
RISERVATO DOVE DISCUTERE E INTERAGIRE CON LA REDAZIONE. SCOPRI TUTTI I VANTAGGI!
L'articolo Giocattoli per bambini con Ai generativa: così gli smart toys
raccolgono dati e sfidano la privacy proviene da Il Fatto Quotidiano.
È stata la Bbc, per prima, a dedicarle un servizio: la nuova campagna di
Valentino per la borsa Garavani DeVain, realizzata con l’intelligenza
artificiale, sta scatenando un’ondata di reazioni indignate. Nel giro di poche
ore la notizia ha fatto il giro del web, finendo sulle pagine del Daily Mail e
di molti altri giornali britannici, che hanno raccolto decine di commenti —
spesso spietati — degli utenti sui social. Il motivo? Un video surreale e
dichiaratamente generato con AI, pubblicato sul profilo Instagram della maison e
subito diventato virale, non tanto per l’impatto artistico quanto per le accuse
di essere uno spot “inquietante” e “disturbante“.
IL VIDEO NEL MIRINO DELLE CRITICHE
Il video criticato è il secondo capitolo del progetto “Digital Creative Project”
di Valentino, che ha coinvolto nove artisti, cinque dei quali hanno utilizzato
strumenti di AI generativa. Lo spot è firmato in particolare dall’artista
digitale Total Emotional Awareness, che secondo la maison ha trasformato la
borsa in “un viaggio attraverso geometrie caleidoscopiche e pura immaginazione”.
Il contenuto è un collage “surreale” e visionario: modelle che emergono da
un’opulenta borsa d’oro, braccia che si fondono per formare il logo Valentino e
corpi che si trasformano in una massa vorticosa. Il brand, correttamente, aveva
etichettato il post come contenuto generato dall’AI ma il punto non è neanche
tanto l’utilizzo dell’intelligenza artificiale, quanto il risultato che ne è
scaturito. I commenti si sono moltiplicati, definendo il visual come “surreale”,
“inquietante”, “scadente” e chiedendo: “È deludente da una casa di moda
couture”. Molti si sono chiesti se l’azienda fosse stata “hackerata” mentre
altri tuonavano: “Ma cosa ca** stiamo vedendo?”.
IL COMMENTO DEGLI ESPERTI
Il fallimento del progetto Valentino risiede nel valore percepito della
tecnologia. Per gli esperti, l’uso dell’AI da parte di un marchio che vende
borse da oltre 2.000 dollari invia un messaggio devastante: “I clienti tengono i
brand di lusso a uno standard più elevato”, ha spiegato Dr. Rebecca Swift di
Getty Images. L’esperta ha sottolineato che la piena trasparenza non è
sufficiente a mascherare il timore che il marchio stia privilegiando il costo
rispetto all’arte. Anne-Liese Prem, di Loop Agency, ha identificato il vero
problema: “Quando l’AI entra nell’identità visiva di un brand, le persone temono
che il marchio stia scegliendo l’efficienza a scapito dell’arte. Il pubblico
legge l’operazione come cost-saving mascherato da innovazione”.
Il caso Valentino, che segue di pochi mesi quello di Guess (criticata per aver
usato modelle AI in Vogue), dimostra che il rischio è elevatissimo: “Senza una
forte idea emotiva dietro, l’AI generativa può rendere il lusso meno umano in un
momento in cui le persone vogliono la presenza umana più che mai”, ha
sintetizzato la Prem. L’errore della maison italiana è stato quello di
sottovalutare il bisogno di autenticità e manualità da parte di un pubblico che,
spendendo cifre esorbitanti, esige che l’oggetto sia frutto del genio umano, e
non di un algoritmo.
L'articolo “Inquietante”, “Surreale”, “Ma cosa ca** stiamo vedendo?”: la nuova
pubblicità di Valentino creata con l’Intelligenza Artificiale fa discutere. La
Bbc accende il caso, il web insorge proviene da Il Fatto Quotidiano.