Tag - Intelligenza Artificiale

“Supervisor, i professionisti dell’AI”: un libro per inquadrare potenzialità e sfide dalla medicina all’avvocatura
“Sono un medico: cosa posso fare con l’intelligenza artificiale?”, “Quali sono i punti di forza dell’AI per lo psicologo?”, “Come posso utilizzare l’AI da commercialista?”, “Cosa fa l’AI per l’avvocato?”, “Quali sono i vantaggi dell’AI per i notai?”. C’è un nuovo libro – con possibilità di lettura interattiva – in cui sono gli stessi professionisti a spiegare come l’AI può già essere utile (e quanto lo sarà in futuro) nei rispettivi ambiti. Si chiama “Supervisor, i professionisti dell’AI”, opera di Filippo Poletti, top voice di LinkedIn, dove dal 2017 cura una rubrica quotidiana dedicata al lavoro. Nel libro ci sono gli interventi di 70 esperti, tra cui i presidenti nazionali di 9 ordini professionali e di istituzioni pubbliche a partire dall’AgID. Qui di seguito, l’intervista di Poletti a Filippo Anelli, presidente della Federazione Nazionale degli Ordini dei Medici Chirurghi e degli Odontoiatri (FNOMCeO), estratta dal libro (376 pagine, 28.50 euro) edito da Guerini e Associati. ***** Presidente Anelli, come vede evolversi il mestiere del medico? In particolare, quali opportunità potranno emergere dall’adozione dell’intelligenza artificiale? “La professione medica è oggi al crocevia di cambiamenti epocali, che coinvolgono non solo la sfera scientifica e tecnologica, ma anche quella etica, sociale e normativa. In questo scenario, l’intelligenza artificiale rappresenta l’innovazione dirompente per eccellenza in ambito medico. La disponibilità di una mole di dati praticamente illimitata, insieme alla capacità di elaborarli con grande rapidità, apre scenari un tempo impensabili, soprattutto in ambito predittivo: diagnostica precoce, terapie personalizzate, monitoraggio in tempo reale, sviluppo di farmaci, ma anche ottimizzazione dei processi amministrativi e formazione clinica avanzata sono solo alcuni dei campi di applicazione. L’impatto dell’intelligenza artificiale nella professione medica è profondo e multiforme, trasformando molti aspetti della fornitura di cure mediche, della ricerca e dell’amministrazione. Tra le aree sulle quali l’AI ha maggior impatto, l’imaging, la diagnosi precoce, i piani di trattamento e terapie personalizzate; e, ancora, la progettazione di nuovi farmaci, tramite modelli predittivi; il monitoraggio dei pazienti in tempo reale; i compiti amministrativi e burocratici, quali la gestione degli appuntamenti o l’aggiornamento delle cartelle cliniche; la formazione, tramite modelli di simulazione avanzati; il coinvolgimento dei pazienti e l’aderenza alle terapie; la sorveglianza delle malattie e la previsione di epidemie e pandemie. In particolare, in ambito sanitario l’intelligenza artificiale sta automatizzando molti compiti amministrativi, come la pianificazione degli appuntamenti, la gestione delle cartelle cliniche dei pazienti e l’elaborazione delle richieste di assicurazione. Ciò riduce l’onere amministrativo per i professionisti della sanità, consentendo loro di concentrarsi maggiormente sull’assistenza ai pazienti”. Nell’ottica della trasformazione consapevole della vostra professione, quali sono le sfide critiche che occorre presidiare nell’integrazione dell’AI? “L’AI nella professione medica non solo sta migliorando l’efficienza e l’accuratezza dei servizi sanitari, ma sta anche aprendo la strada a soluzioni sanitarie più innovative, personalizzate e accessibili in tutto il mondo. L’AI, tuttavia, non è priva di criticità e come tutti gli strumenti può prestarsi a un utilizzo improprio. La diffusione massiva e sistemica di applicazioni di AI impone la necessità di una regolamentazione chiara e condivisa in linea con l’Europa, oltre a sollevare tutta una serie di questioni etiche, legali e formative. Tra queste, il rischio di una disumanizzazione del rapporto di cura, la responsabilità legale in caso di errore indotto dall’algoritmo, l’interpretazione corretta delle informazioni, l’accentuazione delle disuguaglianze nell’accesso alle cure, la privacy dei dati, la sicurezza informatica. Tra i rischi paventati, ci sono anche quelli legati a un approccio eccessivamente centrato sull’efficienza, che potrebbe ridurre l’interazione umana e ridimensionare l’interazione medico-paziente. L’AI potrebbe, inoltre, non essere in grado di considerare adeguatamente la complessità del contesto clinico del singolo paziente, influenzato anche da fattori socioeconomici e da convinzioni o preferenze personali. Ancora, gli algoritmi potrebbero rispecchiare i pregiudizi umani nelle scelte decisionali o diventare il “magazzino” dell’opinione medica collettiva. Ad esempio, l’analisi di patologie in cui venga sistematicamente sospesa la cura perché ritenute a esito infausto potrebbe portare alla conclusione che siano comunque incurabili: una profezia che si autoconferma. Infine, ma non certo ultimo per importanza, gli algoritmi potrebbero perseguire obiettivi non etici. Il conflitto etico potrebbe crearsi per le differenze di intenti e obiettivi tra chi finanzia e realizza un algoritmo e chi lo utilizza. Per mitigare questi rischi è essenziale trovare un equilibrio tra l’efficienza offerta dall’AI e la necessità di considerare l’individualità e il contesto clinico di ciascun paziente. Gli operatori sanitari dovrebbero essere coinvolti attivamente nella gestione e nella supervisione dei sistemi di AI, garantendo che la tecnologia sia utilizzata come strumento complementare e non come sostituto delle competenze umane. Normative e linee guida chiare sono fondamentali per garantire un utilizzo etico e sicuro dell’AI in ambito medico”. Quali sono le competenze che i medici dovranno sviluppare nei prossimi anni? “È stato detto, e non potrei essere più d’accordo, che in futuro la competizione non sarà tra medico e macchina ma tra medici che sapranno usare le nuove tecnologie e medici che non saranno in grado di farlo. E per utilizzare bene l’intelligenza artificiale in medicina non bastano le competenze tecnologiche: occorre la capacità di governarla, integrando tali competenze con quelle mediche e anche con le skill non prettamente tecniche, date da intuito, esperienza clinica, capacità di ascolto del paziente e di interpretazione dei dati. L’AI da sola, come già detto, potrebbe non essere in grado di considerare adeguatamente il contesto clinico complesso di ciascun paziente, come le variabili socio-economiche, le preferenze personali e altri fattori che possono influenzare le decisioni di cura. E un focus esclusivo sull’efficienza immediata potrebbe trascurare la necessità di valutare l’efficacia a lungo termine delle decisioni di cura, con potenziali ripercussioni sulla salute a lungo termine del paziente. Non vogliamo che i sistemi digitali si trasformino in surrogati del medico, come accaduto in Gran Bretagna con chatbot che hanno sostituito il primo contatto tra il medico e il paziente. Al contrario, gli algoritmi devono essere strumenti fondamentali, volti a potenziare la precisione diagnostica e l’efficacia terapeutica, senza erodere la relazione umana. Il medico, dunque, pur mantenendo il suo ruolo centrale, dovrà essere in grado di integrare i suggerimenti dell’AI nelle decisioni, rispettando e valorizzando il punto di vista del paziente. La formazione dei professionisti sanitari, di pari passo, dovrà evolversi includendo competenze digitali, in modo da preparare i medici a lavorare in sinergia con le nuove tecnologie, ma anche competenze in ambito comunicativo, per spiegare l’utilizzo dell’AI ai pazienti e rafforzare l’interazione umana. I medici di domani dovranno imparare a dedicare tempo al paziente, ad ascoltarlo, a rivalutare la singolarità dell’individuo utilizzando la complessità degli strumenti a disposizione, tra cui l’AI, per giungere a una diagnosi e per definire una terapia. Prendersi cura della persona significa rispettare l’altro come individuo che a noi si affida, preservare la sua dignità, rendere esigibili – grazie alle nostre competenze – i suoi diritti. È un cambiamento che presuppone una profonda modifica anche dei percorsi formativi, in grado di preparare un medico che possa utilizzare lo strumento della comunicazione come l’atto più importante per la cura del paziente, e le nuove tecnologie come ausilio prezioso per migliorare i percorsi di diagnosi e di cura, senza mai sovrastare o, peggio ancora, sostituire il clinico”. Da ultimo, in termini di governance della professione, quali iniziative la Federazione Nazionale degli Ordini dei Medici Chirurghi e degli Odontoiatri sta progettando e portando avanti per supportare gli iscritti in questa fase storica caratterizzata da grandi innovazioni tecnologiche? “L’utilizzo delle nuove tecnologie, tra le quali l’intelligenza artificiale ha un ruolo da protagonista, è una delle quattro direttrici sulle quali si sta sviluppando la revisione del Codice di Deontologia medica, la cui edizione vigente risale al 2014. Le altre sono i “nuovi” diritti, come l’autodeterminazione, il pluralismo culturale, la libertà della ricerca e della scienza; la comunicazione, intesa come rapporto medico paziente, con le altre professioni, e con l’esterno; e la responsabilità, autonomia e rischio clinico, che riguarda, tra le altre cose, il conflitto di interesse e il rapporto tra il Codice e la legge. Si tratta di tematiche che riguardano non solo i medici, ma l’intera società civile. Per questo abbiamo voluto ampliare il confronto, affiancando alla Consulta deontologica un board di esperti – medici, giuristi, giornalisti, filosofi della medicina, ingegneri clinici – per condividere le linee su cui intervenire. Tra i componenti, in quanto esperti di questa tematica, Carlo Casonato, professore ordinario di Diritto costituzionale comparato all’università di Trento e Lorenzo Leogrande, past president dell’Associazione Italiana Ingegneri Clinici e docente all’Università Cattolica di Roma, che all’intelligenza artificiale ha dedicato, tra l’altro, uno dei nostri podcast “Salute e sanità”, che raccontano le innovazioni in medicina. In questo percorso, grande è stato l’apporto del Gruppo di lavoro dedicato alle nuove tecnologie informatiche. Mentre il Comitato Centrale, il 4 marzo 2025, ha approvato all’unanimità un documento sull’AI che sancisce un principio chiaro: l’AI deve essere usata esclusivamente a supporto del medico, garantendo trasparenza, spiegabilità e qualità dei dati; il medico rimane responsabile delle scelte cliniche, mentre il paziente deve essere informato attivamente sull’uso di algoritmi, potenzialità e rischi. Dal punto di vista formativo, all’AI sono stati dedicati convegni e corsi di formazione, ultimo, nel mese di maggio del 2025, quello realizzato a Roma in occasione dell’Assemblea dei Medici Ospedalieri Europei (AEMH) e dedicato all’impatto sulla professione medica di intelligenza artificiale, realtà aumentata e metaverso. Quelli delle innovazioni tecnologiche e della tutela dei dati sensibili sono, del resto, temi cari alla FNOMCeO, che ha intitolato loro diversi articoli del vigente Codice di Deontologia medica e che ulteriormente li svilupperà, alla luce delle innovazioni tecnologiche, scientifiche e legislative, e del contesto di digitalizzazione e di circolazione dei dati anche a livello internazionale, nel nuovo testo in corso di revisione. Rinnovare il Codice di Deontologia Medica rappresenta sempre una sfida per la professione, giacché comporta una profonda riflessione sulla natura dell’essere medico e sul ruolo che i medici, attraverso quest’antica arte professionale, svolgono nella nostra società nell’assicurare la salute, nel curare le malattie e nel lenire le sofferenze. Questo è tanto più vero oggi: nei suoi primi undici anni di vita, il Codice vigente ha attraversato vere e proprie rivoluzioni scientifiche, tecnologiche, sociali, bioetiche, passando attraverso una pandemia, l’uso sempre più diffuso dell’intelligenza artificiale, la crisi del Servizio sanitario nazionale, che vede vacillare – sotto i colpi dei tagli economici e delle ragioni di bilancio – i principi fondanti di universalismo e uguaglianza. Ecco allora la necessità di una revisione profonda, che non veda la professione ripiegarsi su sé stessa, ma che parta da un confronto con la società civile e arrivi a un cambio di passo, un cambio di paradigma, intendendo per questo la necessità di rivedere la definizione del ruolo del medico, ossia il passaggio da un professionista oggi preparato per curare la malattia a un medico capace e formato per curare la persona. Si tratta di un cambio di prospettiva radicale, capace di intercettare i bisogni della nostra società, legati anche a una maggiore esigibilità da parte dei cittadini dei propri diritti, ma anche di adeguare la professione medica ai cambiamenti in atto derivanti dalla rivoluzione digitale e dalla necessità di preservare la natura e l’ambiente che ci circonda. Il punto d’arrivo dovrà essere un Codice che indichi chiaramente ai medici di domani che devono imparare a dedicare tempo al paziente, ad ascoltarlo, a rivalutare la singolarità dell’individuo, utilizzando la complessità degli strumenti a disposizione per giungere a una presa in carico della persona nella sua interezza, perché il medico debba non solo curare le malattie attraverso la diagnosi e la terapia ma essere sempre più il medico della persona”. L'articolo “Supervisor, i professionisti dell’AI”: un libro per inquadrare potenzialità e sfide dalla medicina all’avvocatura proviene da Il Fatto Quotidiano.
Intelligenza Artificiale
Tecnologia
Medici
L’AI ci sta già rubando il lavoro? Negli Usa 1,1 milioni di licenziamenti da inizio anno, ma dietro c’è soprattutto l’ossessione per i margini di profitto
L’intelligenza artificiale ci sta già rubando il lavoro? L’ondata di licenziamenti annunciati negli ultimi mesi negli Stati Uniti da grandi gruppi di settori che vanno dalla tecnologia al retail rende la domanda inevitabile. Ma dietro i massicci piani di ridimensionamento del personale ci sono quasi sempre ragioni più banali rispetto all’adozione di chatbot in grado di sostituire i colletti bianchi. Vedi preoccupazioni per l’andamento dell’economia complici i dazi voluti da Donald Trump, vendite in calo causa pressione sui prezzi (vero tallone d’Achille dell’amministrazione del tycoon) e consumi stagnanti, errori gestionali a cui occorre rimediare. E la vecchia tentazione di tagliare i costi per migliorare i margini e così compiacere gli investitori. Basti dire che nei primi undici mesi dell’anno, se si considerano anche la pubblica amministrazione e l’industria manifatturiera, oltreoceano sono stati ufficializzati oltre 1,1 milione di esuberi, di cui 153mila solo a ottobre: è il livello più alto dal 2020. Ma, secondo una ricognizione della società di outplacement Challenger, Gray & Christmas solo in 55mila casi l’AI è stata citata come esplicita “giustificazione” della riduzione della forza lavoro. Le motivazioni prevalenti sono invece legate a condizioni di mercato, chiusure e ristrutturazioni. Seguite dall’impatto dei licenziamenti collettivi targati Doge. OBIETTIVO “SNELLIMENTO” PER COMPIACERE GLI AZIONISTI Tra le Big tech, Amazon è il caso più eclatante. A cavallo della pandemia ha più che raddoppiato la forza lavoro in scia al boom dell’e-commerce. A fine ottobre è arrivato il primo brusco dietrofront, con l’annuncio di 14.000 tagli nella divisione corporate. Parte, secondo Reuters, di un più ampio piano che potrebbe prevedere in tutto fino a 30mila esuberi. Se è vero che una parte dei posti eliminati saranno sostituiti da nuove mansioni legate all’AI, i tagli puntano soprattutto a snellire l’organizzazione per convincere Wall Street che il gruppo, a fronte dei 125 miliardi investiti quest’anno in infrastrutture cloud e data center per la stessa intelligenza artificiale, resta attento all’efficienza e a salvaguardare i margini di profitto. Obiettivo “dimagrimento” anche per Microsoft, che nonostante ottimi risultati di bilancio sta portando avanti un piano da 15mila esuberi mirato a “ridurre i livelli gestionali”, le procedure e i ruoli interni. Sul modello di Google, che nell’ultimo anno – mentre destinava 85 miliardi di spese in conto capitale agli impianti necessari per alimentare nuovi servizi di intelligenza artificiale – ha silenziosamente eliminato un terzo dei manager che gestivano piccoli team e offerto buonuscite agli impiegati di una decina di divisioni. A sua volta Oracle, prima del maxi accordo da 300 miliardi di dollari con OpenAI per la vendita di potenza di calcolo e dell’annuncio di corposi investimenti per rispondere alla “crescente domanda di servizi AI”, ha deciso di compensare il boom dei costi con una ristrutturazione senza precedenti. Previsti almeno 3mila licenziamenti tra Usa, Canada, India e Filippine nelle business unit dedicate a cloud e servizi finanziari, ma gli analisti prevedono che il numero potrebbe salire a 10mila. TAGLI COME REAZIONE A UNA CRISI Poi c’è chi taglia per salvare i bilanci a fronte di un business in calo, o dopo errori di valutazione e crisi reputazionali. Intel ridurrà la forza lavoro di oltre il 20% (più di 20mila persone) rispetto a fine 2024 per salvare il salvabile dopo aver perso il treno del boom dei chip per AI, comparto dominato da Nvidia e AMD, e investito troppo in progetti che non hanno portato i ritorni sperati. Meta, le cui spese in infrastrutture per l’AI hanno superato i 70 miliardi, secondo il Wall Street Journal si prepara a ridurre dal 10 al 30% il personale della divisione dedicata al metaverso, che dal 2020 ha bruciato oltre 60 miliardi di dollari non ha mai generato i risultati attesi. Dal canto suo UPS, che quest’anno ha ridotto del 50% il volume delle consegne effettuate per Amazon perché poco redditizie, ha eliminato 48.000 posizioni tra impiegati e addetti operativi: licenziamenti che dipendono per la maggior parte dalla chiusura di un centinaio di magazzini e dalla riduzione dei volumi nel tentativo di difendere i profitti minacciati dalla politica tariffaria di Trump. Hanno tutta l’aria di tagli vecchio stile, per tagliare i costi a fronte di risultati finanziari non brillanti, anche quelli di big come Target e Starbucks. A fine ottobre Michael Fiddelke, nuovo ad della catena di grandi magazzini dell’abbigliamento, ha annunciato come primo atto il taglio di 1.800 ruoli corporate – circa l’8% del personale che lavora nella sede centrale – per “semplificare la struttura” e alleggerire i costi fissi proteggendo i margini. La multinazionale del caffè, alle prese con un business in rallentamento, ha reagito a sua volta con chiusure e due round di licenziamenti tra i colletti bianchi, per un totale di 2mila persone. Da questo lato dell’Atlantico pure il colosso del cibo confezionato Nestlé, reduce dallo scandalo del licenziamento dell’amministratore delegato causa relazioni improprie con un subordinato, progetta di uscire dall’angolo e spingere ulteriormente profitti già elevati con una cura da cavallo a base di maggiore “efficienza” somministrata dal nuovo numero uno Philipp Navratil, che lascerà a casa 16mila dipendenti. QUANDO L’AI SOSTITUISCE COMPITI RIPETITIVI Molto più circoscritti i casi in cui l’AI viene davvero già utilizzata per sostituire forza lavoro umana. ServiceNow, piattaforma di servizi cloud per le aziende che hanno necessità di gestire flussi di lavoro digitali, utilizza agenti AI per gestire 24 ore al giorno compiti ripetitivi nell’Information technology, nel customer service, nello sviluppo software e negli acquisti. Salesforce (servizi di gestione delle relazioni con i clienti) a settembre ha deciso di ridurre di 4mila unità i lavoratori dedicati al supporto ai clienti perché secondo l’ad Marc Benioff “servono meno teste”: oltre il 50% del lavoro è già stato automatizzato. Mentre il colosso tecnologico Hp a fine novembre ha ufficializzato tra 4mila e 6mila tagli (circa il 10% della forza lavoro) nell’ambito di un piano per “snellire” la struttura e incorporare nei suoi processi l’intelligenza artificiale per accelerare lo sviluppo di nuovi prodotti e gestire il supporto ai clienti. E ancora: nel settore legale, come ha raccontato il Financial Times, grandi studi come Clifford Chance e Bryan Cave Leighton Paisner hanno ridotto rispettivamente del 10 e dell’8% le posizioni nei servizi di staff, citando come motivazione anche una maggiore adozione di strumenti di intelligenza artificiale. Non mancano però i casi in cui il tentativo di rimpiazzare lavoratori con chatbot finisce con un buco nell’acqua: la fintech Klarna, nota per i pagamenti rateizzati (“Buy now, pay later”), contava di sostituire 800 impiegati full-time del customer service, ma la scorsa primavera ha dovuto fare marcia indietro perché la qualità del servizio si è rivelata troppo bassa. Speculare la parabola di Ibm, che due anni fa aveva congelato 7.800 assunzioni per ruoli di back office da sostituire con assistenti virtuali: ha ottenuto risparmi per 4,5 miliardi e nel frattempo ha aumentato la forza lavoro in settori come l’ingegneria del software, il marketing e le vendite, in cui l’interazione tra esseri umani è premiante. Bicchiere mezzo pieno per il gruppo. Non per gli impiegati – “circa 200” nelle risorse umane, secondo il ceo Arvind Krishna – il cui lavoro viene ora svolto da agenti AI. Il fatto che AI e automazione non siano ancora la ragione principale dei licenziamenti non significa ovviamente che nel medio periodo l’impatto non si vedrà. Goldman Sachs prevede nei prossimi tre anni una potenziale riduzione della forza lavoro dell’11% da parte delle aziende Usa, soprattutto nei servizi ai clienti. L'articolo L’AI ci sta già rubando il lavoro? Negli Usa 1,1 milioni di licenziamenti da inizio anno, ma dietro c’è soprattutto l’ossessione per i margini di profitto proviene da Il Fatto Quotidiano.
Intelligenza Artificiale
Lavoro
Licenziamenti
Amazon
Infografiche
Walt Disney Company investe un miliardo di dollari in OpenAI: Paperino, Topolino, Cenerentola, Biancaneve e Luke Skywalker sbarcheranno su Sora
Colpo di scena dall’America. Walt Disney Company ha annunciato un investimento massiccio da 1 miliardo di dollari in OpenAI, sancendo una partnership che porterà icone come Paperino, Topolino, Cenerentola, Biancaneve e Luke Skywalker all’interno di Sora, il potente generatore di video dell’azienda guidata da Sam Altman. L’intesa, resa nota giovedì 11 dicembre, rende così Disney il primo grande partner a licenziare ufficialmente i propri contenuti per Sora. L’accordo ha una durata triennale e apre scenari inediti per i fan: sarà possibile creare e condividere brevi video basati su oltre 200 personaggi tratti dagli universi Disney, Pixar, Marvel e Star Wars, utilizzando semplici prompt di testo. “Questo accordo dimostra come le aziende di IA e i leader creativi possano collaborare in modo responsabile per promuovere l’innovazione a beneficio della società”, ha commentato Sam Altman, CEO di OpenAI. Bob Iger, CEO di Disney, ha aggiunto che l’intesa “amplierà la portata della nostra narrazione attraverso l’IA generativa, rispettando e proteggendo al contempo i creatori e le loro opere“. La collaborazione tra Disney e OpenAI va oltre il campo dell’intrattenimento degli utenti, assumendo una valenza strategica significativa. Il colosso dell’intrattenimento diventerà infatti un “cliente chiave” dell’azienda di intelligenza artificiale, implementando le sue tecnologie nello sviluppo di nuovi prodotti e rendendo ChatGPT disponibile ai propri dipendenti. L’accordo giunge in una fase critica: se da una parte l’impressionante capacità di Sora di produrre filmati di straordinario realismo suscita meraviglia, dall’altra si intensificano le preoccupazioni riguardo alla proliferazione di “AI slop” (contenuti di bassa qualità generati in massa), alla diffusione di deepfake e alle potenziali violazioni del diritto d’autore. L'articolo Walt Disney Company investe un miliardo di dollari in OpenAI: Paperino, Topolino, Cenerentola, Biancaneve e Luke Skywalker sbarcheranno su Sora proviene da Il Fatto Quotidiano.
Intelligenza Artificiale
Trending News
Disney
Per il Time gli architetti dell’Intelligenza artificiale sono la persona dell’anno 2025: “Hanno inaugurato l’era delle macchine pensanti”
Gli architetti dell’intelligenza artificiale sono la persona dell’anno 2025 di Time. “Il 2025 è stato l’anno in cui il pieno potenziale dell’intelligenza artificiale è emerso in tutta la sua portata e in cui è diventato chiaro che non si tornerà indietro”, si legge sul profilo X della testata. “Per aver inaugurato l’era delle macchine pensanti, per aver stupito e preoccupato l’umanità, per aver trasformato il presente e trasceso il possibile, gli Architetti dell’IA sono la Persona dell’Anno 2025“, viene spiegato nella motivazione. La copertina richiama la foto iconica Lunch atop a Skyscraper del 1932 in cui sono ritratti degli operai impegnati nella costruzione di un grattacielo che pranzano seduti su una trave di acciaio. Al loro posto figurano Mark Zuckerberg, Ceo di Meta; Lisa Su, Ceo di AMD; Elon Musk, XAl; Jensen Huang, presidente e Ceo di Nvidia; Sam Altman, Ceo di OpenAl; Demis Hassabis, Ceo di DeepMind Technologies; Dario Amodei, Ceo di Anthropic; Fei-Fei Li, co-direttore dello Human-Centered Al Institute di Stanford e Ceo di World Labs. L’intelligenza artificiale era una delle principali candidate al titolo, insieme ai Ceo Jensen Huang di Nvidia e Sam Altman di OpenAI. Era considerato un possibile candidato anche Papa Leone XIV, il primo pontefice americano, la cui elezione quest’anno è seguita alla morte di Papa Francesco, oltre al presidente Donald Trump, al primo ministro israeliano Benjamin Netanyahu e al sindaco eletto di New York Zohran Mamdani, tutti presenti nelle liste dei favoriti. Nel 2024 Trump era stato nominato persona dell’anno dalla rivista, succedendo a Taylor Swift, vincitrice nel 2023. La prima persona dell’anno fu nominata dalla rivista nel 1927 quando i suoi redattori iniziarono a scegliere la persona che, a loro giudizio, aveva maggiormente segnato le notizie dei precedenti dodici mesi. L'articolo Per il Time gli architetti dell’Intelligenza artificiale sono la persona dell’anno 2025: “Hanno inaugurato l’era delle macchine pensanti” proviene da Il Fatto Quotidiano.
Intelligenza Artificiale
Scienza
Time
Lo spot natalizio di McDonald’s viene distrutto dalle critiche dei clienti e l’azienda lo ritira
McDonald’s al centro delle polemiche in Olanda. La famosissima catena di fast food ha dovuto ritirare il proprio spot natalizio per la pioggia di critiche ricevute. Il motivo? Una pubblicità di 45 secondi girata con l’intelligenza artificiale e giudicata dagli utenti poco reale. Il video si basa su una provocazione: “Il Natale è il periodo peggiore dell’anno“. Tra le tante scene si vedono persone a cui volano via i regali e Babbo Natale sulla sua slitta arrabbiato a causa del traffico. L’idea? Ribaltare il Natale in tutto e per tutto. La provocazione non è stata presa bene e la scarsa veridicità delle immagini non ha convinto – comprensibilmente – gli spettatori. LA RISPOSTA DI THE SWEETSHOP Dopo la pioggia di critiche è arrivata la risposta della casa di produzione che ha realizzato le immagini dello spot: The Sweetshop. “Per sette settimane non abbiamo dormito quasi mai”, ha dichiarato l’azienda. La casa di produzione ha aggiunto che “fino a 10 dei nostri specialisti interni di intelligenza artificiale e post-produzione presso The Gardening Club lavoravano a stretto contatto con i registi”. L’idea di The Sweetshop era quella di cogliere momenti della quotidianità e unirli, in un video generato dall’IA. “Abbiamo generato quelle che sembravano riprese giornaliere poi le abbiamo elaborate in fase di montaggio. Non si è trattato di un trucco dell’intelligenza artificiale. Era un film”, ha concluso l’azienda, il cui lavoro è stato criticato sui social e cestinato da McDonald’s. > McDonald’s is getting cooked after it released an AI-generated commercial in > the Netherlands > > The US-based firm that created the ad has since released a statement, saying, > “AI didn’t create this film — we did.” pic.twitter.com/RIUI29Rpt5 > > — Morning Brew ☕️ (@MorningBrew) December 9, 2025 L'articolo Lo spot natalizio di McDonald’s viene distrutto dalle critiche dei clienti e l’azienda lo ritira proviene da Il Fatto Quotidiano.
Intelligenza Artificiale
Trending News
Natale
Fast Food
La pubblicità si affaccia anche nella AI. Il caso (smentito) di Gemini e quello di ChatGPT. Le leggi? Sono già obsolete
Nel 2026, la pubblicità potrebbe sbarcare su Gemini, il sistema d’intelligenza artificiale di Google (Alphabet). O almeno questo è ciò che nelle scorse ore è circolato online a partire da un’esclusiva (subito smentita) della testata giornalistica Adweek che citava fonti interne all’azienda. È una prima epifania: vero o falso che sia, si inizia a pensare a come saranno inglobate le pubblicità nei sistemi di ricerca con l’Ai e il rischio che gli utenti non riescano a distinguere tra oggettività, induzione all’acquisto e spot inizia a essere concreto. Le leggi sul tema, però, ad oggi sono molto carenti. IL CASO GOOGLE Ma partiamo dall’attualità. Nel caso di Google, il condizionale sulla notizia di Gemini è d’obbligo: a stretto giro, infatti, è arrivata la smentita ufficiale su X da parte di Ginny Marvin, Ads Product Liaison di Google: non solo non ci sono annunci visibili su Gemini, ha detto, ma mancano anche piani futuri sull’argomento. D’altro canto, però, ha confermato l’impegno di Google su AI Overviews, i riassunti generati dall’intelligenza artificiale che tutti vediamo tra i risultati di ricerca: negli Usa, infatti, tra i risultati già possono comparire annunci pubblicitari in linea con le richieste dell’utente ed è solo questione di tempo prima che la funzione si estenda in tutto il mondo. E QUELLO DI CHAT GPT Anche ChatGPT, in queste stesse ore, ha fatto discutere attorno allo stesso tema. Alcuni utenti paganti hanno visto comparire, durante una conversazione con l’Ai, il suggerimento per un’app (Peloton) che sembrava in tutto e per tutto simile ad una proposta pubblicitaria integrata nelle conversazioni. Il co-fondatore della startup di intelligenza artificiale Hyperbolic, Yuchen Jin, lo ha raccontato con un post di X, screenshot incluso. Contrariato, ha fatto notare, oltretutto, di essere un abbonato super-pagante (200 dollari al mese per il piano Pro): come considerarlo se non una sperimentazione di open Ai sulla pubblicità? Daniel McAuley, responsabile dei dati di OpenAI ha però chiarito che non era uno spot bensì “solo un suggerimento per installare l’app di Peloton”, in linea – spiegava – con alcune implementazioni legate alle app che la piattaforma sta prevedendo per il futuro. Ma ha dovuto però ammettere che “la mancanza di pertinenza” della conversazione ha reso l’esperienza negativa e confusa. LA PUBBLICITÀ PER SOSTENERSI Il fatto che si sia subito pensato all’advertising apre però una riflessione d’obbligo: con il tempo, i sistemi di ricerca basati sull’Ai, che restituiscono testi complessi e strutturati basati su fonti non sempre chiare (dall’origine spesso opaca e scorretta) avranno integrata la pubblicità per potersi sostenere. Sostituiranno i tradizionali motori di ricerca e, come già accade per gli adolescenti che li utilizzano come psicologo, avranno funzioni più invasive sia in termini di ciò che restituiranno all’utente, sia in termini di comprensione, profilazione e targetizzazione dell’utente. Grazie al machine learning, il linguaggio sarà sempre più naturale e confidenziale così come l’approfondimento delle informazioni “umane”. Tutti elementi preziosi per modellare il marketing sull’utente. Esempio banale: se farò una ricerca su un problema amoroso, potrei ricevere in futuro sia una risposta sul tema, sia il consiglio commerciale sui migliori terapeuti (inserzionisti) per me? Probabilmente sì. LEGGI CARENTI Intanto le norme – a partire dalla legge delega sull’IA recentemente approvata in Italia e che dovrà produrre i relativi decreti legislativi – non regolano specificamente l’introduzione della pubblicità in questi sistemi. “Né l’Ai Act europeo né la legge italiana in proibiscono chiaramente l’utilizzo della pubblicità nei sistemi d’intelligenza artificiale – spiega Fulvio Sarzana, avvocato e docente presso l’Università Lum di Bari -. Certo però le tematiche antitrust hanno un peso importante: parliamo comunque di decisioni automatizzate che possono anche incidere sui diritti fondamentali dei cittadini”. PRIVACY, ANTITRUST E AI ACT Ci sono infatti due tipi di problematiche: la prima riguarda la privacy e il regolamento europeo (GDPR) che impone la possibilità di contrastare il trattamento automatizzato dei propri dati; la seconda è di tipo concorrenziale, legata alla posizione dominante dei servizi pubblicitari che potrebbe coinvolgere anche il settore dei chatbot. Ciononostante, “l’advertising – spiega Sarzana – non è uno dei campi contenuti nell’allegato 3 dell’AI Act perché non si ritiene causi rischi sistemici per i diritti fondamentali dei cittadini”. TRASPARENZA ASSENTE Si aggiunge poi il problema della protezione del segreto industriale da parte delle aziende: capire quanto ciò che appare all’utente sia veicolato dall’advertising o dai rapporti tra inserzionisti e aziende sarà sempre più difficile. “È il problema del black box dell’intelligenza artificiale: – spiega Sarzana – non siamo in grado di capire come funziona l’algoritmo. Il GDPR permette di opporsi al trattamento automatizzato della nostra persona, di opporsi alla ricostruzione di noi e della nostra personalità fatta dai sistemi. Però sapere come funziona l’algoritmo e quindi capire quali siano gli accostamenti che portano a una risultanza, ad oggi, non è previsto da alcuna norma. E questo ha a che vedere sia con le pubblicità che con i diritti delle persone”. Non esistono insomma disposizioni che obbligano a mostrare il codice: “Rimarrà sempre un aspetto oscuro nelle tecnologie, a maggior ragione dell’intelligenza artificiale, che può generare anche allucinazioni o fornire quadri distorti delle persone, oltre creare un ecosistema opaco ”. Capace un giorno di spingerci, anche con linguaggio sempre più comprensivo, naturale e confidenziale, a comprare. L'articolo La pubblicità si affaccia anche nella AI. Il caso (smentito) di Gemini e quello di ChatGPT. Le leggi? Sono già obsolete proviene da Il Fatto Quotidiano.
Antitrust
Intelligenza Artificiale
Google
Tecnologia
Mano bionica “intelligente”: l’Ai aiuta a muovere le dita in modo naturale
Un passo avanti straordinario nel campo della robotica e delle protesi: i ricercatori dell’Università dello Utah hanno realizzato una mano bionica in grado di “pensare” quasi da sola. La protesi è dotata di una propria “mente” artificiale, che le permette di capire autonomamente come posizionare le dita e quanta forza esercitare per afferrare oggetti e compiere azioni quotidiane. Lo studio, pubblicato su Nature Communications, ha coinvolto nove persone con arti intatti e quattro soggetti con amputazioni tra polso e gomito. I risultati mostrano che la nuova protesi rende i movimenti più naturali e intuitivi, poiché il controllo è condiviso tra l’Intelligenza Artificiale e l’utente, riducendo lo sforzo mentale richiesto per coordinare ogni singola mossa. Chi non ha perso un arto non deve ragionare coscientemente su dove posizionare ogni dito per afferrare una tazza o stringere una mano correttamente. Chi utilizza una protesi, invece, si trova spesso ad affrontare proprio questa difficoltà. Per affrontarla, i ricercatori guidati da Jacob George e Marshall Trout hanno integrato nella punta delle dita sensori di pressione e vicinanza su una mano protesica già in commercio. Una rete neurale artificiale è stata poi addestrata a determinare come dovrebbero muoversi le dita per compiere ciascuna azione. L’algoritmo è in grado di prevedere la distanza dell’oggetto e di muovere le dita di conseguenza. Nonostante l’autonomia della mano, l’utente mantiene sempre il controllo: il sistema combina continuamente l’azione dell’AI con i comandi dell’utilizzatore, decodificati attraverso i segnali elettrici provenienti dalla pelle e dai muscoli. FOTO DI ARCHIVIO L'articolo Mano bionica “intelligente”: l’Ai aiuta a muovere le dita in modo naturale proviene da Il Fatto Quotidiano.
Intelligenza Artificiale
Scienza
Nature
Ricordare per procura
N el suo dialogo intitolato Fedro, attraverso il mito di Theuth e la figura di Socrate, Platone esprime la sua celebre critica della scrittura. Per il filosofo greco, la scrittura è un pharmakon, rimedio e veleno al tempo stesso. La scrittura appare immobile, incapace di adattarsi all’interlocutore come invece fa il dialogo vivo; priva di autonomia, perché non sa difendere da sé le proprie tesi; inadeguata ad accrescere la sapienza, poiché offre informazioni senza generare la memoria e la saggezza che nascono dall’interazione dialettica. È, infine, un “gioco bellissimo” ma assai distante dalla serietà del processo dialettico orale che conduce alla conoscenza. Ciononostante, pur non essendo “vera” filosofia, per Platone la scrittura è uno strumento a essa necessario, così com’è necessaria per la cosiddetta hypomnesis, ovvero la capacità richiamare alla mente un’informazione. Se per il filosofo greco la scrittura rappresentava un ausilio esterno alla memoria, oggi la psicologia cognitiva e le neuroscienze hanno ampliato quella intuizione con il concetto di cognitive offloading. Con questa espressione si indicano tutte le pratiche attraverso cui gli individui delegano a un supporto esterno parte dei propri processi cognitivi, come ad esempio la funzione di ricordare informazioni, trasformando strumenti e tecnologie in estensioni delle proprie capacità mnemoniche. Tra queste si annoverano gesti quotidiani come segnare una lista della spesa, annotare un compleanno su un calendario o ricorrere al proverbiale nodo al fazzoletto. > Per Platone la scrittura è pharmakon, rimedio e veleno al tempo stesso: pur > non essendo “vera” filosofia è uno strumento che le è necessario, così com’è > necessaria per la capacità di richiamare alla mente un’informazione. Negli ultimi dieci anni, allo studio dello “scarico” cognitivo hanno dato un forte impulso la comparsa e la diffusione della rete, e delle tecnologie digitali. I dispositivi connessi, infatti, moltiplicano all’infinito le possibilità di delega della funzione cognitiva del ricordo, ma le loro pervasività e facilità di utilizzo rischiano di sbilanciare l’equilibrio di benefici e costi di queste pratiche a favore dei secondi. I dispositivi connessi ‒ se ne erano già accorti i fondatori del cyberpunk, il cui lavoro è stato fondamentale per cristallizzare nella nostra cultura l’immaginario del digitale ‒ funzionano come una vera e propria protesi della nostra mente, che ne esternalizza una o più funzioni cognitive, tra cui, appunto, la memoria. In un paper intitolato The benefits and potential costs of cognitive offloading for retrospective information, Lauren L. Richmond e Ryan G. Taylor si dedicano a ricostruire una panoramica di alcuni degli studi e degli esperimenti più significativi nell’ambito del cognitive offloading. Alla base di questo corpus teorico e sperimentale c’è il fatto che, per compiere un ampio numero di azioni quotidiane, le persone si affidano a due tipi di memoria: quella retrospettiva, ovvero la capacità di ricordare informazioni dal passato, e quella propositiva, ossia la capacità di ricordare azioni da compiere nel futuro. Per portare a termine compiti che comportano l’uso di tutti e due i tipi di memoria, possiamo contare sulla nostra capacità di ricordare o delegare questa funzione a un supporto esterno. Questo spiega il motivo per cui la maggior parte delle persone intervistate nei contesti di ricerca esaminati da Richmond e Taylor dichiara di usare tecniche di cognitive offloading per compensare peggioramenti nelle proprie performance mnemotecniche. Io stesso, che mi sono vantato a lungo di avere una memoria di ferro, sono stato costretto, passati i quaranta e diventato genitore per due volte, a dover ricorrere a promemoria, note e appunti per riuscire a ricordare impegni e scadenze. > Con l’espressione cognitive offloading si indicano le pratiche attraverso cui > gli individui delegano a un supporto esterno la funzione di ricordare > informazioni, trasformando strumenti e tecnologie in estensioni delle proprie > capacità mnemoniche. Età e capacità mnemoniche sono infatti due fattori collegati alla necessità di eseguire azioni di scarico cognitivo. Superata l’adolescenza, a mano a mano che ci si inoltra nella vita adulta si è costretti a ricordare un numero di cose più elevato, compito per cui il cognitive offloading offre indubbi benefici. Uno dei più evidenti risiede nel fatto che, a differenza di altre mnemotecniche più specifiche, non ha bisogno di una formazione mirata. Per un adulto con una percezione del tempo funzionale, usare un’agenda fisica o virtuale è un gesto intuitivo e immediato, che non richiede ulteriore carico cognitivo. La facilità d’uso non è l’unico vantaggio. Alcuni degli studi passati in rassegna nello studio mostrano come l’offloading cognitivo generi benefici per entrambi i tipi di memoria. Ad esempio, esso permette non soltanto di ricordare informazioni archiviate in precedenza, ma riesce anche ad attivare il ricordo di informazioni non archiviate tramite meccanismi di associazione mentale: una persona che ha segnato sulla propria lista della spesa di acquistare un barattolo di alici ha più probabilità di ricordarsi di acquistare il burro rispetto a una persona che non lo ha fatto, anche se il burro non è presente nella lista. Per quanto banali, questi esempi mostrano quanto le pratiche di offloading cognitivo siano d’ausilio alla memoria. Tali benefici, tuttavia, non sono gratuiti ma comportano una serie di costi.  Alcuni studi hanno evidenziato più difficoltà a ricordare le informazioni “scaricate” quando, in modo improvviso e inaspettato, viene negato loro accesso alle informazioni archiviate. Se invece il soggetto è consapevole del fatto che l’accesso può esser negato, le performance mnemoniche si dimostrano più efficaci. Un altro costo è la possibilità di favorire la formazione di falsi ricordi. Altri test condotti in laboratorio mostrano come quando le persone sono forzate a pratiche di scarico cognitivo, risultano meno capaci di individuare elementi estranei, aggiunti all’archivio delle informazioni a loro insaputa. > Le pratiche di offloading cognitivo possono essere d’ausilio alla memoria. > Tali benefici, tuttavia, comportano una serie di costi, ad esempio una maggior > difficoltà a reperire informazioni quando viene improvvisamente a mancare > l’accesso all’archivio esterno. Perciò, così come la scrittura per Platone aveva natura “farmacologica”, e offriva al tempo stesso rimedio e veleno per la memoria, anche le pratiche di cognitive offloading comportano costi e benefici. Da questa prospettiva, la diffusione dell’intelligenza artificiale (IA) sta mettendo in luce come questo strumento, ubiquo e facilmente accessibile, stia favorendo nuove forme di scarico cognitivo, e incidendo sul modo in cui le persone si rapportano alle informazioni, nonché sullo sviluppo del loro pensiero critico. Disponibili ormai ovunque, alla stregua di un motore di ricerca, le IA aggiungono all’esperienza utente la capacità di processare e presentare le informazioni, senza doversi confrontare direttamente con le relative fonti. Quale impatto esercita questa dinamica sulla capacità di pensiero critico? È la domanda al centro di uno studio condotto dal ricercatore Michael Gerlich su 666 partecipanti di età e percorsi formativi differenti. Questo studio analizza la relazione tra uso di strumenti di intelligenza artificiale e capacità di pensiero critico, mettendo in luce il ruolo mediatore delle pratiche di offloading cognitivo. Per pensiero critico si intende la capacità di analizzare, valutare e sintetizzare le informazioni al fine di prendere decisioni ragionate, incluse le abilità di problem solving e di valutazione critica delle situazioni. Secondo Gerlich, le caratteristiche delle interfacce basate su IA ‒ dalla velocità di accesso ai dati alla presentazione semplificata delle risposte ‒ scoraggiano l’impegno nei processi cognitivi più complessi. > La diffusione dell’intelligenza artificiale sta mettendo in luce come questo > strumento stia favorendo nuove forme di “scarico” cognitivo, incidendo sul > modo in cui le persone si rapportano alle informazioni e sviluppano pensiero > critico. Studi condotti in ambiti come sanità e finanza mostrano infatti che se da un lato il supporto automatizzato migliora l’efficienza, dall’altro riduce la necessità, per questi professionisti, di esercitare analisi critica. Una dinamica analoga si osserva nella cosiddetta “memoria transattiva”, ossia la tendenza a ricordare il luogo in cui un’informazione è archiviata o il suo contenuto, fenomeno già noto come “effetto Google”. Le IA accentuano questo processo, sollevando ulteriori interrogativi sul possibile declino delle capacità di ritenzione perché, anche in questo caso, la loro capacità di sintetizzare le informazioni fa sì che l’utente non debba più impegnarsi in un confronto con le fonti, ma sviluppa invece la consapevolezza che potrà farle affiorare in qualsiasi momento, rivolgendole a un’interfaccia che mima una conversazione umana Effetti simili riguardano attenzione e concentrazione: da un lato gli strumenti digitali aiutano a filtrare il rumore informativo, dall’altro favoriscono la frammentazione e il calo della concentrazione. Emergono inoltre ambivalenze anche nel problem solving: l’IA può ampliare le possibilità di soluzione ma rischia di ridurre l’indipendenza cognitiva, amplificare bias nei dataset o opacizzare i processi decisionali, rendendoli difficilmente interpretabili dagli utenti. Una condizione, quest’ultima, oggetto di un ampio dibattito anche in ambito militare, dove lo sviluppo di sistemi automatizzati di comando e controllo pone dubbi di natura etica, politica e psicologica. I test effettuati confermano che l’uso intensivo di strumenti basati su IA favorisce pratiche di cognitive offloading che, pur alleggerendo il carico cognitivo e liberando risorse mentali, si associano a un declino della capacità di pensiero critico, in particolare nelle fasce più giovani. Questo declino viene misurato attraverso la metodologia HCTA (Halpern Critical Thinking Assessment), un test psicometrico che prende il nome dalla psicologa cognitiva Diane F. Halpert e misura le abilità di pensiero critico (come  valutazione della probabilità e dell’incertezza,  problem solving decisionale,  capacità di trarre conclusioni basate su prove), grazie a un set di domande aperte e a risposta multipla applicate a uno scenario di vita quotidiana. > L’uso intensivo di strumenti basati su IA favorisce pratiche di cognitive > offloading che, pur alleggerendo il carico cognitivo, si associano a un > declino della capacità di pensiero critico, in particolare nelle fasce più > giovani. Anche in questo caso, è piuttosto chiaro come l’applicazione della tecnologia ai processi cognitivi possa risultare deleteria, inducendo una sorta di pigrizia difficile da controbilanciare. Le pratiche di scarico cognitivo, infatti, producono i loro benefici quando attivano la mente delle persone che le utilizzano. È quello che succede, per esempio, nel metodo Zettelkasten, una delle tecniche di gestione della conoscenza più conosciute. Creato dal sociologo tedesco Niklas Luhmann negli anni Cinaquanta del Novecento, lo Zettelkasten è un metodo di annotazione pensato per facilitare la scrittura di testi non fiction e rafforzare la memoria delle proprie letture, che prevede di ridurre il tempo che passa tra la lettura di un testo e la sua elaborazione scritta, prendendo appunti e note durante la lettura dello stesso. Come spiega Sonke Ahrens in How to take smart notes, uno dei principali testi di divulgazione sul metodo Zettelkasten, la scrittura non è un gesto passivo. Eseguirlo attiva aree del nostro cervello che sono direttamente collegate al ricordo e alla memoria. Lo scarico cognitivo alla base del suo funzionamento produce perciò un beneficio proprio perché impegna chi lo esegue sia a confrontarsi direttamente con il testo che sta leggendo, sia a scrivere durante l’atto stesso della lettura. Adottare il metodo Zettelkasten significa perciò introdurre in quest’ultima attività una componente di frizione e di impegno, che sono la base della sua efficacia. > Automatizzando le pratiche di offloading cognitivo rischiamo di privarci del > tempo necessario affinché un’informazione si depositi nella nostra memoria > fino a diventare un pensiero originale. A differenza della maggior parte delle interfacce attraverso cui interagiamo con le tecnologie, in particolare con quelle digitali e di intelligenza artificiale, il metodo Zettelkasten è fatto per produrre attrito. È proprio tale attrito che stimola la nostra mente, la attiva e produce benefici sulle nostre capacità cognitive. Lo Zettelkasten è progettato per far pensare le persone e non il contrario, come recita il titolo di uno dei testi più famosi sull’usabilità web e l’interazione uomo-computer. Perché se ogni processo diventa liscio, privo di frizione, e la tecnologia che lo rende possibile si fa impalpabile fino a scomparire, quello che corriamo è proprio il rischio di non dover pensare. Quando chiediamo a un’intelligenza artificiale di sintetizzare un libro, invece di leggerlo e riassumerlo noi stessi, quello che stiamo facendo è schivare il corpo a corpo con il testo e la scrittura che un metodo come lo Zettelkasten prescrive come base per la sua efficacia. Automatizzare le pratiche di scarico cognitivo significa trasformare in costi i benefici che esse possono apportare alla nostra capacità di ricordare e pensare, proprio perché ad andare perduta è la durata, ovvero il tempo necessario affinché un’informazione si depositi nella nostra memoria fino a diventare un pensiero originale. Prendere atto di questa contraddizione significa spostare l’attenzione dalla dimensione neurologica a quella culturale e sociale. Perché è vero che invocare interfacce più “visibili” e capaci di generare attrito nell’esperienza utente, o elaborare strategie educative mirate, come suggerisce l’autore, sono atti utili e necessari a riconoscere e gestire l’impatto delle IA sulle nostre menti, ma senza porsi il problema dell’accesso al capitale culturale necessario per un uso consapevole e critico delle tecnologie, tali soluzioni rischiano di restare lettera morta. O, peggio, rischiano di acuire le differenze tra chi ha il capitale culturale ed economico per permettersi di limitare il proprio l’accesso alla tecnologia e chi, al contrario, finisce per subire in modo passivo le scelte delle grandi aziende tecnologiche, che proprio sulla pigrizia sembrano star costruendo l’immaginario dei loro strumenti di intelligenza artificiale. > Nel marketing di alcune aziende gli strumenti di IA non sembrano tanto protesi > capaci di potenziare creatività e pensiero critico, quanto scorciatoie per > aggirare i compiti più noiosi o ripetitivi che la vita professionale comporta. Per come vengono presentati nella comunicazione corporate, gli strumenti di intelligenza artificiale assomigliano meno a delle protesi capaci di potenziare la creatività o il pensiero critico e più a scorciatoie per aggirare i compiti più noiosi, ripetitivi o insulsi che la vita professionale comporta. Il video di presentazione degli strumenti di scrittura “smart” della sedicesima iterazione dell’iPhone è emblematico del tenore di questo discorso. Warren, l’impiegato protagonista dello spot, li usa proprio per dare un tono professionale al testo dell’email con cui scarica sul suo superiore un compito che dovrebbe eseguire lui. Quella che, all’apparenza, potrebbe sembrare una celebrazione dell’astuzia working class è in realtà una visione in cui l’automazione non ha liberato l’uomo dalle catene del lavoro, ma gli ha solo fornito degli strumenti per non essere costretto a pensare prima di agire. Ancora una volta, l’uso delle tecnologie si rivela non soltanto una questione politica, ma anche ‒ e soprattutto ‒ una questione sociale e di classe. Una questione che andrebbe rimessa al centro del dibattito sull’intelligenza artificiale, superando la dicotomia, tutto sommato sterile, tra apocalittici e integrati che ancora sembra dominarlo. L'articolo Ricordare per procura proviene da Il Tascabile.
Scienze
scrittura
neuroscienze
Intelligenza Artificiale
cognitive offloading
Giocattoli per bambini con Ai generativa: così gli smart toys raccolgono dati e sfidano la privacy
di Cibelle Dardi Dicembre, stagione di tredicesime e scontrini lunghi, vede la macchina dei consumi natalizi accelerare a pieno regime. Tra le corsie dei supermercati e le vetrine online, quest’anno emerge un ospite speciale, non si vede ma si percepisce ovunque: l’intelligenza artificiale generativa. In pochi anni, i giocattoli con IA generativa (smart toys) hanno soppiantato il bambolotto con chip: orsetti che creano storie, robot che memorizzano abitudini e console perennemente connesse. La questione non è soltanto tecnologica, è soprattutto economica: il giocattolo non è più il prodotto finale, ma diventa il terminale di una filiera di raccolta dati. I report Trouble in Toyland 2025 e Privacy Not Included di Mozilla evidenziano come, in molti smart toys, sicurezza e tutela dei minori cedano il passo ai margini di profitto e alle esigenze di lancio sul mercato in tempi rapidi. Gli smart toys sono giocattoli interattivi connessi via Wi‑Fi o Bluetooth, equipaggiati con microfoni, fotocamere, geolocalizzazione e sensori: il bambino non interagisce con un semplice peluche, ma con server remoti che accumulano dati su comportamenti e voce, sollevando dubbi sulla privacy. Uno studio dell’Università di Basilea ha valutato 12 smart toys presenti sul mercato europeo, riscontrando criticità rilevanti di conformità al Gdpr, dall’assenza di crittografia adeguata nel traffico dati di alcuni dispositivi alle app che chiedono permessi (microfono, geolocalizzazione) non sempre necessari al semplice funzionamento del gioco. Tra i nuovi arrivi sugli scaffali c’è anche Poe l’Orso Peluche Racconta Storie, distribuito da Giochi Preziosi. Si tratta di un peluche che utilizza l’IA generativa per creare favole personalizzate, appoggiandosi all’app Plai Ai Story Creator e a un’infrastruttura cloud per l’elaborazione del linguaggio. Secondo quanto dichiarato dal produttore nelle Faq di supporto, i dati non vengono venduti e le informazioni inserite nell’app servono unicamente a personalizzare la storia; resta il fatto che questo scambio continuo di input abitua il bambino all’idea che l’accesso all’intrattenimento passi attraverso la condivisione di dati. Anche le icone del passato cambiano pelle: il Tamagotchi Uni di Bandai, erede dell’ovetto anni ’90, oggi si connette al Wi‑Fi per entrare nel Tamaverse, metaverso proprietario dove si incrociano personaggi, oggetti virtuali ed eventi globali. Quel che era un circuito chiuso sul piccolo display diventa così un nodo di rete, aggiornato da remoto e immerso in uno scambio continuo di dati, che richiede ai genitori molta più attenzione e competenza digitale. Il quadro è ancora più preoccupante nel segmento low cost, popolato da robot interattivi che replicano funzioni e design dei modelli di punta – come i cani robot tipo Dog‑E – e vengono venduti in massa su piattaforme e-commerce. In questo segmento, il rischio privacy si intreccia con l’opacità di produttori extra Ue e informative spesso difficili da ricostruire. Le app proprietarie che gestiscono gli smart toys, come ricordano anche le schede informative del Garante, tendono spesso a richiedere permessi estesi – per esempio accesso a microfono, memoria del dispositivo o geolocalizzazione – non sempre proporzionati alle effettive esigenze di funzionamento del gioco. In pratica, si regala un giocattolo e si porta in casa un “cavallo di Troia” digitale, con il rischio che i dati finiscano su server fuori dallo Spazio economico europeo, dove valgono regole diverse dal Gdpr. La direzione è chiara: la mercificazione dell’utente parte dalla culla. Se un robot con IA generativa costa poche decine di euro, il vero margine è nel profilo digitale del futuro consumatore, costruito sulle sue interazioni. La cameretta smette di essere rifugio privato e diventa una miniera di dati, dove l’intimità del gioco si scambia, byte dopo byte, con l’efficienza degli algoritmi di profilazione. IL BLOG SOSTENITORE OSPITA I POST SCRITTI DAI LETTORI CHE HANNO DECISO DI CONTRIBUIRE ALLA CRESCITA DE ILFATTOQUOTIDIANO.IT, SOTTOSCRIVENDO L’OFFERTA SOSTENITORE E DIVENTANDO COSÌ PARTE ATTIVA DELLA NOSTRA COMMUNITY. TRA I POST INVIATI, PETER GOMEZ E LA REDAZIONE SELEZIONERANNO E PUBBLICHERANNO QUELLI PIÙ INTERESSANTI. QUESTO BLOG NASCE DA UN’IDEA DEI LETTORI, CONTINUATE A RENDERLO IL VOSTRO SPAZIO. DIVENTARE SOSTENITORE SIGNIFICA ANCHE METTERCI LA FACCIA, LA FIRMA O L’IMPEGNO: ADERISCI ALLE NOSTRE CAMPAGNE, PENSATE PERCHÉ TU ABBIA UN RUOLO ATTIVO! SE VUOI PARTECIPARE, AL PREZZO DI “UN CAPPUCCINO ALLA SETTIMANA” POTRAI ANCHE SEGUIRE IN DIRETTA STREAMING LA RIUNIONE DI REDAZIONE DEL GIOVEDÌ – MANDANDOCI IN TEMPO REALE SUGGERIMENTI, NOTIZIE E IDEE – E ACCEDERE AL FORUM RISERVATO DOVE DISCUTERE E INTERAGIRE CON LA REDAZIONE. SCOPRI TUTTI I VANTAGGI! L'articolo Giocattoli per bambini con Ai generativa: così gli smart toys raccolgono dati e sfidano la privacy proviene da Il Fatto Quotidiano.
Intelligenza Artificiale
Blog
Tecnologia
GDPR
“Inquietante”, “Surreale”, “Ma cosa ca** stiamo vedendo?”: la nuova pubblicità di Valentino creata con l’Intelligenza Artificiale fa discutere. La Bbc accende il caso, il web insorge
È stata la Bbc, per prima, a dedicarle un servizio: la nuova campagna di Valentino per la borsa Garavani DeVain, realizzata con l’intelligenza artificiale, sta scatenando un’ondata di reazioni indignate. Nel giro di poche ore la notizia ha fatto il giro del web, finendo sulle pagine del Daily Mail e di molti altri giornali britannici, che hanno raccolto decine di commenti — spesso spietati — degli utenti sui social. Il motivo? Un video surreale e dichiaratamente generato con AI, pubblicato sul profilo Instagram della maison e subito diventato virale, non tanto per l’impatto artistico quanto per le accuse di essere uno spot “inquietante” e “disturbante“. IL VIDEO NEL MIRINO DELLE CRITICHE Il video criticato è il secondo capitolo del progetto “Digital Creative Project” di Valentino, che ha coinvolto nove artisti, cinque dei quali hanno utilizzato strumenti di AI generativa. Lo spot è firmato in particolare dall’artista digitale Total Emotional Awareness, che secondo la maison ha trasformato la borsa in “un viaggio attraverso geometrie caleidoscopiche e pura immaginazione”. Il contenuto è un collage “surreale” e visionario: modelle che emergono da un’opulenta borsa d’oro, braccia che si fondono per formare il logo Valentino e corpi che si trasformano in una massa vorticosa. Il brand, correttamente, aveva etichettato il post come contenuto generato dall’AI ma il punto non è neanche tanto l’utilizzo dell’intelligenza artificiale, quanto il risultato che ne è scaturito. I commenti si sono moltiplicati, definendo il visual come “surreale”, “inquietante”, “scadente” e chiedendo: “È deludente da una casa di moda couture”. Molti si sono chiesti se l’azienda fosse stata “hackerata” mentre altri tuonavano: “Ma cosa ca** stiamo vedendo?”. IL COMMENTO DEGLI ESPERTI Il fallimento del progetto Valentino risiede nel valore percepito della tecnologia. Per gli esperti, l’uso dell’AI da parte di un marchio che vende borse da oltre 2.000 dollari invia un messaggio devastante: “I clienti tengono i brand di lusso a uno standard più elevato”, ha spiegato Dr. Rebecca Swift di Getty Images. L’esperta ha sottolineato che la piena trasparenza non è sufficiente a mascherare il timore che il marchio stia privilegiando il costo rispetto all’arte. Anne-Liese Prem, di Loop Agency, ha identificato il vero problema: “Quando l’AI entra nell’identità visiva di un brand, le persone temono che il marchio stia scegliendo l’efficienza a scapito dell’arte. Il pubblico legge l’operazione come cost-saving mascherato da innovazione”. Il caso Valentino, che segue di pochi mesi quello di Guess (criticata per aver usato modelle AI in Vogue), dimostra che il rischio è elevatissimo: “Senza una forte idea emotiva dietro, l’AI generativa può rendere il lusso meno umano in un momento in cui le persone vogliono la presenza umana più che mai”, ha sintetizzato la Prem. L’errore della maison italiana è stato quello di sottovalutare il bisogno di autenticità e manualità da parte di un pubblico che, spendendo cifre esorbitanti, esige che l’oggetto sia frutto del genio umano, e non di un algoritmo. L'articolo “Inquietante”, “Surreale”, “Ma cosa ca** stiamo vedendo?”: la nuova pubblicità di Valentino creata con l’Intelligenza Artificiale fa discutere. La Bbc accende il caso, il web insorge proviene da Il Fatto Quotidiano.
Intelligenza Artificiale
Moda e Stile
Moda
Valentino