P roviamo a immaginare questa scena: siamo nello studio di un ambulatorio
ospedaliero di medicina interna. Il monitor è acceso da qualche minuto. La
cartella clinica digitale è completa: anamnesi, esami ematochimici, imaging, una
serie di indicatori sintetizzati in grafici che scorrono ordinati sulla destra
dello schermo. In basso, evidenziata in un riquadro discreto ma visivamente
centrale, compare una raccomandazione: probabilità di beneficio elevata, rischio
accettabile, consigliato l’avvio di una terapia anticoagulante in un paziente
con fibrillazione atriale e profilo di rischio tromboembolico significativo. Il
medico legge, rilegge, poi alza lo sguardo verso il paziente seduto di fronte a
lui. La decisione, almeno formalmente, spetta ancora a lui.
Non c’è nulla di coercitivo in quel suggerimento. Nessun allarme rosso, nessun
obbligo esplicito. Eppure, il peso che esercita è tangibile. Non perché imponga
una scelta, ma perché la rende asimmetrica: accoglierla significa seguire una
traiettoria già validata, statisticamente fondata, condivisa da
un’infrastruttura che promette affidabilità; discostarsene richiede invece una
giustificazione ulteriore, una deviazione consapevole che dovrà essere spiegata,
forse difesa. In questo scarto silenzioso prende forma una nuova condizione
della decisione clinica contemporanea: un atto che resta umano nella sua firma
finale, ma che viene preparato, orientato e in parte anticipato da sistemi
tecnologici sempre più pervasivi, come accade nei sistemi di supporto alle
decisioni cliniche (CDSS, Clinical Decision Support Systems), software che
analizzano dati sanitari e suggeriscono possibili decisioni terapeutiche,
affiancando il giudizio clinico senza sostituirlo.
> Studi clinici hanno mostrato che modelli di deep learning possono raggiungere
> prestazioni comparabili o superiori a quelle degli specialisti
> nell’identificazione di patologie come tumori cutanei o lesioni radiologiche
> complesse.
Scene come questa non sono eccezionali. Si ripetono quotidianamente in reparti
ospedalieri, ambulatori, pronto soccorso. A volte il suggerimento arriva sotto
forma di punteggio di rischio inteso come una stima numerica della probabilità
che si verifichi un determinato evento clinico, altre come raccomandazione
terapeutica, altre ancora come priorità di accesso a una procedura. Cambia
l’interfaccia, non la logica sottostante: un insieme di modelli predittivi,
regole apprese dai dati, correlazioni statistiche trasformate in indicazioni
operative.
Studi clinici hanno mostrato che modelli di deep learning, cioè sistemi
informatici che apprendono a riconoscere schemi complessi analizzando grandi
quantità di dati, in modo simile a come l’esperienza permette agli esseri umani
di affinare il riconoscimento visivo, possono raggiungere prestazioni
comparabili o superiori a quelle degli specialisti nell’identificazione di
alcune patologie, come tumori cutanei o lesioni radiologiche complesse,
contribuendo a migliorare l’accuratezza diagnostica e la stratificazione del
rischio nei pazienti. In questi contesti, l’intelligenza artificiale (IA) non
sostituisce il medico, ma amplia la sua capacità di osservazione, rendendo
disponibili informazioni che difficilmente emergerebbero dall’esperienza
individuale. La decisione resta nelle mani del clinico, ma viene indirizzata
verso opzioni considerate ragionevoli, efficienti e più facilmente
giustificabili, che orientano il percorso di cura.
La scena raccontata a inizio articolo ha radici lontane. Già nel Novecento i
primi sistemi di supporto alle decisioni cliniche aiutavano il medico a ridurre
la variabilità e l’errore, affiancando il giudizio umano con strumenti
oggettivi. Tra questi primi sistemi c’era ad esempio MYCIN, sviluppato negli
anni Settanta all’Università di Stanford, che aiutava a diagnosticare infezioni
batteriche e suggeriva dosaggi di antibiotici basandosi su un insieme di regole
codificate dagli esperti. Sempre in quegli anni, altri sistemi, come
Internist-1, fornivano supporto nella diagnosi di malattie complesse, chiedendo
al medico di inserire sintomi e segni clinici per ottenere un elenco di
possibili diagnosi ordinate per probabilità. All’epoca si trattava di strumenti
relativamente semplici, costruiti su poche variabili e su schemi decisionali
predefiniti; oggi parliamo, invece, di modelli complessi, addestrati su milioni
di dati, in grado di cogliere pattern invisibili all’esperienza individuale. Ma
il nodo concettuale resta sorprendentemente simile: come cambia una decisione
quando non nasce più soltanto dal sapere di una persona, ma da un’infrastruttura
che combina l’intelligenza di esseri umani e macchine, come già avveniva nei
primi sistemi esperti medici sviluppati negli anni Settanta.
> L’intelligenza artificiale non decide al posto del medico, piuttosto
> costruisce l’orizzonte entro cui la decisione prende forma. Il risultato è una
> forma di delega parziale, che non elimina la responsabilità individuale ma la
> riorganizza.
Un episodio spesso citato nella storia della medicina computazionale riguarda
l’introduzione dei primi sistemi di triage algoritmico nei pronto soccorso
statunitensi. Nati per gestire l’aumento dei flussi e ridurre i tempi di attesa,
questi strumenti promettevano di assegnare le priorità in modo più equo e
razionale. Il personale restava libero di intervenire, di modificare l’ordine
suggerito. Tuttavia, col tempo, la deviazione dalla raccomandazione algoritmica
iniziò a essere percepita come un’eccezione da giustificare, non come una delle
alternative legittime. Il criterio implicito non era più soltanto “che cosa è
meglio per questo paziente”, ma anche “che cosa è difendibile rispetto a ciò che
il sistema indica”, una dinamica che diventa particolarmente visibile quando gli
algoritmi incidono sulla distribuzione delle risorse sanitarie.
Un caso emblematico riguarda un algoritmo ampiamente utilizzato negli Stati
Uniti per identificare i pazienti che necessitavano di programmi di assistenza
sanitaria intensiva. Studi successivi hanno mostrato che il sistema sottostimava
sistematicamente i bisogni dei pazienti neri rispetto a quelli bianchi con
condizioni cliniche simili, perché utilizzava i costi sanitari sostenuti in
passato come proxy dello stato di salute. Poiché storicamente i pazienti neri
avevano avuto minore accesso alle cure, il modello interpretava questa minore
spesa come indicatore di minore gravità clinica, riproducendo e amplificando una
disuguaglianza preesistente. L’errore non nasceva da una decisione
discriminatoria esplicita, ma dalla logica statistica incorporata nel sistema.
Qui emerge il nodo centrale della questione. La decisione resta, sulla carta, un
atto umano: qualcuno clicca, firma, approva. Ma il contesto in cui quella
decisione viene presa è radicalmente trasformato. L’IA non decide al posto del
clinico; piuttosto, costruisce l’orizzonte entro cui la decisione prende forma,
stabilendo ciò che appare normale, probabile, raccomandabile. Il risultato è una
forma di delega parziale, spesso impercettibile, che non elimina la
responsabilità individuale ma la riorganizza.
Riflettere su questo passaggio non significa denunciare una perdita di umanità
né invocare un ritorno a un passato idealizzato. Significa piuttosto rendere
visibile un passaggio spesso dato per scontato: quello in cui la decisione, pur
restando formalmente umana, viene progressivamente trasformata in un atto di
ratifica di suggerimenti prodotti altrove. È da questo punto che occorre partire
per interrogarsi sul ruolo dell’intelligenza artificiale in sanità, non come
semplice strumento tecnico, ma come dispositivo culturale che ridefinisce il
modo in cui decidiamo, giudichiamo e assumiamo responsabilità.
Decidere, giudicare, approvare: una breve genealogia culturale
Decidere non è mai stato un gesto semplice. Nella tradizione occidentale, la
decisione è stata a lungo pensata come un atto puntuale, un momento in cui il
giudizio si cristallizza, assumendo la forma di una scelta che impegna chi la
compie. Ma questo atto è sempre stato sostenuto da un processo più ampio, fatto
di valutazioni, confronti, mediazioni e, soprattutto, da un’assunzione di
responsabilità che non si esaurisce nell’istante della scelta.
Nel contesto clinico, questa stratificazione è particolarmente evidente. Il
medico non decide soltanto, ma giudica sulla base della propria esperienza,
interpreta segni e sintomi, assume su di sé il rischio dell’errore. La decisione
non coincide con la procedura, ma con la capacità di rispondere delle
conseguenze di ciò che si è scelto di fare o di non fare.
A partire dal Novecento, questo equilibrio comincia lentamente a spostarsi. Con
l’espansione delle organizzazioni complesse e della burocrazia moderna, il
giudizio individuale viene progressivamente affiancato da procedure
standardizzate. Max Weber descriveva questo passaggio come una razionalizzazione
necessaria: regole formali, criteri impersonali, processi replicabili servono a
garantire equità, prevedibilità, controllo. La decisione, in questo schema, non
scompare, ma viene incastonata in una sequenza di passaggi che ne delimitano il
perimetro.
> Il medico non decide soltanto, ma giudica sulla base della propria esperienza
> e si assume il rischio dell’errore. La decisione non coincide con la
> procedura, ma con la capacità di rispondere delle conseguenze di ciò che si è
> scelto di fare. O di non fare.
In altre parole, il giudizio si trasforma progressivamente in procedura: l’atto
decisionale diventa il punto finale di un percorso già in gran parte tracciato.
Questo spostamento non modifica solo il modo di decidere, ma ridefinisce il
significato stesso della responsabilità: se la decisione è l’esito “corretto” di
una procedura correttamente seguita, la responsabilità tende a spostarsi
dall’atto al processo. Non si tratta più di dire “ho deciso questo”, ma di poter
affermare “ho seguito ciò che era indicato”. È su questa trasformazione, spesso
silenziosa, che opera oggi l’intelligenza artificiale.
Che cosa fa oggi l’IA generativa in sanità
Quando si parla di intelligenza artificiale in sanità, l’immaginario oscilla tra
due estremi: da un lato la promessa di macchine che decidono al posto dei
medici, dall’altro l’idea rassicurante di strumenti neutrali che si limitano a
“supportare” il lavoro umano. La realtà è più sfumata e più interessante. Oggi
l’IA generativa e predittiva opera principalmente come infrastruttura
decisionale. Non prende decisioni cliniche autonome, ma organizza informazioni,
suggerisce interpretazioni, propone priorità. Nei sistemi di supporto
diagnostico, analizza immagini, testi clinici, dati di laboratorio per
individuare pattern compatibili con determinate condizioni. Nei modelli
predittivi, stima rischi futuri: progressione di malattia, probabilità di eventi
avversi, risposta a un trattamento.
Nel triage e nella stratificazione del rischio, questi sistemi contribuiscono a
ordinare i pazienti secondo criteri di urgenza o complessità, allocando risorse
scarse ‒ tempo, posti letto, interventi ‒ in modo ritenuto più efficiente. Nelle
raccomandazioni cliniche, integrano linee guida e dati individuali per suggerire
opzioni terapeutiche personalizzate.
È importante notare che, nella maggior parte dei casi, non si tratta di
automazione della scelta, ma di automazione del contesto decisionale. L’IA non
dice “fai questo”, ma costruisce un ambiente in cui alcune opzioni emergono come
naturali, altre come marginali. Rende alcune decisioni più rapide, più
giustificabili, più difendibili. E, così facendo, ridefinisce ciò che appare
ragionevole.
> Quando qualcosa va storto, l’errore non è più attribuibile a un singolo
> individuo, ma al sistema nel suo complesso: non c’è colpa, ma
> malfunzionamento; non responsabilità, ma errore tecnico.
Questa infrastruttura è spesso invisibile. Il clinico vede il risultato, un
punteggio, una raccomandazione, ma non il lavoro di selezione, pesatura e
normalizzazione che lo ha prodotto. L’intelligenza artificiale non si presenta
come un nuovo decisore, ma come uno sfondo operativo che accompagna ogni gesto.
Il clic che decide
Non è solo la sanità a sperimentare la frammentazione delle decisioni. Accade
ogni volta che ci affidiamo a sistemi che guidano le nostre scelte: per esempio,
lasciamo che algoritmi filtrino i candidati per una posizione lavorativa prima
ancora che qualcuno li valuti personalmente; utilizziamo valutazioni di rischio
prodotte da sistemi finanziari o assicurativi per orientare decisioni economiche
e contrattuali; accettiamo i suggerimenti delle piattaforme digitali, cosa
guardare, cosa comprare, cosa leggere, senza conoscere i criteri con cui quelle
raccomandazioni sono state prodotte. In tutti questi casi, la decisione viene
scomposta in microdeleghe: nessuno decide tutto, ma ciascuno approva un
passaggio. Quando qualcosa va storto, l’errore non è più attribuibile a un
singolo individuo, ma al sistema nel suo complesso: non c’è colpa, ma
malfunzionamento; non responsabilità, ma errore tecnico. Gli studi sul bias di
automazione spiegano come gli operatori tendano a fidarsi dei suggerimenti delle
macchine anche quando sono errati, perché seguire la raccomandazione riduce il
carico cognitivo.
In sanità, questo crea un paradosso: il medico resta formalmente responsabile,
ma il margine effettivo di intervento si riduce, e la responsabilità si sposta
dal gesto decisionale al clic finale: non “che cosa hai deciso”, ma “perché non
hai seguito ciò che era indicato”. La letteratura sulle responsabilità mediche
nell’era dell’IA sottolinea come la supervisione umana rimanga obbligatoria e
non possa essere semplicemente delegata alla tecnologia. Sistemi di supporto
decisionale come quelli utilizzati nella prescrizione elettronica di farmaci
possono ridurre alcuni errori, ma introducono nuove vulnerabilità quando il
medico si affida senza verificarne le indicazioni. Studi sull’uso di sistemi di
allerta clinica hanno mostrato che i professionisti tendono talvolta ad
accettare le raccomandazioni algoritmiche senza verificarle criticamente,
soprattutto in condizioni di carico cognitivo elevato, mentre in altri casi
sviluppano una forma di assuefazione agli avvisi ripetitivi, ignorando segnali
potenzialmente rilevanti. Questo fenomeno, noto come automation bias, cioè la
tendenza a fidarsi eccessivamente delle indicazioni dei sistemi automatizzati,
non elimina il ruolo umano, ma lo trasforma: il rischio non è più soltanto
l’errore individuale, ma l’interazione imperfetta tra operatore e sistema.
> In alcuni casi gli operatori tendono a fidarsi dei suggerimenti delle macchine
> anche quando sono errati, sia perché seguire la raccomandazione riduce il
> carico cognitivo, sia perché una scelta alternativa potrebbe comportare
> responsabilità legali.
È qui che emerge lo slittamento cruciale: quando un suggerimento è ragionevole,
tempestivo e probabilistico, diventa difficile ignorarlo. Non perché sia
obbligatorio seguirlo, ma perché offre la via di minor resistenza. La decisione
non viene sottratta, ma alleggerita e trasformata. Il clinico resta libero di
fare diversamente, ma questa libertà è asimmetrica: seguire la raccomandazione
richiede poco (un clic, una firma, un’approvazione) mentre deviare comporta
lavoro cognitivo e morale extra, spiegazioni, documentazioni, assunzione di
rischi clinici, organizzativi e legali. Questioni etiche come trasparenza,
responsabilità e bias nei sistemi di IA sono tra i nodi critici nel dibattito
sull’integrazione dell’IA nei processi clinici.
Nei casi di terapia intensiva, ad esempio, scegliere un trattamento diverso da
quello suggerito dai modelli predittivi può comportare responsabilità legali e
giustificazioni agli audit clinici, anche quando la deviazione è clinicamente
motivata. La decisione tende così a diventare ratifica: non per rinuncia
consapevole, ma come esito naturale di un processo che ha già selezionato
l’opzione “migliore”. La velocità del suggerimento e l’aura di oggettività che
lo accompagna ‒ numeri, percentuali, modelli ‒ funzionano come criteri morali
impliciti: ciò che è rapido e calcolato appare anche giusto. La responsabilità
resta sempre del medico, ma cambia forma: non riguarda tanto la scelta in sé,
quanto il seguire, o non seguire, i suggerimenti del sistema. La libertà di
decidere esiste ancora, ma è più difficile da esercitare e spesso poco visibile.
Agentività residuale e libertà formale
L’effetto di questi meccanismi non è tanto l’eliminazione della libertà
decisionale, quanto la sua progressiva rarefazione. La possibilità di scegliere
diversamente rimane formalmente intatta, ma perde centralità nella pratica
quotidiana. La decisione autonoma non scompare, ma viene spostata ai margini,
trasformata in evento eccezionale, da attivare solo quando qualcosa interrompe
il flusso ordinario del lavoro clinico.
L’agentività che resta, cioè il margine reale di decisione e di azione autonoma
del clinico, la sua capacità effettiva di agire intenzionalmente e assumersi la
responsabilità delle proprie scelte, è residuale. Non perché sia stata abolita,
ma perché è stata resa onerosa. La libertà decisionale sopravvive come
eccezione, non come norma. In molti settori tecnologici, dall’aviazione alla
finanza algoritmica, si osserva un fenomeno simile: gli operatori formalmente
possono intervenire, ma ogni deviazione dai protocolli automatizzati richiede
una documentazione aggiuntiva e aumenta il rischio di responsabilità. Anche la
storia della medicina offre paralleli. L’introduzione dei protocolli di
sicurezza chirurgica o dei sistemi di prescrizione elettronica ha ridotto gli
errori, ma ha trasformato la libertà decisionale individuale in un esercizio
oneroso e spesso invisibile.
> La questione non è scegliere tra autonomia umana e automazione, ma riconoscere
> ciò che accade nello spazio intermedio tra suggerimento e scelta. È lì che il
> giudizio clinico rischia di ridursi a conferma di opzioni già selezionate
> altrove.
In questo contesto, la frase “si poteva fare diversamente” perde il suo
significato morale. Non indica più una possibilità reale, ma una clausola
formale che tutela il sistema, non chi decide. È una libertà che esiste sulla
carta, ma nella pratica diventa spesso solo una scelta teorica, costosa in
termini di tempo, responsabilità e stress cognitivo. Il margine di decisione
personale non scompare, ma si nasconde, e chi la esercita deve confrontarsi con
un doppio vincolo: quello della ragione clinica e quello della difendibilità
organizzativa.
Abitare lo spazio intermedio
La medicina non è mai stata un atto solitario: il giudizio medico si è sempre
formato all’interno di apparati tecnici, protocolli e strumenti che ne hanno
orientato l’esercizio. Ciò che cambia oggi non è la presenza della tecnologia,
ma la sua capacità di strutturare in anticipo ciò che appare come una decisione
ragionevole. La questione, allora, non è scegliere tra autonomia umana e
automazione, ma riconoscere ciò che accade nello spazio intermedio tra
suggerimento e scelta. È lì che la raccomandazione algoritmica diventa norma
implicita, è lì che il giudizio clinico rischia di ridursi a conferma di opzioni
già selezionate altrove. L’agentività che sopravvive non scompare, ma si
restringe: non viene negata, viene resa costosa, eccezionale, giustificabile
solo a posteriori. In questo contesto, lo scostamento dal suggerimento non è più
un gesto ordinario del ragionamento clinico, ma un atto che deve essere difeso.
La responsabilità non riguarda più tanto ciò che si decide, quanto il motivo per
cui non si è aderito a ciò che era indicato.
L’intelligenza artificiale può rendere le decisioni più rapide, più coerenti,
più difendibili, ma proprio per questo rischia di rendere meno visibile il
momento in cui qualcuno decide davvero. In alcuni casi, gli strumenti predittivi
hanno migliorato sensibilmente diagnosi e allocazione delle risorse: ad esempio,
modelli predittivi in oncologia hanno aumentato la precisione nella
classificazione dei pazienti e nella personalizzazione dei trattamenti,
migliorando gli esiti clinici rispetto ai metodi tradizionali. Allo stesso
tempo, alcuni studi documentano come algoritmi di supporto decisionale possano
riprodurre e amplificare bias preesistenti, generando disparità nei risultati
tra gruppi etnici o razziali, specialmente quando i dati di addestramento non
sono rappresentativi della popolazione reale; in ambito diagnostico, sono state
osservate anche prestazioni peggiori dell’IA su immagini di pazienti con
caratteristiche meno rappresentate nei dataset, come alcune condizioni
dermatologiche o popolazioni con fenotipi cutanei diversi.
Questi esempi illustrano due facce della stessa medaglia: l’IA può ampliare la
capacità diagnostica e decisionale, eppure può anche riprodurre disuguaglianze
sanitarie e introdurre errori sistematici se non adeguatamente progettata,
validata e monitorata. In ultima analisi, la diffusione dell’intelligenza
artificiale non elimina la responsabilità individuale, la riorganizza. Non siamo
più davanti a un medico che decide “da solo”, ma a un professionista che decide
entro un contesto tecnologico e culturale in continua evoluzione, che richiede
non solo competenza tecnica, ma anche consapevolezza delle implicazioni etiche e
sociali associate all’uso dell’IA in sanità.
> L’IA può ampliare la capacità diagnostica e decisionale, ma può anche
> riprodurre disuguaglianze sanitarie e introdurre errori sistematici, se non
> adeguatamente progettata, validata e monitorata.
È proprio in questa riorganizzazione che emerge il cambiamento più rilevante:
una medicina in cui la firma continua ad apparire, e il consenso viene
formalmente ottenuto, può assumere un valore sempre più simbolico o ridursi a
una percezione di controllo, mentre le scelte realmente operative vengono
guidate, in parte, da algoritmi e infrastrutture complesse. La responsabilità
non scompare, ma si sposta e si distribuisce lungo una catena decisionale più
ampia, nella quale diventa meno immediato riconoscere chi abbia davvero deciso.
Abitare consapevolmente questo spazio intermedio, tra suggerimento e scelta, tra
supporto e delega, non è allora un limite della medicina contemporanea, ma la
condizione necessaria per preservarne la libertà e il senso di responsabilità
nell’epoca dell’intelligenza artificiale.
L'articolo Doctor ex machina proviene da Il Tascabile.