L’IA rischia di creare professionisti che sembrano competenti, ma non lo sono davvero
Giuseppe Zanini, responsabile dei Servizi Formativi dell'ULSS n. 7 Pedemontana (Veneto), pubblica su Igiene e Sanità Pubblica un contributo che affronta un problema emergente nelle organizzazioni sanitarie: l'adozione pervasiva di strumenti di Intelligenza Artificiale generativa nei contesti professionali rischia di interrompere il meccanismo attraverso cui si costruisce la competenza esperta profonda.
L'articolo non è un testo contro l'IA, l'autore si dichiara esplicitamente un suo sostenitore. È invece un'analisi del rischio formativo specifico che questi strumenti introducono, con raccomandazioni concrete per chi progetta percorsi di sviluppo professionale in sanità.
Come si forma la competenza esperta: la teoria di Ericsson
Il punto di partenza dell'articolo è il lavoro di Anders Ericsson, psicologo svedese considerato il principale studioso della competenza professionale. Attraverso trent'anni di ricerca empirica su chirurghi, violinisti, giocatori di scacchi e medici d'urgenza, Ericsson ha dimostrato che la competenza esperta non è il prodotto dell'esperienza accumulata nel tempo, ma di un tipo specifico di pratica: la pratica deliberata.
Quattro condizioni la definiscono: un compito con un obiettivo specifico, un feedback immediato e accurato, la possibilità di ripetizione, e la capacità di lavorare sistematicamente sui propri punti deboli.
Il prodotto di questa pratica sono le rappresentazioni mentali: strutture cognitive elaborate che permettono al professionista esperto di leggere rapidamente una situazione complessa e riconoscere schemi che un novizio non percepisce ancora. Zanini porta l'esempio del medico senior che entra in stanza, scambia poche parole con il paziente, e prima di esaminare qualsiasi parametro dice ai colleghi: "Questo mi preoccupa." I valori sono nella norma, il diario non segnala nulla di critico eppure quasi invariabilmente ha ragione. Quella capacità non è intuizione mistica: è il sedimento di migliaia di esposizioni a situazioni reali, di errori analizzati, di feedback metabolizzati.
Queste rappresentazioni si costruiscono esclusivamente attraverso un ciclo preciso:
-
problema reale,
-
elaborazione autonoma,
-
errore o risposta parziale,
-
feedback,
-
revisione.
È un ciclo lento e spesso frustrante. Ed è esattamente il ciclo che la delega all'IA interrompe.
Il cortocircuito: cosa succede quando la macchina risponde prima
Zanini descrive il meccanismo del problema con un esempio concreto. Un medico in formazione, di fronte a un caso clinico ambiguo, apre uno strumento di IA prima di formulare una propria ipotesi diagnostica. Lo strumento restituisce un'analisi plausibile, ben strutturata, con riferimenti alla letteratura recente. Il medico la legge, la trova convincente, e la incorpora nella propria valutazione.
Dal punto di vista dell'output, tutto funziona. Dal punto di vista formativo, il ciclo non è mai partito: non c'è stato un tentativo autonomo, non c'è stato un errore da analizzare, non c'è stato un feedback formativo. Le rappresentazioni mentali relative a quel tipo di caso non si sono arricchite. La volta successiva, il professionista riaprirà lo strumento non per pigrizia, ma perché non è riuscito a costruire l'alternativa interna.
L'autore chiama questo fenomeno cortocircuito nel feedback formativo, e lo radica nella letteratura empirica. Cita uno studio condotto con 758 consulenti della Boston Consulting Group: l'uso di strumenti di IA migliora significativamente le performance nei compiti di routine, ma le peggiora in modo misurabile nelle situazioni che richiedono giudizio autonomo oltre le capacità della macchina. Il sistema funziona finché funziona. Il problema emerge quando si ferma o quando il caso si trova esattamente oltre la frontiera di ciò che la macchina sa gestire.
Il paragone proposto è quello con l'operaio della rivoluzione industriale che, una volta spenta la macchina, non sa più forgiare il metallo a mano. Con una differenza cruciale: in questo caso nessuno vede la macchina ferma. Si vede solo un professionista che produce output accettabili, fino a quando qualcosa va seriamente storto.
Perché la sanità è particolarmente esposta
L'articolo identifica tre ragioni strutturali per cui le organizzazioni sanitarie sono più vulnerabili di altre a questo rischio.
La natura tacita della competenza clinica. In medicina e in misura analoga nelle professioni sanitarie, la distanza tra la conoscenza dichiarativa (sapere che una condizione si presenta con certi sintomi) e la competenza clinica reale (riconoscere quella condizione in un paziente in carne e ossa, con la sua storia, le sue comorbilità, la sua comunicazione non verbale) è enorme. Quella distanza può essere percorsa solo attraverso l'esperienza diretta, guidata e riflessiva. Nessuno strumento può compiere quel percorso al posto del professionista in formazione.
La pressione sistemica per l'efficienza
Le organizzazioni sanitarie operano in condizioni di risorse limitate, carichi elevati e pressione costante sulla produttività. In questo contesto, uno strumento che accelera, semplifica e produce output rapidamente viene adottato con entusiasmo comprensibile. Ma l'efficienza a breve termine può generare fragilità a lungo termine, se i professionisti più giovani costruiscono la propria competenza apparente sull'IA prima di aver sviluppato una sufficiente competenza incarnata.
La transizione generazionale in corso
Le organizzazioni sanitarie stanno attraversando un massiccio ricambio generazionale. I professionisti che entrano oggi nel sistema sono nativi digitali con un rapporto naturale con gli strumenti digitali, ma con meno anni di pratica deliberata autonoma alle spalle. Il rischio, sottolinea Zanini, non è teorico: è strutturale, e riguarda già le coorti attualmente in formazione.
La distinzione centrale: competenza reale vs. competenza apparente
La distinzione più operativa che l'articolo produce è quella tra competenza incarnata e competenza apparente.
La competenza incarnata è quella descritta da Ericsson: sedimentata nelle rappresentazioni mentali, disponibile anche in assenza di strumenti, capace di riconoscere quando una risposta automatica è sbagliata.
La competenza apparente è la capacità di produrre output di qualità attraverso la mediazione dell'IA, in assenza del substrato cognitivo che permetterebbe al professionista di valutare criticamente quegli output o di produrne di comparabili in autonomia.
Il problema pratico è che le due forme di competenza sono quasi indistinguibili nella vita professionale ordinaria. Si separano nei momenti critici: quando il sistema va offline, quando il caso è genuinamente atipico, quando la situazione richiede un giudizio che non ha precedenti nell'addestramento della macchina, quando c'è un'urgenza nel cuore della notte senza connessione e senza strumenti. La letteratura recente ha iniziato a documentare questo fenomeno sotto l'etichetta di false expertise transitions: professionisti che appaiono competenti nelle interazioni ordinarie mediate dall'IA, ma che rivelano lacune strutturali nelle situazioni che richiedono giudizio autonomo.
Tre raccomandazioni
Zanini formula tre indicazioni concrete per i responsabili della formazione nelle organizzazioni sanitarie.
Prima: progettare la sequenza, non solo i contenuti. I percorsi formativi per i professionisti in sviluppo dovrebbero introdurre gli strumenti di IA dopo, non prima, e non al posto di, una fase di pratica autonoma nel dominio rilevante. Non si tratta di negare lo strumento, ma di garantire che arrivi quando esiste già un substrato di rappresentazioni mentali su cui può agire da amplificatore piuttosto che da sostituto. Per i professionisti già formati, significa distinguere chiaramente i contesti in cui l'IA supporta un giudizio già formato da quelli in cui lo sostituisce.
Seconda: mantenere un feedback formativo residuo attivo. Anche nei flussi di lavoro fortemente mediati dall'IA, è possibile progettare momenti strutturati di feedback reale: supervisione esperta, analisi degli esiti, revisione sistematica dei casi in cui la valutazione dello strumento si è rivelata errata o insufficiente. L'analisi degli errori dell'IA condotta dal professionista, non delegata allo strumento, è indicata come una delle forme più efficaci di pratica deliberata disponibili nel contesto attuale.
Terza: reintrodurre deliberatamente la frizione produttiva. Nelle iniziative formative vale la pena progettare spazi espliciti in cui i professionisti lavorano senza IA: simulazioni, casi clinici da affrontare in autonomia, sessioni di debriefing in cui i partecipanti spiegano e difendono le proprie valutazioni prima di confrontarle con qualsiasi fonte esterna. Non come esercizio nostalgico, ma come salvaguardia deliberata della competenza incarnata e come sistema di rilevazione precoce della transizione dalla competenza reale a quella apparente.
Cosa significa per il lavoro infermieristico
Le tre raccomandazioni dell'articolo sono formulate per i responsabili della formazione, ma le loro implicazioni riguardano direttamente la professione infermieristica in formazione e in esercizio.
Per chi è in formazione, il rischio è immediato: aprire uno strumento di IA prima di aver tentato una propria elaborazione significa non costruire le rappresentazioni mentali che renderanno quella situazione riconoscibile in futuro. Il consiglio operativo che emerge dall'articolo è di usare l'IA come strumento di verifica e confronto, non come punto di partenza.
Per chi è già in esercizio, la domanda che l'articolo pone è più sottile: quanto del proprio giudizio clinico si regge su rappresentazioni mentali solide, e quanto dipende dalla mediazione degli strumenti? Questa consapevolezza è il primo presidio contro la deriva verso la competenza apparente. Mantenere spazi di pratica autonoma anche quando lo strumento è disponibile non è inefficienza: è manutenzione della competenza.
Per i coordinatori e i formatori, le tre indicazioni di Zanini offrono una cornice pratica: sequenziare l'introduzione degli strumenti, non eliminarla; presidiare il feedback formativo anche nei contesti ad alto utilizzo di IA; progettare esplicitamente momenti di lavoro autonomo nelle attività di aggiornamento e supervisione.
L'obiettivo non è formare professionisti che resistono all'IA. È formare professionisti che sanno usarla perché sanno cosa c'è dentro di loro e cosa c'è dentro la macchina.
di