Iscriviti alla newsletter

Come cambia la responsabilità professionale dei sanitari nell'era dell'Intelligenza artificiale?

La Redazionedi
La Redazione
Pubblicato il: 15/10/2024 vai ai commenti

Professione e lavoroStudi e analisi

di Stornelli Muzio, formatore e consulente sanitario legale-forense.

L’intelligenza artificiale (IA) sta trasformando il settore sanitario, migliorando diagnosi, trattamenti e la gestione dei pazienti. Tuttavia, questa rivoluzione tecnologica introduce nuove complessità in termini di responsabilità professionale per medici, infermieri e altri operatori sanitari. Sebbene l’IA prometta di supportare e affinare le decisioni cliniche, emergono domande cruciali:

  • chi è responsabile in caso di errore?
  • Come si può garantire un uso sicuro e responsabile di queste tecnologie?

 

Il Ruolo Crescente dell’IA nella Sanità

Negli ultimi anni, l’intelligenza artificiale è diventata uno strumento chiave in molte aree della medicina, dall’analisi delle immagini mediche, alla gestione delle cartelle cliniche elettroniche, fino ai sistemi di supporto decisionale per i clinici. L’IA promette di aumentare l’efficienza e di ridurre l’errore umano, migliorando l’accuratezza delle diagnosi e delle terapie.

Tuttavia, l’integrazione di IA nei processi clinici solleva questioni di responsabilità: chi è responsabile se un’IA commette un errore o offre una raccomandazione sbagliata? Il sanitario che ha utilizzato la tecnologia o chi l’ha sviluppata?

IA e Decisioni Cliniche: Supporto o Sostituzione?

L’IA si configura principalmente come uno strumento di supporto decisionale, assistendo medici e infermieri nelle diagnosi e nei trattamenti. Tuttavia, non sostituisce il giudizio clinico del professionista. La tecnologia può aiutare a identificare correlazioni nei dati che altrimenti sfuggirebbero, ma il ruolo del professionista rimane centrale. Un affidamento eccessivo sull’IA potrebbe comportare il rischio di decisioni errate, soprattutto se l’algoritmo opera su dati incompleti o se vi sono bias intrinseci.

Per esempio, un sistema di IA potrebbe suggerire un trattamento basato su una diagnosi errata, mettendo a rischio la salute del paziente. È quindi essenziale che gli operatori sanitari mantengano il controllo delle decisioni e valutino criticamente le raccomandazioni dell’IA.

Responsabilità Professionale: Chi Risponde degli Errori?

Un punto critico nell’uso dell’IA in sanità riguarda la responsabilità legale. In caso di errore o danno al paziente, chi deve rispondere? Attualmente, la legge italiana impone che il professionista sanitario mantenga la piena responsabilità delle decisioni cliniche, anche se si è affidato a un sistema di IA.

Questo può creare scenari complessi, dove la responsabilità del danno può essere condivisa tra l’operatore e i produttori della tecnologia. La necessità di nuove normative è evidente per stabilire chiaramente le responsabilità legate all’uso di IA in sanità.

Etica e Trasparenza: L’IA Può Sostituire il Giudizio Umano?

Un ulteriore problema riguarda l’etica e la trasparenza. Gli algoritmi di IA possono agire come “scatole nere”, dove le decisioni prese non sono facilmente comprensibili nemmeno per gli operatori sanitari. Questo pone un problema non solo etico, ma anche di fiducia da parte dei pazienti. L’IA non può sostituire il giudizio umano, soprattutto in contesti in cui sono necessarie valutazioni empatiche e cliniche basate sull’esperienza.

La trasparenza degli algoritmi diventa dunque fondamentale per garantire che le decisioni prese dall’IA possano essere interpretate e comprese dagli operatori sanitari, e per offrire una giustificazione chiara ai pazienti in caso di errore.

La Formazione degli Operatori Sanitari: Nuove Competenze per il Futuro

Con la diffusione dell’IA nel settore sanitario, diventa essenziale formare gli operatori sanitari non solo nell’uso di queste tecnologie, ma anche nella comprensione critica delle loro raccomandazioni. Gli esercenti una professione sanitaria, a vario livello, devono acquisire competenze che vadano oltre quelle tradizionali, imparando a interagire con l’IA in modo efficace senza perdere il controllo sul processo decisionale. Non solo: i sanitari hanno necessità di essere “ancora” formati sul tema della responsabilità professionale, per cui sarà cruciale affrontare entrambi gli ambiti nei prossimi mesi.

La formazione diventerà un pilastro cruciale per integrare con successo l’IA nella pratica clinica, assicurando che gli operatori sappiano quando e come affidarsi alla tecnologia, e quando invece esercitare il proprio giudizio.

La Normativa Italiana: Leggi e Regolamentazione sull’IA in Sanità

In Italia, sebbene non ci sia ancora una normativa specifica sull’IA in sanità, esistono leggi che regolano la responsabilità professionale degli operatori sanitari e l’utilizzo di tecnologie avanzate:

Art. 1176 c.c.: stabilisce che ogni prestatore d’opera deve agire con la diligenza del buon padre di famiglia. Questo vale anche per gli operatori sanitari che utilizzano IA: il professionista deve mantenere il controllo delle decisioni e valutare criticamente le raccomandazioni della tecnologia.

Legge Gelli-Bianco (Legge 8 marzo 2017, n. 24): introduce la responsabilità per gli operatori sanitari solo in caso di dolo o colpa grave. Con l’uso dell’IA, il professionista sanitario è ancora tenuto a garantire la sicurezza del paziente e a valutare attentamente le indicazioni fornite dal sistema.

Regolamento Europeo GDPR: protegge i dati personali dei pazienti, inclusi quelli utilizzati nei sistemi di IA. Le strutture sanitarie devono garantire che le informazioni trattate dalle IA rispettino la normativa sulla protezione dei dati.

Proposta di Regolamento Europeo sull’IA (AI Act): in discussione a livello europeo, questo regolamento mira a creare norme specifiche per l’uso di IA in settori ad alto rischio, come la sanità, definendo responsabilità chiare sia per i produttori di software sia per gli operatori sanitari.

Più in generale, l’Italia ha recentemente presentato la sua “strategia nazionale per l’intelligenza artificiale 2024-2026, un documento che delinea la visione e gli obiettivi del Paese in questo settore cruciale.

Quali sono le nuove sfide?

Certamente l’Italia dovrà dotarsi di sistemi “unici” in grado di comunicare. Ad esempio, molti ospedali e Regioni utilizzano sistemi informatici diversi, rendendo difficile l’implementazione di soluzioni IA su scala nazionale. Potrebbe, inoltre, esserci resistenza al cambiamento, mancanza di fiducia, da parte degli operatori, o più in generale, potrebbe concretizzarsi una sorta di disparità di trattamenti, visto che in alcune Regioni la tecnologia ha raggiunto dei livelli altissimi di “interazione produttiva”, mentre in altri setting, gli investimenti non si sono concretizzati, per cui potrebbe rinnovarsi, ancora una volta, il fenomeno della disparità di trattamenti, o più precisamente disparità nell’accesso alle tecnologie digitali.

 

Conclusioni: Verso un Futuro di Collaborazione Uomo-Macchina

L’intelligenza artificiale rappresenta una grande opportunità per il settore sanitario, ma la sua implementazione deve essere accompagnata da una riflessione attenta sui temi della responsabilità professionale. Il futuro della sanità non risiederà in una completa automazione, ma in una collaborazione tra uomo e macchina, dove la tecnologia supporta e potenzia le capacità decisionali degli operatori.

L’adozione dell’IA deve essere bilanciata da adeguate norme legali e da una formazione continua per i professionisti, affinché il loro ruolo centrale nella cura dei pazienti rimanga intatto. Solo così sarà possibile garantire che l’intelligenza artificiale diventi un alleato prezioso, senza compromettere la sicurezza dei pazienti e la responsabilità degli operatori sanitari.

Ma soprattutto, sarà determinante l’investimento nella formazione, questa volta con un duplice obiettivo:

  • formare i sanitari all’uso virtuoso dell’intelligenza artificiale;
  • formare i sanitari all’uso virtuoso e proattivo del concetto di responsabilità professionale.