L’intelligenza artificiale (IA) sta rivoluzionando il settore della sanità, portando innovazione e trasformando il modo in cui vengono erogati i servizi medici. Questa tecnologia all’avanguardia si sta sempre più integrando nelle pratiche cliniche, dalla diagnostica medica alla personalizzazione dei trattamenti, emergendo come un pilastro fondamentale della sanità digitale.
L’intelligenza artificiale ha già dimostrato un forte impatto nel campo della sanità: sfruttando algoritmi sofisticati e vasti dataset sanitari, l’IA consente diagnosi più rapide e precise, migliorando la qualità dell’assistenza ai pazienti e fornendo un prezioso supporto agli operatori sanitari.
Tuttavia, l’introduzione di sistemi basati sull’intelligenza artificiale solleva anche importanti questioni, specialmente in materia di responsabilità medica in caso di errori. Se un sistema di IA dovesse commettere un errore e il paziente subisse un danno, chi ne sarebbe responsabile?
Per approfondire queste sfide e opportunità, un gruppo di esperti del settore si è riunito in occasione del convegno “Verso una Sanità Digitale Responsabile”, con l’obiettivo di discutere il ruolo dell’intelligenza artificiale nella sanità e delineare un percorso che garantisca innovazione e sicurezza.
INDICE SOMMARIO
- § 1. Che cos’è l’intelligenza artificiale in ambito sanitario?
- § 2. Rischi e limiti dell’intelligenza artificiale nella sanità
- § 3. Errori e responsabilità nell’uso dell’intelligenza artificiale in sanità
- § 4. Qualche ipotesi ricostruttiva: chi è responsabile di cosa
- § 5. Formazione e collaborazione per un uso sicuro dell’IA nella sanità
- § 6. Riflessioni conclusive sull’AI in medicina
§ 1. Che cos’è l’intelligenza artificiale in ambito sanitario?
L’intelligenza artificiale (IA) in sanità si riferisce all’applicazione di sistemi avanzati e algoritmi in grado di elaborare informazioni complesse per supportare diagnosi, trattamenti e gestione dei pazienti. A tal fine, l’IA sfrutta tecnologie come il machine learning e il deep learning, basate su reti neurali che apprendono dai dati, per migliorare continuamente le performance delle diagnosi e rendere le previsioni sui rischi clinici sempre più precise.
Nel settore sanitario, l’IA ha il potenziale di analizzare enormi quantità di dati sanitari complessi, identificando schemi o anomalie che sarebbero difficili da cogliere per l’occhio umano. Questo può portare a diagnosi più rapide e accurate, migliorando la qualità dell’assistenza ai pazienti e fornendo un prezioso supporto agli operatori sanitari.
L’interesse per l’intelligenza artificiale in sanità è cresciuto notevolmente negli ultimi anni, non solo per i vantaggi immediati nella diagnosi e cura dei pazienti, ma anche per l’effetto che può avere sull’intero sistema di gestione della sanità. Si è passati da sistemi tradizionali, che si limitavano a confrontare dati preimpostati, a tecniche avanzate in grado di “apprendere” dai dati stessi, rendendo l’IA uno strumento prezioso per migliorare le decisioni mediche in tempo reale e prevenire errori.
§ 1.2 Applicazioni dell’intelligenza artificiale in campo sanitario
In sanità, l’intelligenza artificiale può essere utilizzata in diversi modi. Ad esempio:
- Diagnostica medica: L’IA può aiutare i medici a diagnosticare malattie utilizzando algoritmi di apprendimento automatico per analizzare grandi quantità di dati medici, come immagini radiologiche o risultati di laboratorio.
- Previsione della malattia: L’IA può essere utilizzata per analizzare i dati sanitari di un individuo e prevedere il rischio di sviluppare determinate malattie.
- Assistenza sanitaria personalizzata: L’IA può essere utilizzata per personalizzare il trattamento dei pazienti in base alle loro esigenze individuali, ad esempio individuando il miglior approccio chirurgico per patologie rare o complesse.
- Ricerca medica: l’IA può aiutare i ricercatori a scoprire nuove terapie e cure analizzando grandi quantità di dati biologici e medici.
- Supporto dell’assistenza primaria: L’IA può aiutare a migliorare l’assistenza sanitaria territoriale, ottimizzando i processi di presa in carico dei pazienti, soprattutto quelli cronici, su tutto il territorio nazionale (a proposito, a fine ottobre 2022 AGENAS ha pubblicato un bando impegnando importanti risorse del PNRR per la realizzazione di una Piattaforma di Intelligenza Artificiale proprio in questo ambito).
- Assistenza sanitaria remota: L’IA può essere utilizzata per fornire assistenza sanitaria a distanza, anche in abbinamento con la telemedicina.
E questi sono solo alcuni esempi di applicazione dell’IA in sanità, perché si tratta di un campo in continua evoluzione e ci sono molte altre aree in cui l’IA è utilizzata o in via di sviluppo. Quindi, è sempre utile tenere d’occhio gli sviluppi più recenti in questo campo.
§ 2. Rischi e limiti dell’intelligenza artificiale nella sanità
È vero che l’intelligenza artificiale ha portato grandi vantaggi nella sanità, migliorando la precisione delle diagnosi, personalizzando i trattamenti e alleggerendo i medici dalle attività di routine. Tuttavia, l’adozione dell’IA in questo settore non è priva di rischi e presenta alcuni limiti importanti che richiedono attenzione.
- Bias e pregiudizi negli algoritmi: gli algoritmi di IA vengono addestrati su grandi quantità di dati, ma se questi dati non sono rappresentativi, possono emergere distorsioni o bias. Ad esempio, un algoritmo addestrato su un campione limitato potrebbe risultare meno accurato o addirittura discriminatorio, portando a diagnosi o trattamenti non equi per tutti i pazienti.
- Rischi per la privacy e sicurezza dei dati: la gestione dei dati sanitari tramite l’IA richiede una sicurezza rigorosa. I sistemi di intelligenza artificiale raccolgono e analizzano dati sensibili, e una violazione della sicurezza potrebbe esporre informazioni private dei pazienti, mettendo a rischio la loro riservatezza e in alcuni casi la loro sicurezza personale.
- Perdita del controllo decisionale: l’uso dell’IA in sanità comporta il rischio che i medici diventino eccessivamente dipendenti dai sistemi automatici, con il pericolo di affidarsi a valutazioni che non sono sempre del tutto trasparenti. Alcuni algoritmi, soprattutto quelli basati su tecniche di deep learning, operano come una “scatola nera”, rendendo difficile comprendere come si arrivi a determinate decisioni cliniche.
- Impatto sui ruoli del personale sanitario: l’automazione di alcune attività può sollevare dubbi sull’effettiva necessità di determinati ruoli in sanità, creando potenziali timori di perdita di posti di lavoro. Se da una parte l’IA può rendere la sanità più efficiente, dall’altra è importante trovare un equilibrio che garantisca il valore umano e professionale del personale sanitario.
L’intelligenza artificiale in sanità rappresenta quindi un’opportunità straordinaria, ma richiede un uso prudente e regolamentato, con attenzione ai limiti e ai rischi che comporta per la sicurezza, l’etica e la qualità delle cure.
§ 3. Errori e responsabilità nell’uso dell’intelligenza artificiale in sanità
Quando si utilizza l’intelligenza artificiale, è importante distinguere tra un semplice algoritmo, che si limita a confrontare dati secondo regole predefinite, e i sistemi avanzati di IA, che analizzano i dati autonomamente.
Questo aspetto rende i processi dell’IA, in particolare quelli basati su deep learning e reti neurali, difficili da interpretare per i medici. Come anticipato, questi sistemi operano spesso come una “scatola nera”: le modalità con cui l’IA giunge a una conclusione restano oscure anche agli esperti, rendendo difficile comprendere i passaggi logici che portano a una diagnosi o a un suggerimento terapeutico.
Questa complessità solleva una questione centrale: in caso di errore, chi è responsabile?
Stabilire i confini della responsabilità non è semplice. Il produttore del software, la struttura sanitaria che lo utilizza, il personale di manutenzione e il medico stesso possono tutti avere un ruolo, ma la mancanza di trasparenza dell’IA rende difficile attribuire le colpe con precisione.
Questa complessità richiede un approccio prudente e, idealmente, un quadro normativo che chiarisca ruoli e responsabilità.
§ 3.1 Intelligenza artificiale in sanità: cosa succede quando si verifica un errore
Facciamo qualche esempio: un software di AI suggerisce un certo rischio di neoplasia, sulla base del quale un medico decide di intervenire. Si scopre poi che quella previsione fatta dalla macchina era errata. Oppure il medico decide di ignorare le raccomandazioni fornite dalla macchina, perché dà una diversa interpretazione del caso clinico alla luce della propria esperienza, e questo produce conseguenze negative per il paziente.
Ancora, quando si utilizzano algoritmi di intelligenza artificiale per determinare il trattamento da utilizzare per una patologia specifica: se l’algoritmo non è correttamente addestrato o se utilizza dati incompleti o inaffidabili, potrebbe suggerire un trattamento inadeguato o che addirittura peggiora la condizione del paziente.
La stessa cosa può succedere in ambito di previsione del rischio di sviluppare una patologia: si possono generare previsioni errate, con la conseguenza che i pazienti potrebbero essere sottoposti a trattamenti o esami non necessari o, viceversa, potrebbero non essere identificate tempestivamente patologie importanti, con ripercussioni negative sulla loro salute.
In tutti questi casi, chi deve essere ritenuto responsabile dei danni ingiustamente sofferti dal paziente?
Nel nostro Paese non ci sono, a tutt’oggi, riferimenti normativi che disciplinino espressamente la materia. Anche in ambito di Unione Europea, oltre al cd. AI Act, c’è solo una proposta di Direttiva che attende di essere sviluppata.
§ 4. Qualche ipotesi ricostruttiva: chi è responsabile di cosa
In caso di errore nell’utilizzo dell’IA in sanità, la questione della responsabilità va analizzata in base alle circostanze specifiche del caso concreto, senza poter generalizzare.
Ad ogni modo, in linea di massima:
- se l’errore deriva dal sistema di IA, la responsabilità dovrebbe ricadere sulla struttura sanitaria che la utilizza, in conformità alle regole della responsabilità contrattuale di cui agli artt. 1218 ss. c.c. ed all’art. 2051 c.c. (“Danno cagionato da cosa in custodia”);
- se si tratta di un mancato o erroneo aggiornamento del software, potrebbe configurarsi una azione di rivalsa nei confronti della società incaricata della manutenzione;
- se invece l’errore è nella programmazione, potresse essere possibile invocare la responsabilità del produttore per danno da prodotti difettosi, prevista sin dalla direttiva 85/374/CEE;
- se poi è il professionista sanitario a non aver usato in modo corretto la macchina, o ad aver interpretato male i relativi output, si tornerà alle tradizionali ipotesi di responsabilità, contrattuale od extracontrattuale secondo l’ambito in cui ci si muove, come da legge Gelli Bianco.
Ma ricostruire in giudizio tutti questi livelli di responsabilità è complesso!
A cominciare dalla ripartizione dell’onere della prova tra le parti.
È probabile che il contenzioso medico-legale in questo ambito dovrà prevedere il ricorso a consulenti tecnici non solo in medicina legale, ma anche ad esperti di IA, e forse non ci si dovrà limitare a richiedere la cartella clinica del paziente ma anche la scheda tecnica della macchina!
Dall’altra parte, anche per i medici dimostrare l’assenza di colpa non sarà facile: basterà mostrare di aver rispettato le linee guida o dovranno anche dimostrare di saper utilizzare le macchine che impiegano l’AI?
Ma soprattutto, visto che il processo del deep learning non è decodificabile, quali prove potranno portare a loro discolpa i programmatori?
Come vedete, al momento sono più le domande che le risposte sull’uso sicuro dell’Intelligenza Artificiale in campo medico. È un ambito che potenzialmente può far evolvere l’assistenza sanitaria, ma la sua applicazione non può prescindere da un’attenta definizione dei profili di responsabilità di tutti i soggetti interessati.
§ 5. Formazione e collaborazione per un uso sicuro dell’IA nella sanità
L’utilizzo dell’intelligenza artificiale in sanità è in continua evoluzione e richiede una solida comprensione da parte dei professionisti sanitari per garantire che sia utilizzato in modo sicuro e responsabile.
La formazione dei professionisti sanitari su come utilizzare l’IA in modo efficace e sicuro è centrale per evitare errori e minimizzare i rischi associati all’utilizzo di questa tecnologia.
Inoltre, la collaborazione tra professionisti sanitari, scienziati e ingegneri è essenziale per garantire che l’IA venga utilizzata in modo responsabile e sostenibile. Questa collaborazione favorisce lo scambio di conoscenze e competenze, garantendo che i risultati della ricerca siano utilizzati in modo sicuro e che i nuovi sviluppi tecnologici siano integrati nella pratica clinica in modo equilibrato e opportuno.
In sintesi, la formazione e la collaborazione sono fattori chiave per garantire che l’IA sia utilizzata in modo sicuro e responsabile nel settore sanitario e per massimizzarne i vantaggi per la salute dei pazienti.
§ 6. Riflessioni conclusive sull’AI in medicina
L’impiego dell’intelligenza artificiale nel campo sanitario presenta molte opportunità per migliorare la diagnosi e il trattamento dei pazienti. Tuttavia, l’adozione della tecnologia comporta anche la necessità di affrontare alcune sfide, in particolare in relazione alla determinazione della responsabilità in caso di errori.
È importante che il settore sanitario, i produttori di tecnologie AI (“Artificial Intelligence”) e il governo lavorino insieme per creare un quadro normativo che garantisca la sicurezza e la protezione dei pazienti, mentre al contempo incoraggi lo sviluppo e l’utilizzo di tecnologie innovative.
In conclusione, l’IA ha il potenziale per migliorare la qualità della vita dei pazienti, ma la sua applicazione richiede un approccio responsabile e sicuro, con un’attenzione particolare alle implicazioni legali ed etiche.
La vera sfida consiste nel trovare un equilibrio tra la protezione dei diritti delle persone e l’utilizzo responsabile dell’IA, al fine di garantire che l’IA venga utilizzata in modo sicuro ed efficace. Anche in ambito sanitario.
Questi ed altri temi sono stati al centro del dibattito nel convegno ‘Verso una Sanità Digitale Responsabile’, che si è tenuto a Roma il 29 Novembre 2023.
Un’occasione ideale per tutti gli avvocati specializzati in diritto sanitario, medici e professionisti della sanità, esperti di intelligenza artificiale e telemedicina, funzionari governativi, responsabili del risk management in strutture sanitarie, rappresentanti del mondo assicurativo, magistrati, giuristi, accademici e studenti interessati alle tematiche della responsabilità sanitaria e della digitalizzazione nel settore della sanità.
Grazie a tutti i partecipanti per aver contribuito al successo di questa importante occasione di confronto!
MAGGIORI INFORMAZIONI SUL SITO WEB DI FONDAZIONE SANITA’ RESPONSABILE