Home » Media » Intelligenza Artificiale e responsabilità medica
Intelligenza Artificiale e responsabilità medica

Intelligenza Artificiale e responsabilità medica

L’impatto dell’IA sul settore sanitario e la questione della responsabilità in caso di errori: un convegno a Roma il 29 novembre 2023

Quando affrontiamo il tema dell’Intelligenza Artificiale (IA) nel contesto della responsabilità medica, dobbiamo premettere che l’IA è una tecnologia che sta facendo grandi progressi e che sta cambiando il modo in cui viviamo e lavoriamo. In particolare, l’IA sta avendo un impatto significativo (anche) sul settore sanitario.

Considerando il suo sviluppo, attuale e potenziale, l’IA non è facile da descrivere e qualsiasi definizione rischia di mostrare solo una parte di quello che è, o di quello che potrebbe essere. Soprattutto in campo sanitario.
In questo ambito, l’IA può aiutare nella diagnosi precoce di alcuni stati patologici, e anche nella prevenzione del rischio clinico.

Ma se l’Intelligenza Artificiale commette un errore e a soffrirne le conseguenze è il paziente, di chi è la responsabilità?

La risposta non è così scontata.

E proprio per approfondire questo tema di attualità e di grande importanza, numerosi professionisti del settore, studiosi ed altri interessati si sono riuniti per partecipare al convegno ‘Verso una Sanità Digitale Responsabile’, tenutosi a Roma presso la sede dell’ENPAM in Piazza Vittorio Emanuele II n. 78, il giorno 29 Novembre 2023, dalle 10:00 alle 13:00.

E’ stata un’occasione unica per discutere le sfide e le opportunità poste dall’IA nella sanità e per tracciare insieme un percorso di innovazione digitale sanitaria all’insegna della responsabilità.


INDICE SOMMARIO


§ 1. Che cos’è l’Intelligenza Artificiale

Tecnicamente, l’Intelligenza Artificiale è una branca dell’informatica che si concentra sullo sviluppo di sistemi in grado di eseguire attività che richiedono intelligenza umana. L’obiettivo dell’IA è quello di sviluppare sistemi che siano in grado di eseguire attività in modo efficiente e autonomo, senza necessità di essere programmati esplicitamente per ogni singola situazione.

E si tratta davvero di uno strumento potente e rivoluzionario, specie quando utilizza tecniche di deep learning, cioè lavora attraverso una rete di neuroni artificiali per imparare da dati molto grandi e complessi, e diventa capace di risolvere problemi, migliorare la propria performance nel tempo, e fornire informazioni sempre più complete.

Proprio recentemente (il 30 ottobre 2023) il Presidente USA Biden ha firmato un Executive Order, che prospetta una definizione di IA intenzionalmente ampia:

L’Intelligenza Artificiale è un sistema basato su macchine in grado di soddisfare una serie di obiettivi definiti dall’uomo. Questo sistema è capace di effettuare previsioni, fornire raccomandazioni o prendere decisioni che influenzano ambienti sia reali che virtuali. Un aspetto fondamentale dell’IA è la sua capacità di utilizzare sia input meccanici che umani per percepire questi ambienti. L’IA astrae tali percezioni in modelli attraverso un processo di analisi automatizzato. Infine, utilizza l’inferenza tratta da questi modelli per formulare opzioni e azioni, sia a livello informativo che pratico.

(“Biden Administration’s Executive Order on Artificial Intelligence”, 30/10/2023)

Questa definizione enfatizza l’ampiezza e la versatilità dell’IA, includendo sia le applicazioni attuali sia i potenziali sviluppi futuri. La capacità di astrazione e inferenza automatizzate sono elementi chiave che permettono all’IA di operare efficacemente in un’ampia gamma di contesti e applicazioni.

L’IA rappresenta dunque una rivoluzione nell’informatica e uno strumento potente per molte applicazioni, tra cui quelle nel settore sanitario.

§ 2. Applicazioni dell’Intelligenza Artificiale in campo sanitario

In sanità, l’intelligenza artificiale può essere utilizzata in diversi modi. Ad esempio:

  • Diagnostica medica: L’IA può aiutare i medici a diagnosticare malattie utilizzando algoritmi di apprendimento automatico per analizzare grandi quantità di dati medici, come immagini radiologiche o risultati di laboratorio.
  • Previsione della malattia: L’IA può essere utilizzata per analizzare i dati sanitari di un individuo e prevedere il rischio di sviluppare determinate malattie.
  • Assistenza sanitaria personalizzata: L’IA può essere utilizzata per personalizzare il trattamento dei pazienti in base alle loro esigenze individuali, ad esempio individuando il miglior approccio chirurgico per patologie rare o complesse.
  • Ricerca medica: l’IA può aiutare i ricercatori a scoprire nuove terapie e cure analizzando grandi quantità di dati biologici e medici.
  • Supporto dell’assistenza primaria: L’IA può aiutare a migliorare l’assistenza sanitaria territoriale, ottimizzando i processi di presa in carico dei pazienti, soprattutto quelli cronici, su tutto il territorio nazionale (a proposito, a fine ottobre 2022 AGENAS ha pubblicato un bando impegnando importanti risorse del PNRR per la realizzazione di una Piattaforma di Intelligenza Artificiale proprio in questo ambito).
  • Assistenza sanitaria remota: L’IA può essere utilizzata per fornire assistenza sanitaria a distanza, anche in abbinamento con la telemedicina.

E questi sono solo alcuni esempi di applicazione dell’IA in sanità, perché si tratta di un campo in continua evoluzione e ci sono molte altre aree in cui l’IA è utilizzata o in via di sviluppo. Quindi, è sempre utile tenere d’occhio gli sviluppi più recenti in questo campo.

Hai bisogno di supporto in materia di IA e responsabilità sanitaria?

§ 3. Responsabilità in caso di errori nell’utilizzo dell’IA in sanità

Ma cosa succede, in concreto, quando si verifica un errore?

Facciamo qualche esempio: un software di AI suggerisce un certo rischio di neoplasia, sulla base del quale un medico decide di intervenire. Si scopre poi che quella previsione fatta dalla macchina era errata. Oppure il medico decide di ignorare le raccomandazioni fornite dalla macchina, perché dà una diversa interpretazione del caso clinico alla luce della propria esperienza, e questo produce conseguenze negative per il paziente.

Ancora, quando si utilizzano algoritmi di intelligenza artificiale per determinare il trattamento da utilizzare per una patologia specifica: se l’algoritmo non è correttamente addestrato o se utilizza dati incompleti o inaffidabili, potrebbe suggerire un trattamento inadeguato o che addirittura peggiora la condizione del paziente.

La stessa cosa può succedere in ambito di previsione del rischio di sviluppare una patologia: si possono generare previsioni errate, con la conseguenza che i pazienti potrebbero essere sottoposti a trattamenti o esami non necessari o, viceversa, potrebbero non essere identificate tempestivamente patologie importanti, con ripercussioni negative sulla loro salute.

In tutti questi casi, chi deve essere ritenuto responsabile dei danni ingiustamente sofferti dal paziente?

Nel nostro Paese non ci sono, a tutt’oggi, riferimenti normativi che disciplinino espressamente la materia. Anche in ambito di Unione Europea, c’è solo una proposta di Regolamento che attende di essere sviluppata.

§ 4. I problemi interpretativi

Bisogna intanto distinguere tra “semplice” algoritmo e intelligenza artificiale.

Mentre il primo si limita a comparare dati vecchi e nuovi, l’Intelligenza artificiale elabora i dati e produce una valutazione in modo autonomo rispetto all’uomo. Mentre con l’algoritmo il processo è lineare e trasparente (si sa che cosa ha comparato e in che modo) con il deep learning non si può risalire a tutti gli step compiuti dalla macchina per elaborare la valutazione finale. Infatti, i processi di deep learning sono basati su reti neurali e la loro “opacità” è dovuta alla natura stessa di questi sistemi, che possono essere difficili da interpretare o decifrare.

Pertanto, determinare i confini della responsabilità sanitaria, nel caso di utilizzo dell’intelligenza artificiale, non è facile, soprattutto in merito all’individuazione del soggetto responsabile, del nesso causale tra danno ed evento e della ripartizione del danno.

È responsabile la struttura sanitaria custode della macchina, il produttore del software, il programmatore e gli sviluppatori, le società addette alla manutenzione oppure l’operatore sanitario, quale utilizzatore finale?

Intelligenza Artificiale Responsabilità Medica
Intelligenza Artificiale, telemedicina ed errori in sanità: di chi è la colpa? L’avv. Chiarini risponde sul mensile BenEessere

§ 5. Qualche ipotesi ricostruttiva: chi è responsabile di cosa

In caso di errore nell’utilizzo dell’IA in sanità, la questione della responsabilità va analizzata in base alle circostanze specifiche del caso concreto, senza poter generalizzare.

Ad ogni modo, in linea di massima:

  • se l’errore deriva dal sistema di IA, la responsabilità dovrebbe ricadere sulla struttura sanitaria che la utilizza, in conformità alle regole della responsabilità contrattuale di cui agli artt. 1218 ss. c.c. ed all’art. 2051 c.c. (“Danno cagionato da cosa in custodia”);
  • se si tratta di un mancato o erroneo aggiornamento del software, potrebbe configurarsi una azione di rivalsa nei confronti della società incaricata della manutenzione;
  • se invece l’errore è nella programmazione, potresse essere possibile invocare la responsabilità del produttore per danno da prodotti difettosi, prevista sin dalla direttiva 85/374/CEE;
  • se poi è il professionista sanitario a non aver usato in modo corretto la macchina, o ad aver interpretato male i relativi output, si tornerà alle tradizionali ipotesi di responsabilità, contrattuale od extracontrattuale secondo l’ambito in cui ci si muove, come da legge Gelli Bianco.

Ma ricostruire in giudizio tutti questi livelli di responsabilità è complesso!
A cominciare dalla ripartizione dell’onere della prova tra le parti.

È probabile che il contenzioso medico-legale in questo ambito dovrà prevedere il ricorso a consulenti tecnici non solo in medicina legale, ma anche ad esperti di IA, e forse non ci si dovrà limitare a richiedere la cartella clinica del paziente ma anche la scheda tecnica della macchina!

Dall’altra parte, anche per i medici dimostrare l’assenza di colpa non sarà facile: basterà mostrare di aver rispettato le linee guida o dovranno anche dimostrare di saper utilizzare le macchine che impiegano l’AI?

Ma soprattutto, visto che il processo del deep learning non è decodificabile, quali prove potranno portare a loro discolpa i programmatori?

Come vedete, al momento sono più le domande che le risposte sull’uso sicuro dell’Intelligenza Artificiale in campo medico. È un ambito che potenzialmente può far evolvere l’assistenza sanitaria, ma la sua applicazione non può prescindere da un’attenta definizione dei profili di responsabilità di tutti i soggetti interessati.

§ 6. L’importanza della formazione e della collaborazione

L’utilizzo dell’intelligenza artificiale in sanità è in continua evoluzione e richiede una solida comprensione da parte dei professionisti sanitari per garantire che sia utilizzato in modo sicuro e responsabile.

La formazione dei professionisti sanitari su come utilizzare l’IA in modo efficace e sicuro è cruciale per evitare errori e minimizzare i rischi associati all’utilizzo di questa tecnologia.

Inoltre, la collaborazione tra professionisti sanitari, scienziati e ingegneri è essenziale per garantire che l’IA venga utilizzata in modo responsabile e sostenibile. Questa collaborazione favorisce lo scambio di conoscenze e competenze, garantendo che i risultati della ricerca siano utilizzati in modo sicuro e che i nuovi sviluppi tecnologici siano integrati nella pratica clinica in modo equilibrato e opportuno.

In sintesi, la formazione e la collaborazione sono fattori chiave per garantire che l’IA sia utilizzata in modo sicuro e responsabile nel settore sanitario e per massimizzarne i vantaggi per la salute dei pazienti.

§ 7. Riflessioni conclusive

L’impiego dell’intelligenza artificiale nel campo sanitario presenta molte opportunità per migliorare la diagnosi e il trattamento dei pazienti. Tuttavia, l’adozione della tecnologia comporta anche la necessità di affrontare alcune sfide, in particolare in relazione alla determinazione della responsabilità in caso di errori.

È importante che il settore sanitario, i produttori di tecnologie AI (“Artificial Intelligence”) e il governo lavorino insieme per creare un quadro normativo che garantisca la sicurezza e la protezione dei pazienti, mentre al contempo incoraggi lo sviluppo e l’utilizzo di tecnologie innovative.

In conclusione, l’IA ha il potenziale per migliorare la qualità della vita dei pazienti, ma la sua applicazione richiede un approccio responsabile e sicuro, con un’attenzione particolare alle implicazioni legali ed etiche.

La vera sfida consiste nel trovare un equilibrio tra la protezione dei diritti delle persone e l’utilizzo responsabile dell’IA, al fine di garantire che l’IA venga utilizzata in modo sicuro ed efficace. Anche in ambito sanitario.

Questi ed altri temi sono stati al centro del dibattito nel convegno ‘Verso una Sanità Digitale Responsabile’, che si è tenuto a Roma il 29 Novembre 2023.

Un’occasione ideale per tutti gli avvocati specializzati in diritto sanitario, medici e professionisti della sanità, esperti di intelligenza artificiale e telemedicina, funzionari governativi, responsabili del risk management in strutture sanitarie, rappresentanti del mondo assicurativo, magistrati, giuristi, accademici e studenti interessati alle tematiche della responsabilità sanitaria e della digitalizzazione nel settore della sanità.

Grazie a tutti i partecipanti per aver contribuito al successo di questa importante occasione di confronto!

MAGGIORI INFORMAZIONI SUL SITO WEB DI FONDAZIONE SANITA’ RESPONSABILE

Ti è piaciuto l’articolo? Condividilo sui Social