Intelligenza artificiale e responsabilità legali Logo of esanum https://www.esanum.de

Intelligenza artificiale e responsabilità legali

Joris Galland è uno specialista in medicina interna appassionato di nuove tecnologie. In questo articolo affronta il tema dell’autonomia dei sistemi di intelligenza artificiale e delle responsabilità connesse.

Quando i sistemi di intelligenza artificiale usati in medicina lavoreranno in autonomia di chi sarà la colpa in caso di errore medico?

Joris Galland è uno specialista in medicina interna. Dopo aver lavorato all'ospedale universitario Lariboisière (AP-HP) di Parigi, ora lavora presso l'ospedale di Bourg-en-Bresse. Appassionato di nuove tecnologie, cura il blog "Connexion(s)" sulla versione francese di esanum. In questo articolo affronta il tema dell’autonomia dei sistemi di intelligenza artificiale e delle responsabilità connesse.

Nei miei articoli continuo a ripeterlo: che ci crediate o meno, l’intelligenza artificiale (IA) viene già inesorabilmente impiegata in medicina. Fino a poco tempo fa, i sistemi di IA in ambito medico erano solo eccellenti analizzatori di immagini. Non entrerò nel dettaglio del loro valore nell'imaging, in dermatologia e in anatomia patologica1. Non giriamoci troppo intorno: l'analisi pixel per pixel dell’IA mette fuori gioco l'occhio umano al primo colpo.
I sistemi di IA in ambito sanitario vengono costantemente impiegati in nuovi campi: diagnosi clinica, prognosi, terapia. Ammettiamolo, solo dieci anni fa non ci saremmo mai aspettati così tanti progressi. Oggi è ovvio domandarsi se l’IA finirà per sostituire il medico. Considerata la scarsità di medici, si è tentati di usare i computer per "automatizzare" molte attività mediche e paramediche. In Cina, più della metà della popolazione si dice pronta a sostituire il medico di medicina generale con un sistema IA. In Europa, le generazioni più giovani, nate in un mondo digitale (le famose generazioni "Y" e "Z") avranno probabilmente meno scrupoli ad abbandonare il buon vecchio "medico di famiglia" per un computer.
Siamo lontani da questo. I sistemi di IA non hanno sostituito i medici e probabilmente non li sostituiranno mai completamente. Tuttavia, la nostra professione rischia di cambiare, con un numero crescente di attività affidate all’intelligenza artificiale, anche in modo autonomo. Ma in caso di errore, chi sarà il responsabile?  

IA in medicina e responsabilità legale, l'Europa non è pronta

Anno 2031. I giovani medici scarseggiano, poiché la pandemia di COVID-19 di un decennio prima ha drasticamente ridotto le vocazioni. Questa carenza ha portato la maggior parte dei cosiddetti ospedali "periferici" ad optare per l'impiego dei sistemi di IA per fare diagnosi al pronto soccorso. Secondo l’IA un paziente ricoverato per distress respiratorio soffre di una pneumopatia... che poi si rivelerà essere un'embolia polmonare. Qualche giorno in terapia intensiva, un grande spavento, e per i parenti una legittima rabbia. A chi faranno causa? L'ospedale? L'azienda che ha creato l'IA? I milioni di pazienti che hanno fornito dati a questa IA? Lo Stato?
Le leggi francesi in materia sono dettate dalla legislazione europea2:

"Quando, per atti preventivi, diagnostici o terapeutici, l'operatore sanitario prevede di utilizzare un trattamento algoritmico, deve informare in anticipo il paziente e spiegargli in forma intelligibile il modo in cui questo trattamento verrebbe attuato nei suoi confronti. Solo in casi di urgenza e impossibilità di informazione questo può essere un limite. Nessuna decisione medica può essere presa solo sulla base dell'elaborazione algoritmica3”.

L'Europa è chiaramente a favore di un uso molto controllato dell'IA in medicina, percepita come un aiuto per i medici. Il professionista della salute rimane al centro del sistema medico e legale, e, in caso di errore medico, la responsabilità è dell’uomo, non della macchina. Questo può sembrare rassicurante per il paziente - e lo è - ma a lungo termine penso che queste direttive saranno un ostacolo al corretto sviluppo del sistema sanitario europeo. Dal mio punto di vista di medico, questa legge aggira il problema e non risponde alle domande principali. Per esempio: perché dovrei rispondere in tribunale di atti che ho delegato ad una IA quando il mio ospedale mi ha imposto l'uso di questa IA di cui non conosco precisamente il funzionamento e la pertinenza?
Un'altra lacuna è la mancanza di un marchio di qualità per tutte queste IA. Molte start-up stanno attaccando il mercato dell'IA sanitaria, ma quanto valgono veramente? Qual è la qualità dei loro dati? Con questo tipo di legislazione, è l'utente che viene penalizzato e non l'industriale. Infine, la legge non menziona per il momento l'IA che sarà utilizzata in assenza di un medico. Tuttavia, questa tecnologia è già impiegata negli Stati Uniti, ci torneremo, e potrebbe essere rapidamente implementata in Francia. Per quanto riguarda la riflessione sugli aspetti giuridici dell'IA in medicina, l'Europa è chiaramente indietro.
Il CNOM (Conseil national de l‘Ordre des médecins) nelle sue raccomandazioni4 sembra essere più in linea con la realtà4. Auspica un esame del sistema giuridico delle responsabilità: quella del medico nel suo uso nel supporto decisionale, ma anche quella dei progettisti degli algoritmi per quanto riguarda l'affidabilità dei dati utilizzati e le modalità della loro elaborazione informatica. Sull'esempio delle leggi di bioetica, non dovremmo ora elaborare un quadro legislativo tecno-etico?

Un’IA autonoma, l'esempio americano

Negli Stati Uniti, l'uso dei sistemi di diagnostica medica viene incentivato sia dalle autorità federali che dagli assicuratori. La Food and Drug Administration (FDA) ha fatto un salto nel 2018, concedendo l'approvazione alla commercializzazione dell'IDx-DR5.  
Questo dispositivo, scientificamente convalidato attraverso uno studio clinico6, utilizza l'intelligenza artificiale per rilevare in modo autonomo la retinopatia diabetica. In appena un minuto, il dispositivo cattura le immagini dell'occhio dopo la dilatazione della retina e le invia a un centro con un algoritmo per l'analisi. Se viene rilevata una retinopatia diabetica - e solo in questo caso poiché l'IA è monotematica - il paziente viene indirizzato ad una visita oculistica. In caso contrario, sarà ricontrollato a un anno. Per la FDA, l'obiettivo era chiaramente quello di alleviare la mancanza di specialisti.
Ad oggi, c’è stato solo un grave caso di errore: la macchina non ha rilevato un cancro alla retina in un paziente. Tuttavia, né il sistema né i suoi progettisti erano legalmente "attaccabili", poiché la sua funzione era limitata allo screening delle complicanze del diabete.

Se viene commesso un errore, di chi è la colpa?

In questo sistema basato sull'IA che lavora in autonomia ci sono diverse fonti di errore7. I dati utilizzati per l'apprendimento sono affidabili e in quantità sufficiente? I dati dei pazienti sono raccolti e integrati correttamente? L'algoritmo è affidabile? L'interfaccia utente è funzionale (rischio di uso improprio, visualizzazione errata dei risultati, ecc.)? Alla fine, ci sono solo due tipi di errori possibili: un "falso positivo" e un "falso negativo". Il primo caso è accettabile, nella misura in cui il paziente consulterà poi un oculista che invaliderà il risultato. Ma nel secondo caso? Ricordiamo che con questo sistema non c'è un doppio controllo.
Il trial che ha permesso la commercializzazione dell'IDx-DR ha coinvolto 900 persone con diabete. Il sistema ha identificato correttamente la presenza di retinopatia diabetica lieve nel 87,4% dei casi e l'assenza di retinopatia diabetica lieve nel 89,5% dei casi. Quindi siamo lontani dal 100% di affidabilità. Non dimentichiamo che la continua aggiunta di nuovi dati migliorerà questi risultati. Se questo tasso di errore sembra alto, deve naturalmente essere paragonato a quello di un medico "umano".
Perché ci si dovrebbe aspettare che una macchina produca risultati migliori di un medico? Per quest'ultimo, un errore diagnostico non è necessariamente una colpa, purché abbia elaborato la sua diagnosi "con la massima cura, dedicandovi il tempo necessario, utilizzando per quanto possibile i metodi scientifici più appropriati e, se necessario, un'assistenza adeguata8". Un obbligo di mezzi, dunque, e non di risultato.   
Possiamo vedere che, a seconda dei casi, la responsabilità può ricadere su tutta una catena di persone, dal progettista all'utente, passando per il produttore, il fornitore di servizi e il prescrittore. Quando il dottor Abramoff, progettista dell'IDx-DR, ha dichiarato in un'intervista al Washington Post9 "L'IA non è perfetta, i medici non sono perfetti (...) farà degli errori", ha anche specificato "L'IA è responsabile, e quindi l'azienda è responsabile (...) Abbiamo un'assicurazione per negligenza".

"L'IA non è perfetta, i medici non sono perfetti [...] farà degli errori".

Dr. Michael Abramoff

Una cosa è certa, sono prevedibili lunghe procedure, alimentate dall'illusione di una tecnologia infallibile. D'altra parte, il non utilizzo di queste nuove tecnologie da parte di un medico o di un'istituzione sanitaria potrebbe anche essere considerato come una perdita di opportunità, e potrebbe giustificare un'azione legale da parte di alcuni pazienti.    
Di fronte a tecnologie che rimangono oscure e fonti di fantasia, la chiave qui sembra essere l'informazione data al paziente... e al medico. Se il paziente è adeguatamente informato sul funzionamento del sistema e sulla possibilità di errori, starà a lui accettare o meno una tecnologia che utilizza l'IA. Per quanto riguarda i medici, dovranno avere accesso molto rapidamente a una vera formazione su queste tecnologie, sia per essere in grado di dare informazioni ai pazienti che per sviluppare il proprio pensiero critico. Belle riforme da attuare nelle facoltà...
A livello legale, i dibattiti intorno all'IA in medicina cresceranno presto a dismisura. L'Unione europea dovrebbe quindi puntare urgentemente alle questioni fondamentali. Chi deciderà le future controversie legate all'uso dell'IA in autonomia? Chi si occuperà di questo tipo di competenze necessariamente complesse e multifattoriali?     
Il nostro "esempio americano" mostra le possibilità che apre l'uso ponderato e appropriato di un'IA autonoma coinvolta in una missione di salute pubblica. Dopo una convalida scientifica inconfutabile, le leggi europee non dovrebbero permettere l'uso in autonomia dell'IA in alcune situazioni molto definite?


Riferimenti:
1 - Zemouri, R., Devalland, C., Valmary-Degano, S., & Zerhouni, N. (2019). Intelligence artificielle : Quel avenir en anatomie pathologique ? Annales de Pathologie, 39(2), 119–129.
2 - Résolution du Parlement européen du 12 février 2019 sur une politique industrielle européenne globale sur l’intelligence artificielle et la robotique
3 - Élargir l'accès aux technologies disponibles sans s'affranchir de nos principes éthiques (Projet de loi sur la bioéthique, adopté par l'Assemblée nationale en nouvelle lecture le 9 juin 2021).
4 - CNOM – Médecins et patients dans le monde des data, des algorithmes et de l'intelligence artificielle (2018)
5 - IDx-DR
6 - van der Heijden, A. A., Abramoff, M. D., Verbraak, F., van Hecke, M. V., Liem, A., & Nijpels, G. (2017). Validation of automated screening for referable diabetic retinopathy with the IDx-DR device in the Hoorn Diabetes Care System. Acta Ophthalmologica, 96(1), 63–68.
7 - Laurène Mazeau – «Dispositif de diagnostic médical sans supervision d’un médecin. Explicabilité et responsabilité» Cahiers Droit, Sciences & Technologies (2019) – https://doi.org/10.4000/cdst.1111
8 - Article R 4127-33 du Code de la santé publique
9 - "Augmenting Human Expertise in Medicine and Healthcare" (2019)