L’intelligenza artificiale alla prova della legge

Pubblicato il: 15 Novembre 2022|

È recentemente stata presentata una proposta di direttiva europea per normare la responsabilità dell’intelligenza artificiale (AI) nei confronti di terzi. Il documento, che riguarda anche i dispositivi medici governati da un algoritmo, ribalta l’onere della prova, che finora era stato in capo a chi riteneva di aver subito un danno. La proposta di direttiva afferma invece che deve essere il fabbricante a produrre le prove che lo scagionino e non la vittima, un po’ come succede nel diritto penale. “Nel quadro legislativo, la responsabilità da prodotto difettoso è sempre stato in capo al soggetto che subiva il danno – ricorda Silvia Stefanelli, avvocata specializzata in diritto sanitario – mentre con la nuova proposta di direttiva, invece, in caso di violazione c’è la presunzione di colpevolezza del fabbricante”. Il documento ha appena iniziato il suo iter e si attende l’approvazione non prima di due anni. Sembra invece in dirittura d’arrivo il Regolamento europeo sull’intelligenza artificiale, che potrebbe essere licenziato in 6-8 mesi. Questo documento, cui la direttiva rimanda, riguarda i requisiti che un prodotto con AI deve avere. Nella pratica, la proposta di direttiva consente al presunto danneggiato di richiedere al giudice di accertare le mancanze del fabbricante, cioè la violazione delle norme che saranno contenute nel Regolamento europeo e, nel caso della sanità, nel Regolamento per i dispositivi medici. “In questo modo si cerca di stabilire se il danno sia stato causato dal mancato rispetto degli standard stabiliti, cioè delle norme di progettazione e realizzazione del sistema”, spiega Stefanelli. Che, nel caso dell’intelligenza artificiale comprendono anche il periodico aggiornamento dei software e gli adempimenti in termini di cybersicurezza. Per inciso, dei profili di rischio da monitorare prima dell’impiego dei sistemi di intelligenza artificiale nella pratica clinica – e dunque della necessità di una normativa chiara in materia – Aboutpharma ha parlato diffusamente sul numero 201 di settembre 2022.

La presunzione di colpevolezza

La presunzione di colpevolezza del fabbricante prevista dalla proposta di direttiva si verifica in presenza di tre condizioni: quando sia stata accertata la violazione di un obbligo di diligenza (previsto dal diritto dell’Unione europea o da quello nazionale) direttamente destinato a proteggere dal danno verificatosi; qualora si ritenga probabile che questa violazione abbia influenzato l’output del sistema di intelligenza artificiale o la mancata produzione di un esito; quando il paziente abbia dimostrato che l’output del prodotto del sistema di AI o la mancata produzione di un esito gli abbia arrecato il danno. Su quest’ultimo punto la direttiva introduce un altro elemento nuovo: qualora il danneggiato non sia in grado di raccogliere prove sufficienti e idonee a dimostrare la correlazione, può richiedere la produzione delle prove allo stesso fornitore. “Questo aspetto è molto importante poiché, avendo a che fare con sistemi complessi come quelli che coinvolgono l’intelligenza artificiale, non sempre è possibile per chi accusa raccogliere la documentazione necessaria”, spiega Stefanelli. Nel caso in cui il danno sia indipendente dal fabbricante, chi lo ha subito può comunque richiedere il risarcimento sulla base dell’imputazione oggettiva. Per capire meglio come potrebbe funzionare la responsabilità civile per i sistemi con intelligenza artificiale utilizzati in sanità si può richiamare quanto successo in altri ambiti. Ricorda Dino Pedreschi, ordinario di Informatica all’Università di Pisa: “Nel 2015 un’auto a guida semiautonoma scambiò la copertura bianca di un camion per il cielo e provocò un incidente mortale. Si è trattato di un malfunzionamento che si è infilato inavvertitamente dentro al modello di addestramento di visione computerizzata, un caso non previsto in sede di allenamento e che ha provocato un incidente. È chiaro che questo tipo di problema si pone in generale: si possono sempre fare danni perché la componente di intelligenza artificiale di un sistema non ha previsto un caso importante o ha ereditato quello che si chiama un bias dai dati”.

Servono dati di qualità

Sebbene l’intelligenza artificiale non sia solo machine learning, la parte dell’apprendimento dei dati è importante. Affinché un algoritmo funzioni bene, deve prima di tutto analizzare una grande quantità di informazioni: più ne processa e più diventa preciso e affidabile. Il meccanismo è simile a quello che si osserva in un bambino, anche se una macchina ha bisogno di molti esempi per riuscire a distinguere per esempio un gatto da una tigre. Uno dei requisiti contenuti nel Regolamento europeo sull’AI è che i dati di allenamento siano di qualità, che quindi non contengano bias (pregiudizi da parte di chi programma il software) e che siano in numero sufficiente da garantire un corretto funzionamento. Esistono poi strategie così complesse per l’apprendimento (il cosiddetto deep learning) da sfuggire alla comprensione degli stessi programmatori. A un certo punto, quindi, gli algoritmi forniscono risposte senza ricostruire il percorso che hanno svolto e senza che chi li ha programmati sia in grado di farlo. In questo caso si parla di scatole nere: programmi che a partire da certi input forniscono un output senza che sia chiaro il procedimento intermedio.

L’Explicable Ai

“Un principio importante contenuto nel Regolamento europeo sull’AI è quello della sovranità umana: l’uomo dovrebbe sempre poter intervenire per bloccare la macchina. Il problema è che oltre un certo livello di complessità si riesce solo a controllare l’effetto prodotto, non a risalire esattamente a come funziona l’algoritmo”, rileva Silvia Stefanelli. Alcuni esperti, invocando un maggior livello di trasparenza dell’AI, hanno proposto quella che si chiama explicable AI, un’intelligenza artificiale che sia sempre in grado di rendere conto dei passaggi effettuati per produrre un certo output. Questa soluzione è guardata con una certa diffidenza dall’industria, che teme la condivisione (e la perdita) di una parte del know how. Per Dino Pedreschi, invece, l’explicable AI potrebbe costituire un’opportunità per le stesse aziende: “Qualche anno fa la giustizia americana si avvaleva del software Compas per prevedere, tra le altre cose, il rischio di recidiva delle persone arrestate. Si scoprì che l’algoritmo indicava un rischio maggiore per gli ispanici e i neri: l’azienda ebbe una serie di guai giudiziari e il modello fu ritirato dal mercato. Oggi rendere accessibili gli algoritmi non è solo questione di trasparenza: da un lato è un modo per mostrare la qualità dei propri modelli e dall’altro per stabilire in modo chiaro quale sia la propria responsabilità”. L’explicable AI potrebbe inoltre favorire una maggiore diffusione dell’intelligenza artificiale in ambiti più delicati: oggi infatti l’AI è molto presente in settori a basso rischio, come quello della traduzione simultanea o dei sistemi di raccomandazione, mentre è ancora poco utilizzata – in termini di volumi di affari – negli ambiti ad alto rischio come la salute e la giustizia. “Il motivo di questa bassa adozione – afferma Pedreschi – secondo alcune ricerche molto recenti è collegato a una mancanza di fiducia da parte di chi deve decidere e dunque prendersi la responsabilità. Chi è aiutato nelle decisioni da un sistema che non capisce del tutto, ha due possibili reazioni: o delega completamente la responsabilità all’algoritmo, oppure rinuncia a integrarlo nel proprio processo decisionale. In prospettiva, sarà sempre più evidente come nei contesti ad alto rischio sia necessaria un’AI comprensibile, che stimoli il ragionamento e che sia quindi in grado di ingaggiare le persone”.

Cambia il codice deontologico dei medici

Il tema dell’intelligenza artificiale e del suo impatto nei processi di diagnosi e cura (si veda anche la rubrica Life Science Transformation pubblicata a pagina 91) è molto sentito anche dai clinici. La Federazione nazionale degli Ordini dei medici chirurghi e degli odontoiatri (Fnomceo) ne discuterà nel proprio convegno a fine novembre, dove si avvierà la revisione del Codice deontologico (quello in vigore risale al 2014). Dice Filippo Anelli, presidente della Fnomceo: “Oggi abbiamo a disposizione strumenti potentissimi, in grado di elaborare grandi quantità di dati in pochi minuti o addirittura secondi tratta di strumenti che potranno essere utili anche in medicina. Al nostro convegno vogliamo riflettere proprio su questo: come poterli utilizzare al meglio nella pratica clinica”. Nell’esercizio della professione, la capacità del medico di discernere autonomamente rispetto alle nozioni acquisite serve a risolvere problemi o fornire soluzioni assumendosi la responsabilità di quello che si fa. “Il rapporto con le persone costituisce il nocciolo del nostro lavoro, che non è basato soltanto sull’interpretazione delle evidenze scientifiche, ma soprattutto su come queste sono applicate alla singolarità della persona che abbiamo di fronte, con i suoi problemi, il suo vissuto e il suo contesto sociale – ha ricordato Anelli – e in questo senso l’AI può rappresentare un supporto per accelerare, migliorare e rendere ancora più precise le diagnosi e le terapie”. Negli anni c’è stata la tendenza a considerare il medico come un tecnico della sanità: “Ci siamo sentiti parte di una catena di montaggio. Oggi vogliamo ribadire che siamo professionisti e non meri esecutori anche rispetto a quello che la scienza suggerisce e offre. In questo senso l’intelligenza artificiale deve essere usata per potenziare la medicina, nell’interesse del paziente, ma senza sostituire il clinico”. Per il presidente Fnomceo l’AI e in generale la tecnologia deve essere un supporto che permetta di capire velocemente quali possono essere le ipotesi da considerare, garantisca un accesso più rapido alla consultazione delle banche dati e della letteratura e, nella diagnostica per immagini, riesca a vedere ciò che non è visibile all’occhio umano. “L’intelligenza artificiale può aiutarci ad avere più tempo da dedicare alla relazione con i pazienti”, conclude Anelli.

Una tecnologia non ancora matura

Proprio per trovare soluzioni di intelligenza artificiale incentrate sull’essere umano, è in partenza nel nostro Paese un grande progetto legato al Pnrr e finanziato con oltre 120 milioni di euro. “È coordinato dal Cnr, coinvolge oltre 350 ricercatori italiani – spiega Dino Pedreschi – e a cascata, saranno interessate anche le aziende”. L’obiettivo è sviluppare un’intelligenza artificiale “etica” nei settori in cui c’è meno penetrazione. “La salute è al primo posto, ma abbiamo anche l’ambito giuridico o quello di accesso ai benefici pubblici come per esempio il reddito di cittadinanza”. L’aspetto della responsabilità sarà tra i temi affrontati all’interno del progetto. “In realtà – ricorda Pedreschi – non siamo di fronte a una novità assoluta. Quando nella clinica medica sono stati introdotti nuovi strumenti diagnostici come l’elettroencefalogramma o l’elettrocardiogramma, questi hanno dovuto inserirsi nel modello clinico e ci sono voluti anni per capire come certificare i loro output o come delimitare la responsabilità del costruttore di uno strumento per l’ecografia che magari per via di un errore depistava il medico. Oggi siamo di fronte a qualcosa di analogo, seppur più avanzato”. Sebbene si consideri l’intelligenza artificiale come uno strumento molto maturo, in realtà, come tutte le nuove tecnologie deve ancora svilupparsi appieno. “In alcuni settori – sostiene Pedreschi – è effettivamente molto avanzata. Penso per esempio alla visione artificiale o alla comprensione del linguaggio, aree nelle quali si sono compiuti molti passi avanti. In altri, invece, resta ancora molto da fare, soprattutto dal punto di vista della collaborazione tra persone e macchine. Questa resta una delle sfide aperte per la comunità scientifica europea e italiana”.

Tag: Commissione europea / Consiglio nazionale delle ricerche / cybersecurity / dino pedreschi / filippo anelli / FNOMCeO / intelligenza artificiale / pnrr / silvia stefanelli /

CONDIVIDI

AP-DATE
SCELTE DALLA REDAZIONE

Pazienti e scelte sanitarie: ancora non c’è la bussola

Prosegue la contesa su rappresentatività, diritti, competenze: lo scorso 19 ottobre il Tar Toscana ha bocciato un ricorso presentato da circa quindici associazioni contro la delibera 702 che include i pazienti esperti nei processi di acquisto dei dispositivi medici. E il recente atto di indirizzo ministeriale sembra appena un primo passo verso il coinvolgimento dei cittadini

Remedi4all: l’Europa scommette sul valore del repurposing

Il progetto Ue sul riposizionamento di farmaci già esistenti per altre indicazioni terapeutiche prevede il coinvolgimento di 24 istituti europei, coordinati da Eatris e un finanziamento di 23 milioni di euro attraverso il programma Horizon Europe

RUBRICHE
FORMAZIONE