Sopravvivere al cancro selezionando i target, senza dati non si può fare

Forza e debolezza (anche etica) della medicina di precisione discusse a Milano nel corso del convegno “The Healthcare to come“, organizzato a Milano il 16 ottobre scorso da Fondazione Silvio Tronchetti Provera e Fondazione Umberto Veronesi, con la media partnership di AboutPharma. Dal numero 173 del magazine

Sopravvivere al cancro selezionando i target

La salute che verrà è già qui. Oggi il 50% delle persone con melanoma sopravvive a dieci anni dalla diagnosi, con buone prospettive di aumentarne significativamente il tasso nel prossimo futuro (e con l’obiettivo non irrealistico della totalità). Se la parola guarigione non è più un tabù anche per diversi altri tumori e, ad esempio, per le malattie rare di origine genetica, buona parte del merito va alla possibilità di identificare, con estrema accuratezza, con biomarker specifici i pazienti da sottoporre ai trattamenti. Quali trattamenti? Praticamente tutti, da soli o combinati tra loro a seconda delle necessità: immunoterapia, terapie cellulari e anticorpi monoclonali, ma anche chirurgia, radioterapia e protocolli chemioterapici “tradizionali”. E se i costi della personalizzazione sono al momento quelli di una manovra finanziaria, un modo bisognerà pur trovarlo per non deviare e dover rinunciare a ricerca, sviluppo e proposta di tecnologie per diagnosi e cure integrate davvero dirompenti.

Tool imprescindibili

Una premessa: la medicina di precisione non sarebbe possibile senza ricorrere a metodi statistici raffinati e puntuali che estraggono e processano tonnellate di big data ponendoli al servizio di intelligenza artificiale, scienze “omiche”, machine learning e di tutti i “tool” la cui validazione, tuttavia, resta per il momento prerogativa di medici e scienziati in carne e ossa. Più o meno sono queste le conclusioni cui giunge Pier Giuseppe Pelicci, direttore dell’area di ricerca e capo del Dipartimento di oncologia sperimentale dell’Istituto Europeo di Oncologia, al termine del convegno “The Healthcare to come“, organizzato a Milano il 16 ottobre scorso da Fondazione Silvio Tronchetti Provera e Fondazione Umberto Veronesi, con la media partnership di AboutPharma. All’evento hanno partecipato scienziati ed esperti di prima grandezza tra cui il premio Nobel per la medicina 2018, l’immunologo James Patrick Allison.

Ai, bomba atomica o opportunità?

Il rischio di perdere il controllo delle nuove tecnologie o di non saperne sfruttare a pieno il potenziale è rilanciato da Marco Tronchetti Provera (in foto di copertina), presidente della Fondazione Silvio Tronchetti Provera. “L’intelligenza artificiale – spiega dal palco – rischia di essere un incubo, una nuova bomba atomica che può stravolgere i rapporti di forza a livello geopolitico e nel mondo del lavoro”. L’altra faccia della medaglia, manco a dirlo, è il progresso tout-court. “Per la ricerca rappresenta una meravigliosa opportunità, grazie alla quale le scienze della vita possono fare passi avanti molto più rapidi. Dobbiamo lavorare insieme – continua Tronchetti Provera – e insieme per fare qualcosa nell’interesse comune, facendo nostre le potenzialità dell’Ai e dei big data applicati alle cosiddette scienze omiche”.

L’accordo Novartis-Microsoft

Poi un pensiero al recente accordo tra Novartis e Microsoft. “La direzione giusta è quella”. Se le applicazioni dell’AI e dei big data non sono infinite poco ci manca. Paolo Veronesi, presidente della Fondazione intitolata al padre, ne è convinto: “Oggi la medicina personalizzata da slogan sta diventando una realtà concreta, soprattutto in oncologia. L’immunoterapia, in particolare, permette lunghe sopravvivenze ma non funziona sempre per tutti: l’importante è sapere sempre come scegliere i pazienti e la raccolta di big data da milioni di persone serve proprio a questo”.

Le ragioni dei “no responder”

Già, gli esclusi. La parte mancante, l’altro 50% – per restare al melanoma – che non risponde alle terapie. “Dobbiamo capire perché accada” è il cruccio di Pelicci, cui pur con diverse sfumature fanno eco i colleghi Giulio Draetta (MD Anderson Cancer Center di Houston), Ruggero De Maria (Alleanza contro il Cancro), Antonio Lanzavecchia (Institute for research in Biomedicine, Bellinzona) e Michele Maio (università di Siena). Opinione comune è che per scatenare tutta la potenzialità dell’immunoterapia servano ancora più modelli, più ricerca, più marcatori capaci di cogliere la complessità del cancro in tutte le sue componenti a partire dalle mutazioni cellulari e dalle diverse caratterizzazioni. E per fare questo, va da sé, non c’è che da velocizzare l’elaborazione e l’analisi dei dati.

Dove si nascondono le evidenze?

Sì ma quali dati? Tratti da dove? Forse il capitolo più interessante del dibattito milanese riguarda proprio la ricerca delle evidenze scientifiche attraverso gli algoritmi alla base delle scienze omiche e dell’AI, opposti (ma è davvero così?) agli strumenti tradizionali rappresentati dagli studi clinici randomizzati (Rct). “Sono troppi e i costi sono troppo elevati” taglia corto Ruggero De Maria. Paolo Casali, direttore dell’oncologia medica all’Ircss – Istituto nazionale dei Tumori Milano si chiede che valore abbia ancora l’Ebm centrata sui grandi trial nell’epoca della medicina di precisione che invece ha bisogno di indagare su piccole popolazioni. “La precision medicine è più tagliata per queste ed è difficile pensare che il clinical trial si adatti. Ma se il trial risponde a una domanda grossolana, con l’intesa di raffinare poi la risposta a livello del singolo paziente, può ancora funzionare”.

Paolo Veronesi (a sinistra) e James P. Allison (a destra)

Il medico non deve delegare

C’è ben altro, però. Secondo Casali “Big data, Ai e machine learning stanno cambiando il modo di generare e governare la conoscenza. Negli anni ’90 il valore dei trial era legato all’autorità medica ma i medici hanno commesso l’errore di delegare troppo le valutazioni al letto del paziente a epidemiologi, metodologi, statistici. Oggi come ieri l’Ebm è sempre basata su Rct cui seguono analisi dei sottogruppi e metanalisi prima di arrivare alle evidenze. Ma la qualità dello studio dipende anche da altro: tra i trial clinici e il paziente c’è sempre il negoziato tra i valori e le preferenze che esprime quest’ultimo e il medico che deve tenerne conto. L’etica impone decisioni condivise soprattutto quando si è in condizioni di incertezza: così si fa la medicina personalizzata, non solo con la biologia molecolare e le omiche che sono esplose. In futuro se un medico non sarà in grado di condividere sempre di più il processo decisionale non potrà essere considerato un bravo professionista. E perché un bravo medico spieghi bene, è necessario che conosca molto bene la patologia”.

Non ripetere gli errori del passato

Il ricorso all’AI non risolve il problema della delega che potrebbe anzi essere enfatizzato da un eccesso di fiducia negli algoritmi da parte dei medici, ripetendo così l’errore di un passato recente. Prosegue Casali: “I big data che abbiamo a disposizione non sono solo genetici ma clinici, amministrativi, biologici. L’AI può riassumerli emulando le competenze professionali di un medico (forse addirittura migliorarle) e produrre nuove conoscenze, non semplici da distinguere. Ma servono linee guida: considerato che il machine learning impara dai propri errori, le decisioni finali potrebbero non rispecchiare la prassi nel caso in cui le linee guida cliniche ad esempio fossero frutto di ultimi esperimenti processati”.

Le conseguenze con cui fare i conti

Conseguenze? La conoscenza pilotata dai dati può lasciare sgomenti sia i pazienti che i medici e in tal caso tocca al medico aprire la scatola nera dell’AI magari recuperando una parte del “vecchio mestiere” che discute con le persone, magari maneggiando meno numeri. Conclude Casali: “Sì, però negoziando in maniera non formalizzata. La Ebm ha ancora un vantaggio che risulta dalla metodologia degli studi clinici. Il vecchio metodo del medico un po’ paternalista che prende le decisioni può ancora andare bene se si è credibili. Ma per essere credibili bisogna avere qualche rigore metodologico anche su come si assumono le decisioni”.

Troppa fede nei dati?

Cecile J. W. Janssens, epidemiologa della Rollins School of Public Health della Emory University di Atlanta, sui rischi del “datismo” ha qualcosa da dire. “Perché riteniamo che i dati ci permettano di fare una medicina migliore di quella dei medici? Di certo le posizioni non sono allineate. La predittività della variabilità è un fattore critico. Il DNA può essere predittivo però ci sono gli effetti ambientali da considerare e serve un modello che metta tutto insieme. Ad esempio, il rischio poligenico di un individuo è solo un fattore, poi ci sono gli stili di vita. Molti score non sono predittivi. Con le patologie complesse non basta un algoritmo, lo score poligenico non discrimina il rischio reale. Nella pratica clinica le eccezioni non sono nel modello (es. comorbidità, interazioni con altri farmaci) e insieme ai dati predittivi devono entrare nella discussione avviata dal medico insieme al paziente”.

Si tratta sempre di essere umani…

L’alert è in qualche modo condiviso da Gabriella Pravettoni, docente di Psicologia generale e direttore del dipartimento di Oncologia e Emato- Oncologia dell’Università statale di Milano. “Possiamo condividere decisioni, usare le innovazioni. Ma se non capiamo che abbiamo a che fare con l’essere umano e le sue emozioni con l’AI non ci facciamo niente”. Paolo Bruzzi, del dipartimento di Epidemiologia clinica all’Ircss Aou San Martino di Genova non è meno tranchant: “Non mi piace il termine medicina di precisione. Sono scettico. Pensiamo che più informazioni raccogliamo, più prevediamo e decisioni più affidabili prendiamo. Ma non funziona così. Le malattie non sono così. La teoria del caos insegna che minimi cambiamenti possono avere conseguenze catastrofiche. Le conseguenze previste dalla statistica vanno adattate al nuovo mondo, alle condizioni di rarità, alla varietà della tipologia umana. Randomizzare per pochi pazienti è possibile? Eticamente è accettabile? Nessuno pubblicamente dice come si possa progettare un trial di efficacia senza braccio di controllo”.

Capitolo sostenibilità

E poi c’è la questione della sostenibilità e fattibilità delle terapie innovative cui si perviene grazie all’information technology e ai suoi strumenti. Pochi e costosissimi farmaci, per quanto decisivi, per pochi pazienti, da un punto di vista strettamente economico non rappresentano al momento un grande affare per i sistemi sanitari pubblici come conferma Alistair McGuire, economista sanitario alla London School of Economics (“alle cure risponde solo il 50% dei pazienti, il costo dei farmaci è in aumento e sono sempre di più i farmaci approvati dalle agenzie regolatorie”). Prova ne sia la recente scelta riferita da Riccardo Palmisano, Ad di Molmed, di ritirare dal mercato di Zalmoxis, una terapia cellulare personalizzata, basata sull’ingegnerizzazione del sistema immunitario per il trattamento di adulti affetti da leucemie e altri tumori ematologici ad alto rischio. Chiosa Diego Ardigò, R&D Rare Diseases Unit Head di Chiesi. “Il modello non torna, non è sostenibile e non lo sarà per anni. Ma non dobbiamo spaventarci, prima o poi i costi industriali si ridurranno. Ci arriveremo”.

Screening o non screening?

Gli alti costi della medicina di precisione impongono, come più volte accennato, un accurato screening genetico dei pazienti anche per non sprecare risorse. Prepotente si affaccia il tema dei test genetici, trattato da Bengt Jönsson, professore emerito di Health Economics alla Stockholm School of Economics. “Il problema della medicina di precisione è uno solo: rimborso, rimborso, rimborso e può risolverlo solo il sistema pubblico. Quindi le scelte devono basarsi sulle evidenze e per queste servono più informazioni, più biomarcatori che possano generarli e comportamenti clinici che sappiano usare quelle informazioni. Non è chiaro quale paziente debba ricevere i test (e quindi le terapie che ne conseguono) e i trial clinici non servono a stabilirlo. Bisogna chiedersi se i test funzioneranno, se miglioreranno la vita dei pazienti e se ne vale la pena”. Non è facile stabilirlo: i test a loro volta non sono pochi (né gratis). Conclude Jönsson: “Nel mondo ne esistono circa 75 mila e ogni giorno solo negli Usa ne entrano sul mercato almeno una decina. Non tutti possono avere lo stesso valore…”.

I biomarker

Di certo le informazioni date dai biomarker influenzano sia la valutazione sui farmaci da adottare che sulle procedure da seguire per trattare i pazienti. Che fare di coloro che non possono e non vogliono sottoporsi a screening? Se lo chiede McGuire e se lo chiede anche Pelicci a fine giornata. Nella domanda riecheggia “la domanda” rimasta inevasa per tutta la giornata. L’ha formulata Giuseppe Remuzzi, direttore dell’Istituto di Ricerche farmacologiche Mario Negri: non è che a furia di discriminare (forzatamente) i pazienti su base genetica, la medicina di precisione finirà per aumentare le diseguaglianze di salute? Il futuro è una strada scivolosa.

Fabio Pammolli: “Nessuno può dire quando caleranno i costi delle terapie”

Fabio Pammolli dirige il dipartimento di Management, Economics and Industrial Engineering del Politecnico di Milano. La struttura collabora con il Centro per le analisi, decisioni e società (Cads) che dentro Human Technopole si occupa di analizzare grandi quantità di dati e, attraverso modelli matematici e statistici, di prevedere quali ricadute sociali, politiche ed economiche avranno le ricerche effettuate. Ragionare sulla sostenibilità della medicina di precisione rientra nei campi di studio di Pammolli. Al convegno “Healthcare to come” di Milano rimarca il fatto che la scienza e la tecnologia rendono sempre più precise le indicazioni terapeutiche a cui si applicano le nuove terapie e che le popolazioni di riferimento per ciascun farmaco, per ciascun trattamento, diventando sempre più piccole non potranno remunerare i costi della ricerca che sono elevati.

Combinazioni e filiera terapeutica

“Tuttavia – dice Pammolli – è sempre più difficile parlare di un singolo farmaco. Esiste piuttosto una filiera di trattamento che va dalla diagnostica, all’estrazione, re-infusione di cellule, fino ai test che devono essere svolti per identificare le popolazioni responsive. Abbiamo anche capito che i farmaci ormai hanno un set di indicazioni che ex ante non è noto e che può cambiare rapidamente nel tempo anche in relazione all’ingresso di un nuovo medicinale. Quindi non solo consideriamo indicazioni multiple per il singolo farmaco ma anche combinazioni che non conosciamo. Questo pone un problema organizzativo per il regolatore, che si deve dotare di sistemi informativi e capacità di analisi moderne per capire come nel tempo evolve il valore del medicinale. Quindi è evidente la difficoltà a muoversi per tetti di spesa compartimentalizzati, quando in realtà i trattamenti diventano integrati dalla diagnostica, fino alla pratica medica”. Nel corso del dibattito milanese, in molti – ad esempio Marco Tronchetti Provera – hanno sostenuto che il costo delle tecnologie sia destinato a scendere, così com’è avvenuto per i telefonini.

Si tende all’aumento della sopravvivenza

Pammolli giudica realistica l’ipotesi ma nel lungo periodo. “Perché siamo in presenza di un avanzamento della conoscenza scientifica. Se parliamo di ‘diagnostic treatment’ parliamo di medicinali che interferiscono con i meccanismi fondamentali o genici o enzimatici nell’organismo e che mappano su più malattie. Significa che una volta compresi i meccanismi avremo sicuramente a cascata un abbassamento dei costi. Ma per una lunga fase, e la durata non è nota, tutto ciò si tradurrà in un aumento. Nel frattempo abbiamo visto che i tumori evolvono con le sollecitazioni e che in realtà i checkpoint da fissare sono anch’essi evolutivi (si veda l’intervista a James P. Allison, n.d.r). Costi alti sì, ma abbiamo anche un vantaggio terapeutico che si traduce in tassi di sopravvivenza dei nuovi farmaci che è realistico riguardare l’80% della popolazione. Già oggi troviamo remissioni. Questo sembra veramente dire che ci stiamo riuscendo. Che ci stanno riuscendo”. L’ottimismo è legato anche al fatto che il ricorso ai tool, ai big data, all’AI dovrebbe accelerare i processi e i tempi della ricerca, grazie anche alla collaborazione multidisciplinare.

Aggiunge ancora il professore: “Grazie all’iniziativa del Rettore del Politecnico e dei colleghi dei dipartimenti di Informatica e di Statistica, oltre che del nostro di Ingegneria gestionale, stiamo cercando di rispondere a queste sfide mettendo in filiera tutte le competenze necessarie. Prima potevamo contare su tempi di risposta e cambiamento molto più lenti, adesso abbiamo una realtà che si muove – in relazione al lancio dei nuovi farmaci – il che significa anche che la ricerca deve saper analizzare dati fuori dai trial clinici randomizzati, ma replicando quegli elementi di controllo che normalmente si hanno al loro interno”. Ma i dati non bastano.

Interpellare i pazienti

Anche Pammolli dice che occorrono basi morali per prendere decisioni cliniche e queste devono interpellare direttamente i pazienti: “Questo è un tema che si aprirà secondo me in maniera molto forte nei prossimi anni. Ora abbiamo una maggiore trasparenza delle opportunità che ci sono e della loro importanza perché trattano di malattie mortali. Già oggi ci troviamo a prendere decisioni fondamentali se testare o non testare, se trattare o non trattare con survival rate stimati ex ante e con una popolazione magari di età molto anziana. Il problema etico per la nostra società non è solo quello di definire le questioni di pricing (tema normalmente affrontato) ma anche discussioni su come la società deve prendersi cura delle persone”.

Chi prende le decisioni

Trattare o non trattare a seconda se un paziente sia stato screenato o addirittura se lo abbia fatto volontariamente? “Sì, si potrebbe arrivare al fatto che non volendo obbligare lo screening, questo diventa un atto individuale, con forme di rimborso che andranno considerate, totali o parziali. Ma abbiamo visto anche che esistono molteplici screening e se le sottopopolazioni rispondono a elementi diversi, allora c’è una forte incertezza sul tipo di test da svolgere. Ciò apre una serie di questioni che veramente andranno a impegnare l’attore pubblico che prende le decisioni. Altre, fatalmente, saranno rimandate alla scelta medica”