La Salute a Torino

Le ricerche scientifiche sul Coronavirus? Fake News e attendibilità

John Ioannidis, docente di medicina e metodo scientifico a Stanford e “Grillo Parlante” del mondo scientifico – da quel 2005 in cui pubblicò lo studio “Perché la maggior parte dei risultati pubblicati è falsa”, dove elencava i più diffusi vizi metodologici che inficiano la ricerca – in questi mesi si è mostrato molto critico sul modo in cui sono state condotte, interpretate e comunicate, nel mondo, le ricerche sul Sars-Cov-2. Ioannidis interverrà il 2 ottobre (ore 18.30) al Festival della Scienza Medica di Bologna (2-17 ottobre), che quest’anno ha tema “Lezioni di medicina. Covid-19”.
 
Qual è il problema della ricerca sul Covid-19, professor Ioannidis?
“Nell’era del Covid-19 abbiamo visto non solo fake news, ma anche dei “fake data”. Ci sono stati studi che sono stati ritirati dalle maggiori riviste scientifiche, come Lancet e il New England Journal of Medicine. E studi che hanno sostenuto tesi davvero improbabili. Inoltre è vero che ormai abbiamo molti dati, ma non molti sono realmente affidabili. Perché i ricercatori faticano a ottimizzare i loro risultati “al volo”, mentre sono impegnati a combattere l’epidemia. La questione più urgente, al momento, è arrivare a una situazione in cui abbiamo i dati migliori per ottimizzare le decisioni che devono essere prese”

 
Che cosa è stato sbagliato nei modelli adottati per prevedere l’andamento della pandemia?
“Premetto che ci sono state diverse cause per gli errori che noi scienziati abbiamo commesso, e non intendo biasimare nessuno. Anche perché le predizioni, in ambito scientifico, in genere sono la cosa più difficile. Nel caso del Covid-19 è stato ancora più arduo. Perché a differenza di situazioni piuttosto stazionarie, come sono ad esempio le malattie cardiovascolari o il cancro – dove possono esserci dei trend nel tempo, ma non realmente forti: per queste malattie più o meno possiamo sempre dire chi è ad alto rischio e chi è a basso rischio – nel caso delle pandemie tutto avviene in un flusso. E c’è molta difficoltà di predire il modo in cui la pandemia potrà evolvere. I modelli predittivi hanno trovato molte difficoltà nel trasporre ciò che è accaduto nel passato o in luoghi diversi in ciò che può accadere nel futuro: il fatto che un’area sia stata colpita duramente in passato non significa che sarà colpita di nuovo allo stesso modo. È vero che sono stati usati anche modelli che non dipendono da questi dati che mutano così rapidamente, ovvero modelli che si basano su teorie. Ma nessuna teoria può rendere giustizia alla complessità della realtà, per cui anche questi modelli si sono mostrati insoddisfacenti nell’emergenza.
 
In particolare in cosa si è sbagliato nell’adattare i modelli alla realtà?
“Una difficoltà notevole è che abbiamo a che fare con un virus che colpisce in modo diverso tipi differenti di persone: alcuni, come gli anziani nelle case di riposo, hanno un rischio di morire altissimo, superiore al 30%. E altri come i bambini hanno un rischio che si avvicina allo 0,00%. Non si possono mettere insieme realtà così eterogenee in un modello semplificato. Per farle un altro esempio: diversi modelli, basati sulla matematica, prevedono che l’80% della popolazione verrà infettata. Ma questo assunto ignora molti fattori, ad esempio la possibilità che molti di noi abbiano già un’immunità cross-reattiva, generata dal nostro sistema immunitario in risposta ad altri coronavirus. Ci sono studi che suggeriscono che questa cross-immunità possa riguardare addirittura fino al 50% della popolazione. Se questo fosse vero, sarebbe una buona notizia, perché significherebbe che la proporzione di persone che dovrebbero infettarsi prima che la pandemia si arresti, anche in assenza di vaccino, dovrebbe essere molto minore di quanto si crede oggi. Inoltre molti modelli predittivi usati per il Covid non tenevano in giusta considerazione l’eterogeneità delle interazioni umane….”
 
Che cosa intende?
“Certi modelli partivano dall’assunto che ognuno di noi ha eguali probabilità di incontrare ogni altra persona. Quindi io avrei la stessa probabilità di incontrare lei in Italia o mia madre che vive nel mio stesso palazzo. Ovviamente ciò non è realistico: le persone hanno probabilità molto diverse di incontrarsi – e quindi contagiarsi – fra di loro. E non si tratta solo di un’eterogeneità geografica, ma anche di che tipo di interazioni si sviluppano dentro una società. C’è chi incontra decine di persone durante una giornata e chi fa una vita più ritirata e solitaria. C’è chi prende i mezzi pubblici e chi si sposta in auto. E così via. Riassumendo, molti di questi modelli partono da assunti che non rispecchiano davvero la vita reale. Questo porta a modelli che possono essere, a seconda dei casi, troppo pessimistici o troppo ottimistici. Un esempio molto chiaro è il fallimento dei modelli che cercavano di prevedere la domanda di posti letto negli ospedali”.
 
Quali conseguenze hanno avuto questi errori?
“Qui negli Stati Uniti si è sovrastimato il numero di letti necessari negli ospedali, e questo ha causato panico: anche coloro che avevano gravi malattie e necessitavano di trattamenti continui, ad esempio i pazienti in chemioterapia, si sono tenuti lontani dagli ospedali, o comunque è stata ridotta la loro priorità. Questo ha diminuito la loro aspettativa di vita. In certi stati come quello di New York e del New Jersey ci si aspettava un numero di ospedalizzazioni cinque volte superiore a quello iniziale, e così i governatori hanno deciso di ospitare gli infetti in condizioni non troppo serie nelle case di riposo, piene di persone ad alto rischio perché anziane. Con effetti disastrosi. Al di là di questi grossi errori di valutazione, rimane comunque il fatto che fare predizioni mentre la pandemia è in corso è oggettivamente molto difficile. Abbiamo molto spazio per migliorare sia le nostre conoscenze sul virus che la nostra capacità di trarre modelli davvero utili dai dati”.
 
Come possiamo migliorare le previsioni sul virus?
“Bisogna innanzitutto riconoscere, con una certa umiltà, il loro grado di incertezza, e comunicarlo a chi prende le decisioni. Poi dobbiamo creare modelli predittivi più robusti, combinando i punti di forza di più modelli. Oggi abbiamo dozzine di modelli, e ognuno di questi può avere una componente migliore rispetto agli altri. Bisogna creare un approccio d’insieme che ci permetta di combinare le componenti migliori dei singoli modelli esistenti. E poi abbiamo bisogno di dati migliori. Una parte dei dati che stiamo usando – ad esempio quelli sulle ospedalizzazioni – ancora non sono ben standardizzati e sono troppo frammentari. I dati dipendono dal tipo di test che si fa e da quanto è estensivo. Se facciamo pochi test, troviamo pochi contagi. Se ne facciamo molti, troviamo molti contagi. Ma tutti questi dati, con questa variabilità così aleatoria, non permettono di fare confronti affidabili tra luoghi diversi o anche tra momenti diversi nello stesso luogo. Anche i dati sui decessi, come abbiamo visto, sono molto opinabili. La maggior parte di coloro che muoiono con il Covid-19 hanno anche altre malattie: lo abbiamo visto ad esempio a inizio pandemia in Italia, dove il 98% dei deceduti aveva delle comorbidità, e lo vediamo nel resto d’Europa e negli Stati Uniti”.
 
Lei è famoso per gli articoli nei quali mostrava le fallacie della ricerca medica. Ha notato degli errori macroscopici negli studi che sono stati pubblicati in questi mesi sul Covid?
“Ci sono stati parecchi errori e questo, entro certi limiti, c’era da aspettarselo. Molti studi sono stati fatti su campioni troppo piccoli, e in molti casi ci sono stati pochi controlli intrecciati con altri ricercatori. Molti studi sono stati solo osservazionali, e ancora più studi si sono basati su modelli che, come abbiamo detto, si sono mostrati poco affidabili. La cima dell’iceberg sono stati gli studi con falsi dati – poi ritirati – come lo studio sull’idrossiclorochina su Lancet. Ma bisogna dire che la maggior parte degli studi fallaci non sembrano essere stati pubblicati in malafede: è solo scienza fatta in circostanze molto stressanti. Dove i ricercatori hanno dovuto concludere rapidamente il loro studio, incalzati dalla pandemia. Non c’è stato il tempo di riflettere di più e di evitare fallacie dovute alla fretta. La pandemia ha anche provocato un altro fenomeno: l’enorme interesse che si è creato sul Sars-Cov-2 ha fatto sì che un gran numero di scienziati che lavorano in campi diversi dall’epidemiologia, dalla virologia e dall’immunologia si siano dedicati allo studio del virus senza avere i fondamentali adatti a condurre queste ricerche e a interpretarne i risultati. Prendendo atto di tutte queste mancanze, potremo solo migliorare”.

Fonte: lastampa.it di Giuliano Aluffi

  • venerdì, 2 Ottobre 2020