L'intelligenza artificiale, in tutte le sue diverse sfaccettature e applicazioni, è ormai entrata di prepotenza nel bagaglio pratico del medico oculista ma, a fronte di un grande entusiasmo, come sempre accade per le nuove scoperte scientifiche, si aprono anche prospettive critiche.
Come armonizzare il progresso con il rispetto dei principi etici che devono sempre ispirare l’attività clinica? Innanzitutto va detto che non è affatto semplice definire il concetto di intelligenza artificiale (IA).
Il termine ‘intelligenza’ è descrittivo delle funzioni della macchina simili al comportamento umano ma, per la prima volta, abbiamo a che fare con tecnologie che, a loro volta, sono utilizzatori autonomi di altre tecnologie.
Dati e algoritmi rappresentano gli elementi identificativi della capacità di apprendimento (machine learning) che permette di scoprire le relazioni nascoste tra i dati e la connessione delle informazioni (algoritmi). Il cosiddetto deep learning imita il cervello umano estraendo dei significati da grandissime quantità di dati, copiando il sistema neuronale.
I modelli di deep learning sono stati utilizzati, ad esempio, in uno studio congiunto della City of London University e dell’Università di Washington al fine di prevedere le aree della visione compromesse in futuro dal glaucoma.
Senza dubbio l’IA può aiutare il professionista in termini di riduzione dell’incertezza diagnostica (prevenzione, classificazione e stratificazione delle condizioni del paziente), fisiopatologica (cause e modalità di sviluppo delle malattie), terapeutica (trattamento più appropriato), prognostica.
La possibilità d’immagazzinare un numero impressionante d’immagini di pazienti colpiti da glaucoma, attraverso tomografia ottica e spettroscopia infrarossa, consente all’IA di riconoscere alcuni elementi all’interno dell’immagine e di elaborarli al fine di prevedere l’evoluzione della malattia. Ad oggi i modelli di deep learning hanno un valore predittivo e non clinico ma indubbiamente poter elaborare i dati provenienti da oltre seimila pazienti arruolati in tre centri diversi ha costituito un passo avanti importante nella ricerca.
Quanto sono affidabili le previsioni dell’IA? Lo sono in misura dell’appropriatezza e adeguatezza dei dati e degli algoritmi impiegati con cui il sistema viene addestrato. Mentre i compiti percettivi quali la visione artificiale e il riconoscimento del linguaggio hanno già raggiunto livelli considerevoli, la cosiddetta capacità logica, basata sulla concatenazione del ragionamento umano, appare aperta a una serie di criticità non ancora facilmente risolvibili.
Gli algoritmi, di per sé, potrebbero essere ritenuti neutri in quanto rappresentati attraverso sistemi matematici misurabili. Il punto critico è dato dall’attività umana: è l’uomo che raccoglie e seleziona i dati e struttura gli algoritmi, creando un sistema di IA che può essere ‘opaco’: significa che non sempre i passaggi con cui s’interpretano i dati sono trasparenti e possono fornire risultati discriminatori.
In sostanza, non sempre i processi utilizzati dalla macchina sono spiegabili e di conseguenza il risultato raggiunto è inficiato da tale mancanza di chiarezza. Senza dubbio l’IA può aiutare il professionista in termini di riduzione dell’incertezza diagnostica (prevenzione, classificazione e stratificazione delle condizioni del paziente), fisiopatologica (cause e modalità di sviluppo delle malattie), terapeutica (trattamento più appropriato), prognostica.
L’identificazione della retinopatia diabetica, la degenerazione della retina e della macula sono campi di applicazione già presenti nell’oftalmologia odierna, così come nella sperimentazione dei farmaci, nell’analisi di big data in genomica e nei robot chirurgici.
Adeguatamente utilizzata l’IA sarà di grande aiuto, come lo è stata recentemente durante la pandemia, nell’ambito medico-sanitario purché non sostituisca mai il ruolo del medico e non escluda la relazione con il paziente. Ricordando il criterio di responsabilità decisionale del professionista, questi non potrà mai delegare le decisioni di sua competenza alla tecnologia garantendo sempre le quattro componenti che caratterizzano l’interazione con il malato: deep phenotypizing, deep learning, deep empathy and connection.
Una criticità importante è data dalla validazione degli algoritmi, che possono influenzare le decisioni del medico, privilegiando un percorso diagnostico o la prescrizione di una determinata classe di farmaci.
Per ottenere un livello di sicurezza ottimale sotto questo profilo, il Comitato Nazionale per la Bioetica ritiene necessario sottoporre tutti i ‘prodotti’ dell’IA a studi condotti secondo le regole degli studi clinici controllati ai fini dell’efficacia e della sicurezza. Un secondo aspetto problematico riguarda la disponibilità, l’accuratezza e la qualità dei dati, indispensabili per il training della macchina ed elementi base degli algoritmi. Senza dubbio la normativa sulla privacy e sulla riservatezza ostacola lo sviluppo dell’IA che, per contro, necessita di disporre di dati su larga scala, senza limiti nazionali, e di poterli conservare nel tempo.
Una criticità importante è data dalla validazione degli algoritmi, che possono influenzare le decisioni del medico, privilegiando un percorso diagnostico o la prescrizione di una determinata classe di farmaci.
Al singolo operatore, poi, deve interessare anche il profilo della responsabilità giuridica civile e penale, considerando, primariamente, l’informazione e il consenso del paziente come elemento essenziale. Trasferire le conoscenze in materia di IA e mediare la comunicazione utilizzando termini di facile e immediata comprensione potrebbe essere un ulteriore e impegnativo compito che il medico deve assolvere. Se l’IA può concretamente ridurre l’errore, soprattutto nelle procedure routinarie, può altresì esserne la causa se mal programmata o male utilizzata. In questo caso entrerebbero in campo i ruoli del produttore, del progettista, del programmatore, del venditore oltre a quello del medico. L’IA ha un autore che la crea e che non coincide con il produttore del bene che la incorpora. Indubbiamente ogni situazione deve essere attentamente soppesata e valutata per capire in quale punto della catena di comando si è verificata la falla.
Un’esigenza che oggi si sente particolarmente pressante è data dalla preparazione di operatori sanitari attraverso percorsi formativi validi che coinvolgano anche altre figure professionali quali ingegneri, informatici, sviluppatori per condividere i principi etici del disegno delle tecnologie orientandole a incorporare i valori di sicurezza, efficacia e tutela del paziente.