Intelligenza artificiale e Salute
Getting your Trinity Audio player ready...
|
L’intelligenza artificiale (IA) è piombata in maniera fulminea quanto prorompente, e direi dirompente, nella nostra vita e la sta sconvolgendo giorno dopo giorno, ineluttabilmente. Una rivoluzione a cui, come è avvenuto altre volte nella storia dell’uomo, non ci si può e deve opporre ma bisogna governare per sfruttare al meglio i suoi benefici e minimizzare gli effetti negativi. Troppo veloci i suoi progressi per essere disciplinata o ristretta in ambiti normativi.
I campi di applicazione e le potenzialità dell’IA sono al momento inimmaginabili, e non è possibile prevedere cosa riusciremo a fare quando le nostre menti saranno amplificate dall’intelligenza artificiale. Certo è che oggi, la quantità di dati generati, sia dagli esseri umani che dalle macchine e dalle applicazioni tecnologiche, supera di gran lunga la capacità degli stessi esseri umani di assimilare, interpretare e prendere decisioni complesse su di essi. Ecco allora che l’IA può venire incontro alle esigenze dell’uomo offrendo numerosi vantaggi:
- Efficienza e velocità. I sistemi di intelligenza artificiale hanno la capacità di elaborare enormi quantità di dati e informazioni, a velocità sorprendenti e con una precisione elevata. Ciò significa che per esempio i lavori che richiedono la raccolta e l’analisi di grandi quantità di dati possono essere eseguiti in modo molto più efficiente ed in meno tempo rispetto al lavoro umano. L’IA può anche automatizzare compiti ripetitivi e noiosi, liberando così i lavoratori da mansioni monotone e consentendogli di concentrarsi su compiti più creativi e stimolanti.
- Miglioramento della qualità del lavoro. L’IA può aiutare a migliorare la qualità del lavoro in molti settori, come la medicina e la ricerca scientifica, l’agricoltura e la produzione industriale. E, in fondo, già lo fa da anni. Il boom dei cosiddetti LLM ha solo reso visibile ciò che in chiave industriale e di ricerca si fa da tempo. Ad esempio, l’IA può aiutare a identificare malattie o condizioni di salute prima che diventino gravi, migliorando così le possibilità di intervenire tempestivamente e guarire. In agricoltura, l’IA può essere utilizzata per identificare le colture che richiedono maggiori attenzioni, fornendo così un modo per migliorare la resa dei campi e aumentare la produzione limitando l’impiego di prodotti chimici. Nella produzione, l’IA può aiutare a identificare eventuali problemi nelle catene di montaggio e a prevenire guasti o interruzioni.
- Personalizzazione. L’IA può essere utilizzata per personalizzare i servizi e le esperienze degli utenti, qualsiasi essi siano. Ad esempio, i siti web possono utilizzare l’IA per suggerire prodotti o servizi in base alle preferenze dei clienti o assisterli in modo veramente efficace rispetto a quanto fatto fino a oggi dai chatbot[1] banali di prima generazione. In generale, tutto ciò che i servizi digitali ci suggeriscono oggi potrà essere cucito su misura in modo ancora più preciso e creativo.
- Risparmio di tempo e denaro. I sistemi IA, che poi si concretizzeranno (come sta già accadendo, da Shopify a Expedia, etc.) dentro app, piattaforme e motori di ricerca, possono aiutare a risparmiare tempo e denaro. Ad esempio, l’IA può automatizzare meglio di quanto oggi non avvenga procedure lunghe e che richiedono tempo come la fatturazione e la contabilità. L’IA può anche essere utilizzata per ridurre i costi nella produzione, identificando modi invisibili alla comune analisi dei dati o dei flussi per migliorare l’efficienza e ridurre gli sprechi.
- Opportunità di lavoro. Indubbiamente, la diffusione dell’IA comporterà la perdita di posti di lavoro, o almeno di alcune tipologia di lavori; circa 300 milioni di posizioni lavorative full time andranno perdute secondo uno studio di Goldman Sachs (“The Potentially Large Effects of Artificial Intelligence on Economic Growth”). E’ altresì ben più probabile che – come nell’automazione industriale – l’IA si affiancherà a ruoli più formati. Non solo: creerà nuove opportunità di lavoro aprendo scenari interessanti su quale possa essere il futuro del mondo del lavoro. Infine, ultima considerazione non da poco, l’IA dovrebbe far crescere il Pil mondiale di circa il 7%.
In campo sanitario, le IA hanno un impatto significativo non solo sulla cura dei pazienti, perché permettono a medici e personale interessato di diagnosticare le malattie e fornire un piano terapeutico in maniera più accurata, ma anche sul lavoro degli amministratori, perché consentono loro di distribuire le risorse mediche in maniera precisa e puntuale. Questo va a vantaggio delle tre macrocategorie che compongono il mercato sanitario: l’applicazione dell’assistenza sanitaria (scienze della vita), l’erogazione dell’assistenza sanitaria (prestatori di servizi sanitari) e la fruizione dell’assistenza sanitaria (contribuenti). Per quanto attiene questi ultimi, di particolare interesse per l’IA la gestione tecnico-amministrativa (cartelle cliniche o fascicolo sanitario, prenotazione ricoveri o visite, registri dei tumori, etc.), la rilevazione dei fabbisogni epidemiologici e dei rischi epidemici sui quali programmare e redigere la mappa degli interventi di prevenzione, la diagnostica clinica, la diagnostica per immagini, i percorsi diagnostici e terapeutici, la ricerca farmacologica, e via dicendo. Sarà utile nella chirurgia, ad opera della robotica che diventerà sempre più assistita dalla IA, che diventerà sempre più perfezionata e precisa.
Pur tuttavia, al di là del giustificato entusiasmo per l’abilità di una macchina di mostrare capacità umane, esistono dubbi e perplessità circa il loro uso che hanno originato un dibattito ancora in corso in merito all’affidabilità del sistema. Numerosi i rischi ed i problemi, non solo di carattere sociale ed etico, a cui la Autorità di competenza, i vari governi, le istituzioni sovranazionali, le componenti sociali e il mondo scientifico stanno cercando di dare delle risposte.
Senza dubbio, al di là di tutte le considerazioni, il contributo della creatività umana è insostituibile, e i grossolani errori che sistemi come ChatGPT compiono lo dimostrano in modo evidente. L’IA illude l’utente di essere onniscente ma può in realtà condurre a decisioni sbagliate e spesso irrimediabili, che possono avere conseguenze negative non solo per i cittadini e la loro salute. Vincerà chi riuscirà a sfruttarne le potenzialità in chiave ancillare e di supporto. Inoltre, il mantenimento di strutture per l’IA e l’aggiornamento richiedono enormi risorse (non a caso ChatGPT è, per esempio, ferma al momento nelle sue conoscenze alla fine del 2021).
Alcuni dubbi sono di difficile soluzione. Si tratta pur sempre di modelli che si adattano a tutti i tipi di attività umana, purché adeguatamente addestrati.
Tra questi la considerazione che l’utente (ma in certi casi lo stesso progettista) non è in grado di valutare i criteri e l’affidabilità delle decisioni/azioni assunte da un sistema/applicazione IA (S-IA). Per rispondere a tale problema da tempo varie organizzazioni, ma in particolare dal 2017 il Darpa (Defense Advanced Research Projects Agency) del governo USA, stanno considerando la tecnologia XAI (Explainable AI) che si propone proprio di rendere consapevole l’utente di come opera un S-AI, ovvero di dare un valore concreto all’IA Spiegabile.
L’Organizzazione Mondiale della Sanità (OMS) ha preso posizione sull’impiego di strumenti di modelli linguistici di grandi dimensioni (LLM)[2] generati dall’intelligenza artificiale (IA) per proteggere e promuovere il benessere umano, la sicurezza umana e l’autonomia e preservare la salute pubblica. E lo ha fatto invitando alla massima attenzione sul loro uso per garantire sicurezza ed eticità in ogni campo di intervento riguardante la salute delle persone.
L’O.M.S. da una parte plaude alle opportunità offerte dalle nuove tecnologie, dall’altra ritiene “imperativo che i rischi siano esaminati attentamente quando si utilizzano i LLM per migliorare l’accesso alle informazioni sulla salute, come strumento di supporto decisionale o anche per migliorare la capacità diagnostica in contesti con risorse insufficienti per proteggere la salute delle persone e ridurre le disuguaglianze”.
Mancando un’autorità transnazionale di governo esiste sempre la possibilità che determinati dati utilizzati per addestrare l’IA possano essere distorti per interessi molto particolari e poco etici, generando informazioni fuorvianti o imprecise che potrebbero comportare rischi per la salute, l’equità e l’inclusione. In questo caso, gli LLM generano risposte che possono apparire autorevoli e plausibili a un utente finale; tuttavia, queste risposte possono essere completamente errate o contenere gravi errori, soprattutto per le risposte relative alla salute.
Gli LLM potrebbero essere addestrati su dati per i quali il consenso potrebbe non essere stato fornito in precedenza per tale utilizzo e gli LLM potrebbero non proteggere i dati sensibili (inclusi i dati sanitari) che un utente fornisce a un’applicazione per generare una risposta.
Gli LLM potrebbero essere utilizzati in modo improprio per generare e diffondere disinformazione altamente convincente sotto forma di contenuti testuali, audio o video difficili da distinguere per il pubblico da contenuti sanitari affidabili.
Per tentare di prevenire detti rischi, l’Oms è già intervenuta sulla questione nel giugno 2021 pubblicando una vera e propria Guida sull’etica e la governance dell’IA[3] per la salute dove sono stati indicati 6 principi fondamentali da seguire e che oggi l’Oms conferma:
- Proteggere l’autonomia umana. L’uso dell’intelligenza artificiale può portare a situazioni in cui il potere decisionale rischia di essere trasferito alle macchine. Il principio di autonomia richiede che l’uso di queste tecnologie o di altri sistemi computazionali non pregiudichi la volontà decisionale umana. Nel caso specifico dell’assistenza sanitaria, gli esseri umani dovrebbero mantenere il controllo dei sistemi sanitari e delle decisioni mediche. Il che comporta pure l’obbligo di garantire che i medici o i professionisti del settore dispongano delle informazioni necessarie per fare un uso sicuro ed efficace delle applicazioni dotate di intelligenza artificiale e che le persone comprendano il ruolo che tali sistemi svolgono nelle loro cure. Inoltre, la privacy e la riservatezza dovrebbero essere protette e i pazienti devono fornire un valido consenso informato attraverso adeguati quadri legali per la protezione dei dati.
- Promuovere il benessere e la sicurezza delle persone nell’interesse pubblico. Le tecnologie dotate di intelligenza artificiale non dovrebbero mai mettere a rischio il benessere delle persone. I progettisti di tecnologie di intelligenza artificiale dovrebbero soddisfare i requisiti normativi di sicurezza, accuratezza ed efficacia, ben definendone casi d’uso e indicazioni. Dovrebbero essere, inoltre, disponibili procedure pratiche di controllo della qualità e di miglioramento delle performance nell’uso di queste nuove applicazioni nel tempo.
- Garantire trasparenza, spiegabilità e intelligibilità. La trasparenza richiede che siano pubblicate o documentate informazioni sufficienti prima della progettazione o dell’implementazione di una tecnologia di intelligenza artificiale. Tali informazioni devono essere facilmente accessibili e facilitare una consultazione pubblica e un dibattito significativi su come è progettata la tecnologia e su come dovrebbe o non dovrebbe essere utilizzata.
- Promuovere responsabilità (responsability) e responsabilizzazione (accountability). È necessario specificare alle persone in modo chiaro e trasparente quali sono i compiti che i sistemi possono eseguire e le condizioni in cui si possono ottenere le prestazioni desiderate. Sebbene le tecnologie di intelligenza artificiale svolgano mansioni specifiche, è responsabilità di tutti gli attori interessati, ma soprattutto delle istituzioni, garantire che queste siano utilizzate in condizioni appropriate e da persone adeguatamente formate. La responsabilità può essere assicurata dall’applicazione della “garanzia umana“, che implica l’inclusione della valutazione da parte di pazienti e medici nel loro sviluppo e nella loro implementazione. Inoltre, richiede anche l’applicazione di principi normativi a monte e a valle dell’algoritmo, stabilendo quali sono i punti di supervisione umana. Se qualcosa va storto, deve esserci una chiara e ben prestabilita responsabilità legale. A tal proposito è importante che siano disponibili meccanismi appropriati di tutela degli individui (o dei gruppi) che potrebbero essere influenzati negativamente dalle decisioni basate sugli algoritmi.
- Garantire inclusività ed equità. L’inclusività richiede che l’IA per la salute sia progettata per incoraggiare l’uso e l’accesso più equo possibile, indipendentemente da età, sesso, genere, reddito, razza, etnia, orientamento sessuale, abilità o altre caratteristiche protette dai codici dei diritti umani. Le tecnologie di intelligenza artificiale dovrebbero ridurre al minimo le inevitabili disparità di potere che sorgono tra i fornitori di servizi sanitari e i pazienti, tra responsabili politici e persone e tra le aziende che implementano queste tecnologie e i governi che le utilizzano o fanno affidamento su di esse. Ma c’è di più. Il loro utilizzo dovrebbe essere monitorato e valutato per identificare effetti sproporzionati su gruppi specifici di persone. Nessuna tecnologia dovrebbe sostenere o peggiorare le forme esistenti di pregiudizio e discriminazione.
- Promuovere un’IA reattiva e sostenibile. I progettisti, gli sviluppatori e gli utenti dovrebbero valutare in modo continuo e trasparente le applicazioni IA durante l’uso effettivo per determinare se l’IA risponde in modo adeguato e appropriato alle aspettative e alle esigenze. La reattività presuppone inoltre che le tecnologie siano coerenti con una più ampia promozione della sostenibilità dei sistemi sanitari, degli ambienti e dei luoghi di lavoro.
I sistemi di IA dovrebbero anche essere progettati per ridurre al minimo le loro conseguenze ambientali e aumentare l’efficienza energetica. I governi e le aziende dovrebbero affrontare le interruzioni previste sul posto di lavoro, compresa la formazione degli operatori sanitari per adattarsi all’uso dei sistemi di intelligenza artificiale e le potenziali perdite di posti di lavoro dovute all’uso di sistemi automatizzati.
Se l’intelligenza artificiale sarà in grado di promuovere gli interessi dei pazienti e delle comunità, dipende soprattutto da uno sforzo collettivo per progettare (e attuare) leggi e politiche eticamente difendibili e tecnologie che le rispettino e ne condividano i valori. Nel caso in cui i principi etici e gli obblighi in materia di diritti umani non dovessero essere la priorità per chi finanzia, progetta, regola o semplicemente utilizza le tecnologie di intelligenza artificiale per la salute, la società intera incorrerebbe in potenziali gravi conseguenze negative. Sicuramente, l’Organizzazione mondiale della sanità ha messo a disposizione linee guida etiche che potranno essere utili al processo. Le opportunità e le sfide sono quindi indissolubilmente legate.
[1] software che simula ed elabora le conversazioni umane (scritte o parlate), consentendo agli utenti di interagire con i dispositivi digitali come se stessero comunicando con una persona reale
[2] Gli LLM sono modelli di machine learning molto efficaci nello svolgere compiti associati al linguaggio, come traduzioni, risposte a domande, chat e riassunto di contenuti, oltre a generazione di contenuti e codici. In altri termini, i modelli linguistici sono reti neurali realizzate sulla base di un’elevata quantità di dati linguistici al fine di prevedere la parola successiva in una frase. In questo modo il modello può apprendere il rapporto tra parole e frasi in una lingua e generare nuovo testo, tradurre da una lingua all’altra ed eseguire altre attività di elaborazione del linguaggio naturale, ad esempio rispondere a domande, classificare o riepilogare. In parole povere, l’IA anticipa i desideri delle persone sulla base di un numero significativo di dati linguistici. Potrebbe esserti capitato di imbatterti in un modello linguistico sotto forma di correzione automatica o generazione di testi in Google Docs.
I modelli linguistici di prima generazione avevano però un inconveniente, cioè dovevano essere istruiti per ogni attività specifica, il che comportava ore e ore di lavoro manuale per insegnare ai modelli IA personalizzati come eseguire una determinata attività.
Il passaggio naturale successivo è stato segnato dai modelli linguistici di grandi dimensioni, ovvero modelli di IA con reti neurali significativamente più grandi, precedentemente istruiti sulla base di grandi set di dati linguistici, cioè reti neurali oltre 1.000 volte superiori. I modelli sono quindi capaci di svolgere un’ampia gamma di attività senza che sia necessaria un’ulteriore formazione. Queste reti neurali artificiali sono progettate per riflettere la complessità del cervello umano, dunque più grande è la rete, maggiore è la potenza cerebrale.
[3] https://www.who.int/publications/i/item/9789240029200