Share This:

La capacità di DeepMind di diagnosticare il cancro al seno

In uno studio pubblicato da alcuni ricercatori Google sulla rivista “Nature” è stata valutata la capacità del sistema di Intelligenza Artificiale DeepMind (realizzato dalla società omonima appartenente al gruppo Google) di diagnosticare il cancro al seno a partire unicamente dalle mammografie, senza disporre dello storico delle pazienti. Tali risultati sono poi stati confrontati con i referti medici effettuati dai medici umani.

Lo studio di Google si è basato su un set di dati non identificativi provenienti dalle mammografie di oltre 76 mila donne nel Regno Unito e oltre 15 mila donne negli Stati Uniti. Rispetto al lavoro degli esperti, l’IA di Google è riuscita a ridurre significativamente il numero di falsi positivi (del 5,7 per cento negli Stati Uniti e dell’1,2 per cento nel Regno Unito) nonché di falsi negativi (del 9,4 per cento negli Stati Uniti e del 2,7 per cento nel Regno Unito).

A quanto pare, perciò, DeepMind si è dimostrata più abile degli esperti umani nel diagnosticare il cancro al seno a partire dall’analisi delle mammografie effettuate sulle pazienti e lo ha fatto avendo accesso a meno informazioni rispetto ai medici umani, che erano a conoscenza dello storico della salute delle pazienti e disponevano delle loro precedenti mammografie. Questo fattore rende il risultato ancora più significativo.

I risultati di DeepMind di Google sulla diagnosi del cancro al polmone

Il sistema di Intelligenza Artificiale DeepMind non è nuovo a questo tipo di ricerca: Google già nella primavera del 2019 aveva proceduto con l’inserirenel sistema oltre 42.000 immagini acquisite mediante tomografia computerizzata (TAC) del torace, per “allenare” DeepMind a riconoscere le lesioni polmonari che possono nascondere un tumore. Il sistema ha quindi raffinato il proprio algoritmo per essere in grado di valutare se un paziente ha effettivamente un tumore del polmone.

Questa precedente ricerca aveva già fornito risultati esemplari, permettendo di ottenere l’11 per cento di risultati falsi positivi in meno (paziente sano a cui viene erroneamente diagnosticato un tumore) e il 5 per cento di falsi negativi in meno (paziente con tumore che viene classificato come sano) rispetto a quando le stesse immagini sono state analizzate da un radiologo esperto.

DeepMind soppianterà i medici umani?

Possiamo quindi mandare in pensione i radiologi? Non proprio, perché la superiorità della macchina sull’uomo si conferma solo quando viene analizzata una immagine per volta. Quando si devono invece confrontare una TAC recente e una più vecchia (quindi quando si devono scovare le differenze tra due immagini), la performance dell’algoritmo e quella del radiologo esperto si equivalgono. Non a caso gli stessi autori della rivista Nature hanno concluso la loro ricerca dicendo che l’Intelligenza Artificiale, ad oggi, “crea l’opportunità per ottimizzare il processo di screening mediante assistenza da parte del computer e automazione”. Assistenza e non sostituzione, e solo in fase di screening, ovvero nel momento in cui si esamina una persona che non presenta sintomi e che non si è sottoposta in precedenza ad altre analisi.

Le problematiche riguardo all’uso dell’AI in medicina

Un primo punto critico dell’uso dell’Intelligenza Artificiale in medicina riguarda la validazione degli algoritmi (cioè la determinazione degli ambiti in cui sono effettivamente affidabili). Servono studi che provino che lo strumento sviluppato possa essere utilizzato nella vita reale.

I modelli creati dall’AI, infatti, potrebbero non essere applicabili a tutti i gruppi di pazienti che un medico incontra nella propria pratica quotidiana. Inoltre, i dati prodotti dalle diverse istituzioni possono essere eterogenei o di scarsa qualità: la bontà del risultato dell’apprendimento della macchina dipende anche dal materiale con cui viene istruita.

Da ultimo, “Sebbene queste tecnologie promettano di aumentare la produttività e migliorare i risultati, bisogna ricordare che, proprio come i loro creatori umani, non sono infallibili” ha spiegato Benjamin H. Kann della Yale School of Medicine. “È necessario introdurle con un occhio critico, tenendo a mente i loro limiti, che devono essere conosciuti anche dalle autorità responsabili dei processi decisionali e dell’organizzazione dei sistemi sanitari.”

Articoli su tematiche simili:

Su questo sito utilizziamo strumenti nostri o di terze parti che memorizzano piccoli file (cookie) sul tuo dispositivo. I cookie sono normalmente usati per permettere al sito di funzionare correttamente (cookie tecnici), per generare statistiche di uso/navigazione (cookie statistici) e per pubblicizzare opportunamente i nostri servizi/prodotti (cookie di profilazione). Possiamo usare direttamente i cookie tecnici, ma hai il diritto di scegliere se abilitare o meno i cookie statistici e di profilazione. Abilitando questi cookie, ci aiuti ad offrirti una esperienza migliore . Scopri di più qui

Leggi articolo precedente:
Nuove tecniche identificative alternative al riconoscimento facciale

Oltre alle classiche telecamere di sorveglianza più o meno sofisticate, oggi esistono anche altri metodi per riconoscere e tracciare soggetti...

Chiudi