I modelli Medical AI si basano su acronimi e potrebbero causare una diagnosi errata: The Tribune India

New York, 1 giugno

I modelli di intelligenza artificiale (AI) come gli umani tendono a cercare scorciatoie. Se la malattia viene rilevata con l’aiuto dell’IA, queste scorciatoie potrebbero portare a errori diagnostici se implementate in contesti clinici, avvertono i ricercatori.

Un team dell’Università di Washington negli Stati Uniti ha esaminato diversi modelli introdotti di recente come potenziali strumenti per il rilevamento accurato di Covid-19 da una radiografia del torace, nota come radiografia del torace.

I risultati, pubblicati sulla rivista Nature Machine Intelligence, mostrano che invece di apprendere la vera patologia medica, questi modelli si basano invece su un breve apprendimento per tracciare associazioni spurie tra fattori non correlati dal punto di vista medico e stato della malattia.

Di conseguenza, i modelli hanno ignorato gli indicatori clinicamente importanti e si sono invece basati su caratteristiche come i marcatori di testo o lo stato del paziente che erano specifici per ogni set di dati per prevedere se qualcuno aveva il Covid-19.

“In generale, un medico si aspetta che il rilevamento del virus Covid-19 dai raggi X si basi su modelli specifici nell’immagine che riflettono i processi della malattia”, ha detto il co-autore principale Alex DeGriff del programma di formazione per scienziati medici dell’Università del Wisconsin .

“ Ma piuttosto che fare affidamento su questi modelli, un sistema che utilizza l’apprendimento abbreviato, ad esempio, può giudicare che qualcuno è anziano e quindi concludere che è più probabile che sviluppi la malattia perché è più comune nei pazienti più anziani.

“La scorciatoia non è un errore in sé, ma il collegamento è inaspettato e opaco. Questo può portare a una diagnosi inappropriata”, ha detto DeGraf.

READ  Elon Musk propone di trasformare una navicella spaziale in un gigantesco telescopio spaziale

Leggi anche:

I ricercatori hanno affermato che l’apprendimento in breve è meno robusto della vera patologia medica e di solito significa che il modello non si generalizzerà bene al di fuori del contesto originale.

La combinazione della mancanza di forza e dell’opacità tipica del processo decisionale dell’IA potrebbe rendere questi modelli di intelligenza artificiale vulnerabili a una condizione nota come “confusione del caso peggiore”, a causa della mancanza di dati di formazione disponibili per una nuova malattia.

I ricercatori hanno notato che questo scenario aumenta la probabilità che i modelli si basino su scorciatoie piuttosto che apprendere la patologia sottostante della malattia dai dati di addestramento.

– Janz

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Torna in alto