Come dovremmo visualizzare i dati clinici distorti nel machine learning medico? Un appello per una prospettiva archeologica


I ricercatori del MIT, della Johns Hopkins University e dell’Alan Turing Institute sostengono che gestire i dati medici distorti nei sistemi di intelligenza artificiale non è così semplice come suggerisce il detto “spazzatura dentro, spazzatura fuori”. I modelli basati sull’intelligenza artificiale sono diventati popolari nel settore sanitario. Di solito, quando i dati sono distorti, le persone cercano di risolverlo raccogliendo più dati da gruppi sottorappresentati o creando dati sintetici per bilanciare le cose. Tuttavia, i ricercatori ritengono che questo approccio tecnico richieda una visione più ampia. Dicono che dovremmo considerare anche i fattori sociali storici e attuali. In questo modo, possiamo contrastare i pregiudizi nella sanità pubblica in modo più efficace. Gli autori si sono resi conto che spesso trattiamo i problemi relativi ai dati come fastidi tecnici. Hanno confrontato i dati con uno specchio rotto che riflette le nostre azioni passate, che potrebbe non mostrare tutta la verità. Ma una volta compresa la nostra storia attraverso i dati, possiamo lavorare per affrontare e migliorare le nostre pratiche in futuro.

Nel documento intitolato “Considerare i dati distorti come artefatti informativi nell’assistenza sanitaria assistita dall’intelligenza artificiale”, tre ricercatori sostengono che dovremmo considerare i dati medici distorti come preziosi artefatti in archeologia o antropologia. Questi artefatti rivelano pratiche, credenze e valori culturali che hanno portato a disuguaglianze sanitarie. Ad esempio, un algoritmo ampiamente utilizzato presupponeva erroneamente che i pazienti neri più malati avessero bisogno delle stesse cure dei pazienti bianchi più sani perché non considerava un accesso ineguale all’assistenza sanitaria. I ricercatori suggeriscono che invece di limitarsi a correggere i dati distorti o scartarli, dovremmo utilizzare un approccio basato sugli “artefatti”. Ciò significa riconoscere come i fattori sociali e storici influenzano la raccolta dei dati e lo sviluppo dell’IA clinica. Gli informatici potrebbero non cogliere appieno gli aspetti sociali e storici dietro i dati che utilizzano, quindi la collaborazione è essenziale per far sì che i modelli di intelligenza artificiale funzionino bene per tutti i gruppi nel settore sanitario.

I ricercatori riconoscono una sfida nell’approccio basato sugli artefatti che riesce a capire se i dati sono stati corretti dal punto di vista razziale, nel senso che si basano sul presupposto che i corpi maschili bianchi siano lo standard per il confronto. Menzionano un esempio in cui è stata corretta un'equazione di misurazione della funzionalità renale, presupponendo che i neri abbiano più massa muscolare. I ricercatori devono essere pronti a indagare su tali correzioni durante la loro ricerca. In un altro articolo, i ricercatori hanno scoperto che includere la razza auto-riferita nei modelli di apprendimento automatico può peggiorare le cose per i gruppi minoritari. La razza autodichiarata è un costrutto sociale e potrebbe non essere sempre d’aiuto. L’approccio dovrebbe dipendere dalle prove disponibili.

I set di dati distorti non dovrebbero essere mantenuti così come sono, ma possono essere preziosi se trattati come artefatti. I ricercatori del National Institutes of Health (NIH) sottolineano la raccolta etica dei dati. Comprendere i pregiudizi in diversi contesti può aiutare a creare una migliore intelligenza artificiale per popolazioni specifiche. Questo approccio può anche portare a nuove politiche per eliminare i pregiudizi. I ricercatori stanno ancora lavorando per affrontare gli attuali problemi sanitari piuttosto che temere ipotetici problemi di intelligenza artificiale in futuro.


Dai un'occhiata a Carta 1Carta 2, E Articolo di riferimentoTutto il merito di questa ricerca va ai ricercatori di questo progetto. Inoltre, non dimenticare di iscriverti il nostro subReddit da 30k+ ML, Oltre 40.000 comunità Facebook, Canale Discordia, E Newsletter via e-mail, dove condividiamo le ultime notizie sulla ricerca sull'intelligenza artificiale, interessanti progetti sull'intelligenza artificiale e altro ancora.

Se ti piace il nostro lavoro, adorerai la nostra newsletter..


bhoumik Bhoumik Mhatre

Bhoumik Mhatre è uno studente UG del terzo anno presso l'IIT Kharagpur che persegue il programma B.tech + M.Tech in ingegneria mineraria e una specializzazione in economia. È un appassionato di dati. Attualmente sta svolgendo uno stage di ricerca presso l'Università Nazionale di Singapore. È anche partner della Digiaxx Company. "Sono affascinato dai recenti sviluppi nel campo della scienza dei dati e mi piacerebbe fare ricerche al riguardo."




Collegamento alla fonte

lascia un commento

L'indirizzo email non verrà pubblicato. I campi richiesti sono contrassegnati *

Puoi utilizzare questi tag e attributi HTML : <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>

it_ITItalian