Comment devrions-nous considérer les données cliniques biaisées dans l’apprentissage automatique médical ? Un appel pour une perspective archéologique


Des chercheurs du MIT, de l'Université Johns Hopkins et de l'Institut Alan Turing affirment que la gestion des données médicales biaisées dans les systèmes d'IA n'est pas aussi simple que le suggère l'adage « les déchets entrent, les déchets sortent ». Les modèles axés sur l’IA sont devenus populaires dans le secteur de la santé. Habituellement, lorsque les données sont biaisées, les gens tentent d’y remédier en collectant davantage de données auprès de groupes sous-représentés ou en créant des données synthétiques pour équilibrer les choses. Cependant, les chercheurs pensent que cette approche technique nécessite une vision plus large. Ils disent que nous devrions également prendre en compte les facteurs sociaux historiques et actuels. Ce faisant, nous pouvons lutter plus efficacement contre les préjugés en matière de santé publique. Les auteurs ont réalisé que nous traitons souvent les problèmes de données comme des désagréments techniques. Ils ont comparé les données à un miroir fissuré reflétant nos actions passées, ce qui pourrait ne pas montrer toute la vérité. Mais une fois que nous aurons compris notre histoire grâce aux données, nous pourrons travailler à l’amélioration de nos pratiques à l’avenir.

Dans le document intitulé «Considérer les données biaisées comme des artefacts informatifs dans les soins de santé assistés par l'IA», trois chercheurs affirment que nous devrions considérer les données médicales biaisées comme des artefacts précieux en archéologie ou en anthropologie. Ces artefacts révèlent des pratiques, des croyances et des valeurs culturelles qui ont conduit à des inégalités en matière de soins de santé. Par exemple, un algorithme largement utilisé supposait à tort que les patients noirs les plus malades avaient besoin des mêmes soins que les patients blancs en meilleure santé, car il ne prenait pas en compte l’inégalité d’accès aux soins de santé. Les chercheurs suggèrent qu’au lieu de simplement corriger les données biaisées ou de les éliminer, nous devrions utiliser une approche « artefacts ». Cela signifie reconnaître comment les facteurs sociaux et historiques influencent la collecte de données et le développement de l’IA clinique. Les informaticiens ne comprennent peut-être pas pleinement les aspects sociaux et historiques des données qu’ils utilisent. La collaboration est donc essentielle pour que les modèles d’IA fonctionnent bien pour tous les groupes du secteur de la santé.

Les chercheurs reconnaissent un défi dans l’approche basée sur les artefacts qui consiste à déterminer si les données ont été corrigées sur le plan racial, ce qui signifie qu’elles sont basées sur l’hypothèse que les corps des hommes blancs constituent la norme de comparaison. Ils mentionnent un exemple où une équation de mesure de la fonction rénale a été corrigée, en supposant que les Noirs ont plus de masse musculaire. Les chercheurs doivent être prêts à étudier ces corrections au cours de leurs recherches. Dans un autre article, des chercheurs ont découvert que l’inclusion de la race autodéclarée dans les modèles d’apprentissage automatique pouvait aggraver la situation des groupes minoritaires. La race autodéclarée est une construction sociale et n’est pas toujours utile. L’approche devrait dépendre des preuves disponibles.

Les ensembles de données biaisés ne doivent pas être conservés tels quels, mais ils peuvent être précieux lorsqu’ils sont traités comme des artefacts. Les chercheurs des National Institutes of Health (NIH) mettent l’accent sur la collecte de données éthiques. Comprendre les biais dans différents contextes peut aider à créer une meilleure IA pour des populations spécifiques. Cette approche peut également conduire à de nouvelles politiques visant à éliminer les préjugés. Les chercheurs travaillent toujours à résoudre les problèmes de santé actuels plutôt que de craindre d’hypothétiques problèmes d’IA à l’avenir.


Vérifiez Papier 1Papier 2, et Article de référenceTout le mérite de cette recherche revient aux chercheurs de ce projet. N'oubliez pas non plus de vous inscrire notre SubReddit de plus de 30 000 ML, Plus de 40 000 communautés Facebook, Chaîne Discorde, et Courriel, où nous partageons les dernières nouvelles en matière de recherche sur l'IA, des projets intéressants en matière d'IA et bien plus encore.

Si vous aimez notre travail, vous allez adorer notre newsletter.


Bhoumik Bhoumik Mhatre

Bhoumik Mhatre est un étudiant de troisième année UG à l'IIT Kharagpur poursuivant un programme B.tech + M.Tech en génie minier et une mineure en économie. Il est un passionné de données. Il effectue actuellement un stage de recherche à l'Université nationale de Singapour. Il est également associé chez Digiaxx Company. «Je suis fasciné par les développements récents dans le domaine de la science des données et j'aimerais faire des recherches à leur sujet.»




Lien source

Laisser une réponse

Votre adresse email ne sera pas publiée. Les champs requis sont indiqués *

Vous pouvez utiliser ces balises et attributs HTML : <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>

fr_FRFrench