¿Cómo deberíamos ver los datos clínicos sesgados en el aprendizaje automático médico? Un llamado a una perspectiva arqueológica


Investigadores del MIT, la Universidad Johns Hopkins y el Instituto Alan Turing sostienen que lidiar con datos médicos sesgados en sistemas de inteligencia artificial no es tan simple como sugiere el dicho "basura entra, basura sale". Los modelos basados en IA se han vuelto populares en la industria de la salud. Por lo general, cuando los datos están sesgados, la gente intenta solucionarlo recopilando más datos de grupos subrepresentados o creando datos sintéticos para equilibrar las cosas. Sin embargo, los investigadores creen que este enfoque técnico necesita una visión más amplia. Dicen que deberíamos considerar también los factores sociales históricos y actuales. Al hacer esto, podemos abordar los prejuicios en la salud pública de manera más efectiva. Los autores se dieron cuenta de que a menudo tratamos los problemas de datos como molestias técnicas. Compararon los datos con un espejo roto que refleja nuestras acciones pasadas, que podría no mostrar toda la verdad. Pero una vez que comprendamos nuestra historia a través de los datos, podremos trabajar para abordar y mejorar nuestras prácticas en el futuro.

En el artículo titulado “Consideración de datos sesgados como artefactos informativos en la atención médica asistida por IA”, tres investigadores sostienen que deberíamos ver los datos médicos sesgados como artefactos valiosos en arqueología o antropología. Estos artefactos revelan prácticas, creencias y valores culturales que han llevado a desigualdades en la atención médica. Por ejemplo, un algoritmo ampliamente utilizado asumió erróneamente que los pacientes negros más enfermos necesitaban la misma atención que los pacientes blancos más sanos porque no consideraba el acceso desigual a la atención médica. Los investigadores sugieren que en lugar de simplemente corregir datos sesgados o descartarlos, deberíamos utilizar un enfoque de "artefactos". Esto significa reconocer cómo los factores sociales e históricos influyen en la recopilación de datos y el desarrollo de la IA clínica. Es posible que los científicos informáticos no comprendan completamente los aspectos sociales e históricos detrás de los datos que utilizan, por lo que la colaboración es esencial para que los modelos de IA funcionen bien para todos los grupos de atención médica.

Los investigadores reconocen un desafío en el enfoque basado en artefactos que determina si los datos han sido corregidos racialmente, lo que significa que se basan en la suposición de que los cuerpos masculinos blancos son el estándar para la comparación. Mencionan un ejemplo en el que se corrigió una ecuación de medición de la función renal, asumiendo que las personas de raza negra tienen más masa muscular. Los investigadores deben estar preparados para investigar tales correcciones durante su investigación. En otro artículo, los investigadores descubrieron que incluir la raza autoinformada en los modelos de aprendizaje automático puede empeorar las cosas para los grupos minoritarios. La raza autoinformada es una construcción social y es posible que no siempre ayude. El enfoque debe depender de la evidencia disponible.

Los conjuntos de datos sesgados no deben conservarse como están, pero pueden resultar valiosos si se tratan como artefactos. Los investigadores de los Institutos Nacionales de Salud (NIH) enfatizan la recopilación de datos ética. Comprender los sesgos en diferentes contextos puede ayudar a crear una mejor IA para poblaciones específicas. Este enfoque también puede conducir a nuevas políticas para eliminar los sesgos. Los investigadores todavía están trabajando para abordar los problemas sanitarios actuales en lugar de temer problemas hipotéticos de IA en el futuro.


Revisar la Documento 1Documento 2, y Artículo de referenciaTodo el crédito por esta investigación va a los investigadores de este proyecto. Además, no olvides unirte. nuestro SubReddit de más de 30.000 ml, Comunidad de Facebook de más de 40.000 personas, Canal de discordia, y Boletín electrónico, donde compartimos las últimas noticias sobre investigaciones de IA, interesantes proyectos de IA y más.

Si te gusta nuestro trabajo, te encantará nuestra newsletter.


bhoumik bhoumik mhatre

Bhoumik Mhatre es un estudiante de tercer año de la UG en IIT Kharagpur y cursa el programa B.tech + M.Tech en Ingeniería de Minas y especialización en economía. Es un entusiasta de los datos. Actualmente realiza una pasantía de investigación en la Universidad Nacional de Singapur. También es socio de Digiaxx Company. "Me fascinan los avances recientes en el campo de la ciencia de datos y me gustaría investigar sobre ellos".




Enlace fuente

Deja una respuesta

Su dirección de correo electrónico no será publicada. Los campos obligatorios están marcados *

Puede utilizar estas etiquetas y atributos HTML : <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>

es_ESSpanish