Forscher des MIT, der Johns Hopkins University und des Alan Turing Institute argumentieren, dass der Umgang mit voreingenommenen medizinischen Daten in KI-Systemen nicht so einfach ist, wie das Sprichwort „Müll rein, Müll raus“ vermuten lässt. KI-basierte Modelle sind in der Gesundheitsbranche populär geworden. Wenn Daten verzerrt sind, versuchen die Leute normalerweise, dies zu beheben, indem sie mehr Daten von unterrepräsentierten Gruppen sammeln oder synthetische Daten erstellen, um das Problem auszugleichen. Die Forscher sind jedoch der Meinung, dass dieser technische Ansatz eine umfassendere Betrachtung erfordert. Sie sagen, wir sollten auch historische und aktuelle soziale Faktoren berücksichtigen. Auf diese Weise können wir Voreingenommenheit im öffentlichen Gesundheitswesen wirksamer bekämpfen. Die Autoren erkannten, dass wir Datenprobleme oft als technisches Ärgernis betrachten. Sie verglichen die Daten mit einem zerbrochenen Spiegel, der unsere vergangenen Handlungen widerspiegelte und möglicherweise nicht die volle Wahrheit widerspiegelte. Aber sobald wir unsere Geschichte anhand von Daten verstehen, können wir daran arbeiten, unsere Praktiken in Zukunft anzugehen und zu verbessern.
In dem Artikel mit dem Titel „Betrachtung verzerrter Daten als informative Artefakte in der KI-gestützten Gesundheitsversorgung„Drei Forscher argumentieren, dass wir voreingenommene medizinische Daten als wertvolle Artefakte in der Archäologie oder Anthropologie betrachten sollten. Diese Artefakte offenbaren Praktiken, Überzeugungen und kulturelle Werte, die zu Ungleichheiten im Gesundheitswesen geführt haben. Beispielsweise ging ein weit verbreiteter Algorithmus fälschlicherweise davon aus, dass kränkere schwarze Patienten die gleiche Pflege benötigten wie gesündere weiße Patienten, da der ungleiche Zugang zur Gesundheitsversorgung nicht berücksichtigt wurde. Die Forscher schlagen vor, dass wir, anstatt verzerrte Daten einfach zu korrigieren oder zu verwerfen, einen „Artefakt“-Ansatz verwenden sollten. Dies bedeutet, zu erkennen, wie soziale und historische Faktoren die Datenerfassung und die klinische KI-Entwicklung beeinflussen. Informatiker verstehen möglicherweise nicht vollständig die sozialen und historischen Aspekte hinter den von ihnen verwendeten Daten. Daher ist Zusammenarbeit unerlässlich, damit KI-Modelle für alle Gruppen im Gesundheitswesen gut funktionieren.
Die Forscher erkennen eine Herausforderung im artefaktbasierten Ansatz, der herausfindet, ob Daten rassistisch korrigiert wurden, was bedeutet, dass sie auf der Annahme basieren, dass weiße männliche Körper der Vergleichsstandard sind. Sie erwähnen ein Beispiel, bei dem eine Gleichung zur Messung der Nierenfunktion korrigiert wurde, wobei angenommen wurde, dass schwarze Menschen mehr Muskelmasse hätten. Forscher müssen bereit sein, solche Korrekturen während ihrer Forschung zu untersuchen. In einer anderen Arbeit stellten Forscher fest, dass die Einbeziehung der selbst gemeldeten Rasse in Modelle des maschinellen Lernens die Lage für Minderheitengruppen verschlimmern kann. Selbstberichtete Rasse ist ein soziales Konstrukt und hilft möglicherweise nicht immer. Der Ansatz sollte von den verfügbaren Beweisen abhängen.
Verzerrte Datensätze sollten nicht so belassen werden, wie sie sind, aber sie können wertvoll sein, wenn sie als Artefakte behandelt werden. Die Forscher der National Institutes of Health (NIH) legen Wert auf ethische Datenerhebung. Das Verständnis von Vorurteilen in verschiedenen Kontexten kann dazu beitragen, eine bessere KI für bestimmte Bevölkerungsgruppen zu schaffen. Dieser Ansatz kann auch zu neuen Richtlinien zur Beseitigung von Voreingenommenheit führen. Die Forscher arbeiten immer noch daran, aktuelle Gesundheitsprobleme anzugehen, anstatt hypothetische KI-Probleme in der Zukunft zu befürchten.
Besuche die Papier 1, Papier 2, Und Referenzartikel. Alle Anerkennung für diese Forschung gebührt den Forschern dieses Projekts. Vergessen Sie auch nicht, mitzumachen unser 30k+ ML SubReddit, Über 40.000 Facebook-Community, Discord-Kanal, Und E-Mail-Newsletter, wo wir die neuesten Nachrichten aus der KI-Forschung, coole KI-Projekte und mehr teilen.
Wenn Ihnen unsere Arbeit gefällt, werden Sie unseren Newsletter lieben.
Bhoumik Mhatre ist ein UG-Student im dritten Jahr am IIT Kharagpur und absolviert das B.tech + M.Tech-Programm in Bergbauingenieurwesen mit Nebenfach Wirtschaftswissenschaften. Er ist ein Daten-Enthusiast. Derzeit absolviert er ein Forschungspraktikum an der National University of Singapore. Er ist außerdem Partner bei Digiaxx Company. „Ich bin fasziniert von den jüngsten Entwicklungen im Bereich Data Science und würde gerne darüber recherchieren.“
Hinterlasse eine Antwort