Считается, что технология обработки данных легко справляется с проблемами в сфере здравоохранения, и ее развитие не контролируется. Но есть ли риск, что это может усугубить неравенство, спрашивает журналистка Поппи Нур в The BMJ?
Системы искусственного интеллекта (ИИ) имитируют интеллект человека путем обучения, рассуждения и самокоррекции. Технология является многообещающей: она может сократить время ожидания пациентов, улучшить диагностику и снизить нагрузку на NHS – преимущества, которые применяются во всех областях, независимо от расы.
Но существует растущая обеспокоенность тем, что если данные, используемые для обучения ИИ, не являются этнически репрезентативными, технология может работать не так хорошо для некоторых групп.
Например, изображения, используемые для обучения алгоритмов обнаружения меланомы, являются преимущественно, если не всеми, изображениями кавказской кожи. В действительности это может быть разницей между ИИ, который работает так же, как и наиболее подготовленными клиницистами для белого человека, но не распознает раковые родинки на черном теле .
Более того, если компании не обязаны показывать эти данные, люди могут продолжать думать, что ИИ актуален для всех, когда это не так.
Профессор Адевул Адамсон из Техасского университета говорит, что для успеха ИИ крайне важно, чтобы продукты работали на всех, независимо от цвета кожи , а там, где это не так, предоставляется предупреждение.
Элеонора Харвич из аналитического центра Reform предупреждает, что предвзятость и дискриминацию сложно регулировать, и предлагает, чтобы рыночные стимулы могли предоставить более репрезентативные данные.
Но другие утверждают, что рыночные стимулы не могут преодолеть тот факт, что на протяжении многих лет ученые не проводили исследования для этнических меньшинств.
Ученые предупреждают, что ИИ может неправильно диагностировать людей, недооценивать людей и потенциально увеличивать различия в сфере здравоохранения.
По этой причине ученые добавляют, что мы должны помнить, что ИИ может быть удивительным инструментом, но он не может заменить сложное человеческое мышление, необходимое для принятия этических решений.