Искусственный интеллект предвзято назначает опиоиды
urolog_com_ru 28 февраля 2026 г. 
Представьте, что вы приходите к врачу с сильной болью. Он открывает компьютер, чтобы решить, какое обезболивающее вам выписать. Но вместо врача решение принимает искусственный интеллект — и оказывается, что этот «умный» помощник может быть несправедливым.
Именно это обнаружили учёные из Стэнфордского университета. Они проверили, как большие языковые модели (это сложные компьютерные программы, которые понимают и генерируют текст) рекомендуют лечение от боли. Результаты опубликованы в журнале JAMA Network Open и заставляют задуматься.
Что такое большие языковые модели?
Давайте разберёмся, о чём идёт речь. Большие языковые модели — это основа современных чат-ботов и систем искусственного интеллекта. Они обучены на огромном количестве текстов из интернета, книг и научных статей. Эти программы могут отвечать на вопросы, писать тексты и даже давать советы.
В медицине их начинают использовать как помощников для врачей. Например, чтобы быстро найти информацию или предложить варианты лечения. Но проблема в том, что эти модели учатся на данных, созданных людьми. А люди, как мы знаем, не всегда объективны.
Как проводили исследование?
Учёные под руководством Майкла Хонг создали несколько вымышленных историй болезни. В каждой истории описывался пациент с одинаковой болью в спине после небольшой операции. Но менялись другие детали: пол, возраст, раса и социально-экономический статус.
Затем они «спросили» у нескольких популярных языковых моделей (включая GPT-4 от OpenAI и другие), какое обезболивающее назначить. Модели не знали, что это тест — они думали, что помогают реальному врачу.
Что же обнаружили?
Результаты оказались тревожными. Языковые модели чаще рекомендовали опиоидные обезболивающие (сильные препараты вроде оксикодона) определённым группам пациентов. Например:
- Пациентам с низким доходом назначали опиоиды чаще, чем тем, у кого был высокий доход.
- Некоторые модели показывали различия в рекомендациях в зависимости от расы пациента.
- Возраст и пол тоже влияли на решения, хотя и в меньшей степени.
Это особенно важно, потому что опиоиды — не просто сильные обезболивающие. Они вызывают привыкание и стали причиной серьёзного кризиса в США, где от передозировок умирают десятки тысяч людей в год.
Почему так происходит?
Исследователи объясняют это просто: искусственный интеллект учится на человеческих данных. Если в медицинских записях, на которых тренировали модель, врачи чаще выписывали опиоиды определённым группам пациентов, модель усвоила эту закономерность.
Другими словами, ИИ не создаёт предвзятость сам по себе — он отражает предвзятость, которая уже существует в медицине. Это как если бы вы дали ребёнку читать только книги с устаревшими взглядами — он вырастет с такими же представлениями.
Что это значит для нас?
Исследование не говорит, что искусственный интеллект плох или что его не нужно использовать в медицине. Наоборот, такие помощники могут быть невероятно полезны — они обрабатывают информацию быстрее человека и не устают.
Но работа учёных из Стэнфорда — это важный сигнал. Прежде чем внедрять ИИ в реальную клиническую практику, нужно:
- Тщательно проверять эти системы на скрытую предвзятость.
- Не полагаться слепо на рекомендации алгоритмов — окончательное решение должен принимать врач.
- Понимать, что технология — всего лишь инструмент. Как молоток: им можно построить дом, а можно нанести вред, если использовать бездумно.
Авторы исследования, включая ведущего учёного Майкла Хонг, подчёркивают: «Наши результаты показывают, что большие языковые модели могут непреднамеренно увековечить существующие диспропорции в назначении опиоидов». Проще говоря, если мы не будем осторожны, компьютеры могут сделать медицинское неравенство ещё хуже.
Так что в следующий раз, когда услышите про «искусственный интеллект в медицине», помните: за умными алгоритмами всегда должны стоять умные и внимательные люди. Технологии — это будущее, но только если мы научимся использовать их с мудростью.