Искусственный интеллект предвзято назначает опиоиды

urolog_com_ru urolog_com_ru 28 февраля 2026 г.
Искусственный интеллект предвзято назначает опиоиды

Представьте, что вы приходите к врачу с сильной болью. Он открывает компьютер, чтобы решить, какое обезболивающее вам выписать. Но вместо врача решение принимает искусственный интеллект — и оказывается, что этот «умный» помощник может быть несправедливым.

Именно это обнаружили учёные из Стэнфордского университета. Они проверили, как большие языковые модели (это сложные компьютерные программы, которые понимают и генерируют текст) рекомендуют лечение от боли. Результаты опубликованы в журнале JAMA Network Open и заставляют задуматься.

Что такое большие языковые модели?

Давайте разберёмся, о чём идёт речь. Большие языковые модели — это основа современных чат-ботов и систем искусственного интеллекта. Они обучены на огромном количестве текстов из интернета, книг и научных статей. Эти программы могут отвечать на вопросы, писать тексты и даже давать советы.

В медицине их начинают использовать как помощников для врачей. Например, чтобы быстро найти информацию или предложить варианты лечения. Но проблема в том, что эти модели учатся на данных, созданных людьми. А люди, как мы знаем, не всегда объективны.

Как проводили исследование?

Учёные под руководством Майкла Хонг создали несколько вымышленных историй болезни. В каждой истории описывался пациент с одинаковой болью в спине после небольшой операции. Но менялись другие детали: пол, возраст, раса и социально-экономический статус.

Затем они «спросили» у нескольких популярных языковых моделей (включая GPT-4 от OpenAI и другие), какое обезболивающее назначить. Модели не знали, что это тест — они думали, что помогают реальному врачу.

Что же обнаружили?

Результаты оказались тревожными. Языковые модели чаще рекомендовали опиоидные обезболивающие (сильные препараты вроде оксикодона) определённым группам пациентов. Например:

  • Пациентам с низким доходом назначали опиоиды чаще, чем тем, у кого был высокий доход.
  • Некоторые модели показывали различия в рекомендациях в зависимости от расы пациента.
  • Возраст и пол тоже влияли на решения, хотя и в меньшей степени.

Это особенно важно, потому что опиоиды — не просто сильные обезболивающие. Они вызывают привыкание и стали причиной серьёзного кризиса в США, где от передозировок умирают десятки тысяч людей в год.

Почему так происходит?

Исследователи объясняют это просто: искусственный интеллект учится на человеческих данных. Если в медицинских записях, на которых тренировали модель, врачи чаще выписывали опиоиды определённым группам пациентов, модель усвоила эту закономерность.

Другими словами, ИИ не создаёт предвзятость сам по себе — он отражает предвзятость, которая уже существует в медицине. Это как если бы вы дали ребёнку читать только книги с устаревшими взглядами — он вырастет с такими же представлениями.

Что это значит для нас?

Исследование не говорит, что искусственный интеллект плох или что его не нужно использовать в медицине. Наоборот, такие помощники могут быть невероятно полезны — они обрабатывают информацию быстрее человека и не устают.

Но работа учёных из Стэнфорда — это важный сигнал. Прежде чем внедрять ИИ в реальную клиническую практику, нужно:

  1. Тщательно проверять эти системы на скрытую предвзятость.
  2. Не полагаться слепо на рекомендации алгоритмов — окончательное решение должен принимать врач.
  3. Понимать, что технология — всего лишь инструмент. Как молоток: им можно построить дом, а можно нанести вред, если использовать бездумно.

Авторы исследования, включая ведущего учёного Майкла Хонг, подчёркивают: «Наши результаты показывают, что большие языковые модели могут непреднамеренно увековечить существующие диспропорции в назначении опиоидов». Проще говоря, если мы не будем осторожны, компьютеры могут сделать медицинское неравенство ещё хуже.

Так что в следующий раз, когда услышите про «искусственный интеллект в медицине», помните: за умными алгоритмами всегда должны стоять умные и внимательные люди. Технологии — это будущее, но только если мы научимся использовать их с мудростью.

Комментарии (0)

Пока нет комментариев. Будьте первым!

Войдите, чтобы оставить комментарий