ООН создала научный совет по ИИ: что это значит для вашего здоровья

urolog_com_ru urolog_com_ru 5 мая 2026 г. 2
ООН создала научный совет по ИИ: что это значит для вашего здоровья

Вы когда-нибудь задумывались, кто проверяет, насколько безопасны новые медицинские алгоритмы ИИ? Оказывается, до недавнего времени такой проверки на международном уровне почти не было. Но всё меняется.

В мае 2026 года ООН официально запустила Независимую международную научную группу по ИИ (Independent International Scientific Panel on AI). Это не очередная бюрократическая структура, а реальная попытка поставить науку во главу угла при принятии решений об искусственном интеллекте.

Почему это важно именно для медицины

Искусственный интеллект в здравоохранении развивается бешеными темпами. Алгоритмы уже ставят диагнозы, анализируют снимки, помогают выбирать лечение. Но проблема в том, что инновации обгоняют способность врачей, пациентов и регуляторов их оценить.

Многие эксперты бьют тревогу: то, что вчера считалось надёжной защитой, сегодня уже устарело. Новая научная группа призвана исправить эту ситуацию. Её задача — давать независимые научные оценки, чтобы решения об использовании ИИ в медицине и других сферах основывались на фактах, а не на предположениях.

Как всё устроено

Идея создания такой группы родилась ещё в 2024 году на Саммите будущего ООН, где приняли Глобальный цифровой договор. В нём страны обязались создать два механизма: независимый научный орган и Глобальный диалог по управлению ИИ.

В августе 2025 года Генеральная Ассамблея ООН утвердила резолюцию A/RES/79/325, которая определила:

  • полномочия группы
  • её связь с глобальным диалогом
  • главное требование: все члены работают в личном качестве, независимо от правительств, компаний или институтов

Секретариат группы находится в Управлении ООН по цифровым и новым технологиям.

Кто вошёл в состав

Группу возглавляют два сопредседателя: Мария Ресса (журналистка, лауреат Нобелевской премии мира) иЙошуа Бенджио (один из пионеров глубокого обучения). Всего в составе 43 эксперта со всего мира, включая таких известных учёных, как:

  • Бернхард Шёлькопф (один из создателей современных методов машинного обучения)
  • Сильвио Саварезе (директор по ИИ в Apple)
  • Хода Хейдари (эксперт по справедливости алгоритмов)

Чтобы гарантировать беспристрастность, каждый член группы обязан раскрыть все финансовые, профессиональные и личные интересы, которые могут создать конфликт интересов.

Что это значит для нас с вами

Если коротко: появляется независимый научный «фильтр» для ИИ-технологий. Теперь, когда какая-то компания заявит, что её алгоритм лучше врача ставит диагноз, у международного сообщества будет инструмент для объективной проверки.

Для пациентов это означает больше безопасности. Для врачей — более чёткие ориентиры. Для разработчиков — понятные правила игры.

Конечно, одна группа не решит все проблемы. Но это важный шаг к тому, чтобы ИИ в медицине служил людям, а не наоборот. Будем следить за развитием событий!

Комментарии (0)

Пока нет комментариев. Будьте первым!

Войдите, чтобы оставить комментарий