ООН создала научный совет по ИИ: что это значит для вашего здоровья

Вы когда-нибудь задумывались, кто проверяет, насколько безопасны новые медицинские алгоритмы ИИ? Оказывается, до недавнего времени такой проверки на международном уровне почти не было. Но всё меняется.
В мае 2026 года ООН официально запустила Независимую международную научную группу по ИИ (Independent International Scientific Panel on AI). Это не очередная бюрократическая структура, а реальная попытка поставить науку во главу угла при принятии решений об искусственном интеллекте.
Почему это важно именно для медицины
Искусственный интеллект в здравоохранении развивается бешеными темпами. Алгоритмы уже ставят диагнозы, анализируют снимки, помогают выбирать лечение. Но проблема в том, что инновации обгоняют способность врачей, пациентов и регуляторов их оценить.
Многие эксперты бьют тревогу: то, что вчера считалось надёжной защитой, сегодня уже устарело. Новая научная группа призвана исправить эту ситуацию. Её задача — давать независимые научные оценки, чтобы решения об использовании ИИ в медицине и других сферах основывались на фактах, а не на предположениях.
Как всё устроено
Идея создания такой группы родилась ещё в 2024 году на Саммите будущего ООН, где приняли Глобальный цифровой договор. В нём страны обязались создать два механизма: независимый научный орган и Глобальный диалог по управлению ИИ.
В августе 2025 года Генеральная Ассамблея ООН утвердила резолюцию A/RES/79/325, которая определила:
- полномочия группы
- её связь с глобальным диалогом
- главное требование: все члены работают в личном качестве, независимо от правительств, компаний или институтов
Секретариат группы находится в Управлении ООН по цифровым и новым технологиям.
Кто вошёл в состав
Группу возглавляют два сопредседателя: Мария Ресса (журналистка, лауреат Нобелевской премии мира) иЙошуа Бенджио (один из пионеров глубокого обучения). Всего в составе 43 эксперта со всего мира, включая таких известных учёных, как:
- Бернхард Шёлькопф (один из создателей современных методов машинного обучения)
- Сильвио Саварезе (директор по ИИ в Apple)
- Хода Хейдари (эксперт по справедливости алгоритмов)
Чтобы гарантировать беспристрастность, каждый член группы обязан раскрыть все финансовые, профессиональные и личные интересы, которые могут создать конфликт интересов.
Что это значит для нас с вами
Если коротко: появляется независимый научный «фильтр» для ИИ-технологий. Теперь, когда какая-то компания заявит, что её алгоритм лучше врача ставит диагноз, у международного сообщества будет инструмент для объективной проверки.
Для пациентов это означает больше безопасности. Для врачей — более чёткие ориентиры. Для разработчиков — понятные правила игры.
Конечно, одна группа не решит все проблемы. Но это важный шаг к тому, чтобы ИИ в медицине служил людям, а не наоборот. Будем следить за развитием событий!