ИИ ограничат в социальных сферах


Фото: ИЗВЕСТИЯ/Юлия Майорова

ИИ в суде и медицине: почему решение останется за человеком

В России рассматривается возможность законодательного установления принципа, согласно которому человек сохраняет за собой окончательное право принятия решений при использовании систем искусственного интеллекта в важных для общества областях. Речь идет о таких сферах, как медицина, правосудие, образование и обеспечение общественной безопасности. Соответствующая инициатива содержится в предложениях, собранных правительством для проекта закона о регулировании ИИ.

Как сообщил источник, знакомый с ситуацией в нескольких ведомствах, Министерство цифрового развития, связи и массовых коммуникаций намерено направить доработанный документ на согласование в кабинет министров к завершению февраля.

Член комитета Госдумы по информационной политике, федеральный координатор партпроекта «Цифровая Россия» Антон Немкин убежден, что отсутствие требования о ключевой роли человека при применении технологий ИИ создает системные угрозы.

«Во-первых, это угроза дискриминации и алгоритмических искажений, если модель обучена на неполных или предвзятых данных. Во-вторых, размывание ответственности: в случае ошибки возникает вопрос — кто отвечает: разработчик, оператор или государство? В-третьих, снижение доверия граждан к цифровым сервисам, если решения, влияющие на их судьбу, будут восприниматься как автоматические и безапелляционные», — отметил он.

Ранее, в начале февраля, появилась информация о том, что искусственный интеллект, применяемый в медицинской аппаратуре, способен причинять вред здоровью пациентов.

«По меньшей мере 10 человек получили травмы в период с конца 2021-го по ноябрь 2025 года. В большинстве случаев причиной, предположительно, стали ошибки, из-за которых навигационная система TruDi давала хирургам неверную информацию о местоположении инструментов во время операций на головах пациентов», — сообщалось в материале Reuters.

Директор Института исследований интернета Карен Казарян считает, что доверять искусственному интеллекту проверку учебных заданий в школах и университетах также нельзя. Практика показывает, что нейронные сети совершают большое количество ошибок при выполнении подобных задач.

Более детально с темой можно ознакомиться в эксклюзивной публикации «Известий»:

Шах ИИ мат: нейросети ограничат в принятии решений в социально значимых сферах