В России рассматривается возможность законодательного установления принципа, согласно которому человек сохраняет за собой окончательное право принятия решений при использовании систем искусственного интеллекта в важных для общества областях. Речь идет о таких сферах, как медицина, правосудие, образование и обеспечение общественной безопасности. Соответствующая инициатива содержится в предложениях, собранных правительством для проекта закона о регулировании ИИ.
Как сообщил источник, знакомый с ситуацией в нескольких ведомствах, Министерство цифрового развития, связи и массовых коммуникаций намерено направить доработанный документ на согласование в кабинет министров к завершению февраля.
Член комитета Госдумы по информационной политике, федеральный координатор партпроекта «Цифровая Россия» Антон Немкин убежден, что отсутствие требования о ключевой роли человека при применении технологий ИИ создает системные угрозы.
«Во-первых, это угроза дискриминации и алгоритмических искажений, если модель обучена на неполных или предвзятых данных. Во-вторых, размывание ответственности: в случае ошибки возникает вопрос — кто отвечает: разработчик, оператор или государство? В-третьих, снижение доверия граждан к цифровым сервисам, если решения, влияющие на их судьбу, будут восприниматься как автоматические и безапелляционные», — отметил он.
Ранее, в начале февраля, появилась информация о том, что искусственный интеллект, применяемый в медицинской аппаратуре, способен причинять вред здоровью пациентов.
«По меньшей мере 10 человек получили травмы в период с конца 2021-го по ноябрь 2025 года. В большинстве случаев причиной, предположительно, стали ошибки, из-за которых навигационная система TruDi давала хирургам неверную информацию о местоположении инструментов во время операций на головах пациентов», — сообщалось в материале Reuters.
Директор Института исследований интернета Карен Казарян считает, что доверять искусственному интеллекту проверку учебных заданий в школах и университетах также нельзя. Практика показывает, что нейронные сети совершают большое количество ошибок при выполнении подобных задач.
Более детально с темой можно ознакомиться в эксклюзивной публикации «Известий»:
Шах ИИ мат: нейросети ограничат в принятии решений в социально значимых сферах