ЦБ РФ представил этический кодекс по ИИ для финансовых организаций


Фото: ИЗВЕСТИЯ/Константин Кокошкин

ЦБ утвердил правила ИИ в финансах: этика, риски и новые возможности

Банк России официально одобрил ключевые принципы использования искусственного интеллекта (ИИ) в финансовой сфере и разработал проект этического кодекса для участников рынка. Соответствующая информация опубликована на официальном сайте ведомства.

«Этический кодекс по ИИ поможет укрепить доверие клиентов и инвесторов к компаниям, внедряющим технологии искусственного интеллекта, повысит безопасность их использования в финансовом секторе, а также позволит регулятору эффективнее отслеживать и анализировать потенциальные риски, связанные с применением ИИ», — отмечается в документе.

Согласно данным регулятора, большинство представителей финансового рынка поддержали разработку специального свода правил, учитывающего особенности внедрения ИИ в сфере финансовых услуг.

В ЦБ подчеркивают, что искусственный интеллект предоставляет финансовым организациям широкие возможности для улучшения качества сервиса, разработки индивидуальных продуктов и совершенствования бизнес-процессов. Среди ключевых направлений использования технологии участники рынка выделяют автоматизацию аналитических процессов, обработку больших массивов данных, создание умных финансовых помощников и развитие генеративных ИИ-решений, включая крупные языковые модели.

Однако в отчете также указывается на существенные риски, связанные с активным внедрением ИИ: угрозы конфиденциальности персональной информации, кибератаки, возможные ошибки алгоритмов («галлюцинации») и нарушения прав потребителей. Особое внимание уделяется рискам использования генеративного ИИ злоумышленниками, например, для создания фальшивых изображений (дипфейков) и манипуляций с информацией.

Центробанк предлагает внедрять механизмы «мягкого» регулирования — рекомендации, методические указания и стандарты, которые помогут компаниям ответственно внедрять ИИ без избыточных законодательных ограничений. Одновременно регулятор продолжит работу по устранению барьеров в области обмена данными, включая деперсонифицированную информацию, что, по мнению экспертов, является важным условием для развития ИИ-технологий в стране.

29 июня заместитель гендиректора IVA Technologies Максим Смирнов заявил, что основные опасности при использовании ИИ связаны с утечкой персональных данных и мошенничеством с использованием дипфейков. По данным за первые два месяца этого года, в России зафиксировано 19 масштабных утечек, затронувших 24 миллиона человек. Для защиты информации специалисты рекомендуют избегать размещения данных в открытых источниках и применять методы шифрования. В корпоративном сегменте предпочтительно развертывание ИИ-решений в изолированных корпоративных сетях.