Банк России официально одобрил ключевые принципы использования искусственного интеллекта (ИИ) в финансовой сфере и разработал проект этического кодекса для участников рынка. Соответствующая информация опубликована на официальном сайте ведомства.
«Этический кодекс по ИИ поможет укрепить доверие клиентов и инвесторов к компаниям, внедряющим технологии искусственного интеллекта, повысит безопасность их использования в финансовом секторе, а также позволит регулятору эффективнее отслеживать и анализировать потенциальные риски, связанные с применением ИИ», — отмечается в документе.
Согласно данным регулятора, большинство представителей финансового рынка поддержали разработку специального свода правил, учитывающего особенности внедрения ИИ в сфере финансовых услуг.
В ЦБ подчеркивают, что искусственный интеллект предоставляет финансовым организациям широкие возможности для улучшения качества сервиса, разработки индивидуальных продуктов и совершенствования бизнес-процессов. Среди ключевых направлений использования технологии участники рынка выделяют автоматизацию аналитических процессов, обработку больших массивов данных, создание умных финансовых помощников и развитие генеративных ИИ-решений, включая крупные языковые модели.
Однако в отчете также указывается на существенные риски, связанные с активным внедрением ИИ: угрозы конфиденциальности персональной информации, кибератаки, возможные ошибки алгоритмов («галлюцинации») и нарушения прав потребителей. Особое внимание уделяется рискам использования генеративного ИИ злоумышленниками, например, для создания фальшивых изображений (дипфейков) и манипуляций с информацией.
Центробанк предлагает внедрять механизмы «мягкого» регулирования — рекомендации, методические указания и стандарты, которые помогут компаниям ответственно внедрять ИИ без избыточных законодательных ограничений. Одновременно регулятор продолжит работу по устранению барьеров в области обмена данными, включая деперсонифицированную информацию, что, по мнению экспертов, является важным условием для развития ИИ-технологий в стране.
29 июня заместитель гендиректора IVA Technologies Максим Смирнов заявил, что основные опасности при использовании ИИ связаны с утечкой персональных данных и мошенничеством с использованием дипфейков. По данным за первые два месяца этого года, в России зафиксировано 19 масштабных утечек, затронувших 24 миллиона человек. Для защиты информации специалисты рекомендуют избегать размещения данных в открытых источниках и применять методы шифрования. В корпоративном сегменте предпочтительно развертывание ИИ-решений в изолированных корпоративных сетях.