Банк России официально закрепил ключевые принципы использования искусственного интеллекта в финансовой сфере и представил проект этического кодекса для участников рынка. Этот документ направлен на укрепление доверия клиентов и инвесторов к компаниям, внедряющим ИИ-решения, а также на повышение безопасности применения передовых технологий в финансах. Подробный разбор возможностей, преимуществ и потенциальных угроз, связанных с внедрением ИИ в банковской сфере, читайте в статье «Известий».
Основные положения этического кодекса по ИИИнформация о принятии регулятором базовых принципов работы с искусственным интеллектом и разработке этических норм была опубликована на официальном сайте Центробанка 9 июля.
«Этический кодекс призван укрепить доверие потребителей и инвесторов к организациям, использующим ИИ, повысить безопасность применения технологий в финансовой отрасли, а также позволит регулятору эффективнее отслеживать и анализировать потенциальные риски», — отмечается в документе.
Согласно данным регулятора, большинство участников финансового рынка поддержали инициативу по разработке специализированного свода правил, учитывающего особенности использования ИИ в банковской сфере.
Центробанк предлагает использовать гибкие регуляторные инструменты: методические рекомендации и отраслевые стандарты, которые помогут компаниям ответственно внедрять ИИ без избыточного административного давления. Параллельно ведется работа по устранению барьеров в области обмена данными, включая обработку анонимизированной персональной информации — ключевого фактора развития ИИ-технологий в стране.
Предпосылки создания этического кодексаНеобходимость разработки этических норм для ИИ давно обсуждается в IT- и финансовом сообществе, отмечает в комментарии «Известиям» Александр Хонин, руководитель консалтингового центра Angara Security. Эксперт напомнил, что ведущие технологические компании при участии государственных структур уже несколько лет назад сформировали Альянс по искусственному интеллекту и разработали соответствующие этические рекомендации.
— Хотя эти документы обсуждались на законодательном уровне, они так и не приобрели статус нормативных актов, — поясняет специалист. — ЦБ РФ, будучи флагманом цифровой трансформации, первым перешел от обсуждений к конкретным действиям, подготовив отраслевой свод правил.
По словам Хонина, такая инициатива особенно актуальна из-за правового вакуума в области регулирования ИИ-технологий в банковском секторе — действующее законодательство пока не содержит четких требований к использованию алгоритмов искусственного интеллекта.
Кодекс необходим для создания безопасной экосистемы стремительно развивающихся ИИ-технологий в финансах без торможения инноваций, добавляет Станислав Ежов, директор по ИИ «Группы Астра». Документ устанавливает универсальные принципы: ориентацию на человека, объективность и открытость — а также упрощает контроль за рисками с учетом международного опыта.
— С точки зрения отрасли появление кодекса может стать водоразделом между формальными ИИ-продуктами и зрелыми решениями, интегрированными в бизнес-процессы, — комментирует Евгений Семенов, заместитель гендиректора Центра биометрических технологий. — Это шанс для участников рынка не только соответствовать требованиям, но и выстраивать прозрачные и этичные модели цифрового взаимодействия.
Возможности ИИ для финансового сектораПо оценке ЦБ РФ, искусственный интеллект открывает перед финансовыми организациями значительные перспективы для улучшения сервиса, создания персонализированных продуктов и оптимизации операционных процессов. Среди ключевых направлений — автоматизация аналитики, обработка big data, разработка интеллектуальных помощников и внедрение генеративного ИИ, включая языковые модели.
Современные банки активно интегрируют ИИ в различные процессы, подчеркивает Александр Хонин. Виртуальные ассистенты, анализ массивов данных, автоматизация рутинных операций, управление рисками и кастомизация услуг — лишь часть направлений, где применяются передовые технологии. Алгоритмы также отслеживают транзакции в реальном времени, выявляя потенциально мошеннические схемы. Крупные банки внедряют ИИ в системы киберзащиты.
— Искусственный интеллект способен эффективно противостоять телефонным аферистам и киберпреступникам, активизировавшимся в последние годы, значительно повышая безопасность операций, — говорит Александр Кобозев из Лиги Цифровой Экономики. — Внедрение инновационных решений позволит улучшить качество банковского обслуживания и расширить линейку финансовых продуктов.
Как отмечает Хонин, согласно новым правилам, финансовые организации должны информировать клиентов о взаимодействии с ИИ и предоставлять возможность переключения на живого оператора. Пользователи получат право оспаривать решения, принятые алгоритмами. Сейчас клиенты часто сталкиваются с необоснованными отказами в услугах, которые сложно обжаловать.
Кодекс также направлен на повышение доверия населения к новым технологиям с учетом особенностей уязвимых групп клиентов (возраст, образование, ограниченные возможности), которые могут влиять на качество обслуживания.
Потенциальные угрозы внедрения ИИВместе с тем, как отмечает ЦБ РФ, масштабное применение искусственного интеллекта сопряжено с рисками, включая угрозы утечки персональных данных, кибератаки, ошибки алгоритмов («галлюцинации») и возможные нарушения прав потребителей. Особое внимание уделяется рискам использования генеративного ИИ мошенниками для создания фейков и манипуляций.
— Основные опасности связаны с утечками данных, киберугрозами, ошибками алгоритмов и злоупотреблением генеративными технологиями, — поясняет Станислав Ежов. — Без должного контроля это может подорвать доверие, привести к финансовым потерям и усилить дискриминацию.
Александр Кобозев выделяет дополнительные риски: атаки на персональные данные, используемые для обучения ИИ, возможные сбои в работе нейросетей, ведущие к некорректным рекомендациям, а также этические проблемы — риск предвзятых решений алгоритмов.
Для минимизации угроз в финансовой сфере следует применять проверенные модели генеративного ИИ, разработанные с учетом требований безопасности на всех этапах, подчеркивает Александр Хонин. Необходим регулярный аудит качества данных и алгоритмов.
— Управление рисками ИИ должно быть частью общей системы risk-менеджмента финансовой организации с включением соответствующих угроз в модели информационной безопасности, — резюмирует эксперт.