Юрист Ивлев: ошибки ИИ создают риски для бизнеса


Фото: ИЗВЕСТИЯ/Юлия Майорова

Российские компании сталкиваются с юридическими рисками из-за неконтролируемого использования искусственного интеллекта.

Широкое внедрение искусственного интеллекта в корпоративном секторе России начало проявлять негативные стороны технического прогресса. Изначально задуманный как инструмент для повышения эффективности и оптимизации, ИИ на практике грозит юридическими проблемами и ощутимыми убытками для компаний. Об этом 15 октября заявил юрист и правозащитник предпринимателей Антон Ивлев в интервью «Известиям».

Ивлев отметил, что суть проблемы заключается не в алгоритмах, а в неправильном представлении управленцев о возможности переложить ответственность за действия робота на саму нейросеть. Полное доверие технологиям приводит к дорогостоящим ошибкам.

Эксперт привел в пример произошедший в США инцидент, когда адвокат, положившись на ChatGPT, представил в суд заключение с вымышленными ссылками на судебные дела, что привело к крупному штрафу и урону репутации. Похожий случай случился с бывшим адвокатом Майклом Коэном, применявшим Google Bard. Эти ситуации продемонстрировали, что документы, созданные с помощью ИИ, обязательно должны проверяться людьми, иначе это «профессиональное самоубийство».

«Многие считают машину объективной. Это глубокое заблуждение. Алгоритм лишь анализирует данные, предоставленные человеком, со всеми заложенными стереотипами и предрассудками», — подчеркнул Ивлев.

Примеры из Великобритании и США выявили случаи дискриминации в автоматизированных системах по расовому и социальному признаку, а в Евросоюзе впервые был запрещен SyRI — система, чрезмерно контролировавшая получателей пособий. Машина не создает предрассудки, она лишь усиливает и автоматизирует их.

Ивлев уточнил, что главная опасность сегодня исходит изнутри компаний. Сотрудники, использующие ИИ-инструменты без должного контроля, становятся источником угроз. Автоматизация ведет к сокращениям, а нарушения процедур увольнения способствуют судебным разбирательствам. Кроме того, разграничение ответственности за результаты работы нейросети остается размытым, что порождает новые юридические проблемы. Еще одна угроза — утечки конфиденциальных данных через сторонние ИИ-сервисы, подрывающие безопасность бизнеса.

«Искусственный интеллект перестает быть просто технологической инновацией и становится серьезным правовым вызовом, требующим не поспешного внедрения, а тщательного юридического сопровождения. Без четких внутренних правил, персональной ответственности и взвешенной оценки возможностей алгоритмов первоначальный энтузиазм быстро сменится разочарованием из-за судебных расходов. Сейчас главная задача руководителя — не гнаться за модой, а построить систему, где машина работает как эффективный инструмент, но окончательное решение и ответственность лежат на человеке», — резюмировал Ивлев.

Первый заместитель главы комитета Государственной думы по информационной политике, информационным технологиям и связи Антон Ткачев 4 октября заявил, что необходимо вводить четкие границы для искусственного интеллекта, особенно касающиеся этических и моральных аспектов взаимодействия с гражданами. По его словам, специализированный орган с соответствующими полномочиями мог бы объективно оценивать уровень внедрения ИИ, его этическую сторону и эффективность.