Широкое внедрение искусственного интеллекта в корпоративном секторе России начало проявлять негативные стороны технического прогресса. Изначально задуманный как инструмент для повышения эффективности и оптимизации, ИИ на практике грозит юридическими проблемами и ощутимыми убытками для компаний. Об этом 15 октября заявил юрист и правозащитник предпринимателей Антон Ивлев в интервью «Известиям».
Ивлев отметил, что суть проблемы заключается не в алгоритмах, а в неправильном представлении управленцев о возможности переложить ответственность за действия робота на саму нейросеть. Полное доверие технологиям приводит к дорогостоящим ошибкам.
Эксперт привел в пример произошедший в США инцидент, когда адвокат, положившись на ChatGPT, представил в суд заключение с вымышленными ссылками на судебные дела, что привело к крупному штрафу и урону репутации. Похожий случай случился с бывшим адвокатом Майклом Коэном, применявшим Google Bard. Эти ситуации продемонстрировали, что документы, созданные с помощью ИИ, обязательно должны проверяться людьми, иначе это «профессиональное самоубийство».
«Многие считают машину объективной. Это глубокое заблуждение. Алгоритм лишь анализирует данные, предоставленные человеком, со всеми заложенными стереотипами и предрассудками», — подчеркнул Ивлев.
Примеры из Великобритании и США выявили случаи дискриминации в автоматизированных системах по расовому и социальному признаку, а в Евросоюзе впервые был запрещен SyRI — система, чрезмерно контролировавшая получателей пособий. Машина не создает предрассудки, она лишь усиливает и автоматизирует их.
Ивлев уточнил, что главная опасность сегодня исходит изнутри компаний. Сотрудники, использующие ИИ-инструменты без должного контроля, становятся источником угроз. Автоматизация ведет к сокращениям, а нарушения процедур увольнения способствуют судебным разбирательствам. Кроме того, разграничение ответственности за результаты работы нейросети остается размытым, что порождает новые юридические проблемы. Еще одна угроза — утечки конфиденциальных данных через сторонние ИИ-сервисы, подрывающие безопасность бизнеса.
«Искусственный интеллект перестает быть просто технологической инновацией и становится серьезным правовым вызовом, требующим не поспешного внедрения, а тщательного юридического сопровождения. Без четких внутренних правил, персональной ответственности и взвешенной оценки возможностей алгоритмов первоначальный энтузиазм быстро сменится разочарованием из-за судебных расходов. Сейчас главная задача руководителя — не гнаться за модой, а построить систему, где машина работает как эффективный инструмент, но окончательное решение и ответственность лежат на человеке», — резюмировал Ивлев.
Первый заместитель главы комитета Государственной думы по информационной политике, информационным технологиям и связи Антон Ткачев 4 октября заявил, что необходимо вводить четкие границы для искусственного интеллекта, особенно касающиеся этических и моральных аспектов взаимодействия с гражданами. По его словам, специализированный орган с соответствующими полномочиями мог бы объективно оценивать уровень внедрения ИИ, его этическую сторону и эффективность.