Стремительный прогресс ИИ/нейросетей затронул в том числе и сферу рекламы, применения корректирующих алгоритмов, моделей персонализации и пр. В них проявились как очевидные перспективы правового регулирования, так и антимонопольные риски, связанные с отсутствием ответственности за противоправное применение дипфейков. Какие антимонопольные риски таятся в новых технологиях, как они регулируются законодательно и какие законодательные предложения по привлечению к ответственности за неправомерное применение технологии дипфейков существуют, рассмотрим в материале.
Роль и значение искусственного интеллекта (ИИ), представляющего собой способность машины выполнять задачи, для которых обычно требуется человеческий интеллект, в век информационных технологий невозможно недооценить ввиду его стремительного развития, а также влияния на все сферы жизни.
Его возможности не могут не вызывать восхищения, поскольку ИИ обладает способностью за считаные минуты анализировать колоссальные объемы данных, что способствует повышению уровня эффективности бизнес-процессов, а также производительности компаний и, соответственно, улучшает их конкурентоспособность. Нельзя не отметить, что основным технологическим трендом в сфере ИИ является развитие и широкое распространение генеративного ИИ, представляющего собой мощный инструмент для создания нового контента — изображений, видео и т.д.
Вместе с тем использование ИИ-технологий — это один из современных вызовов для digital-рынков, поскольку, во-первых, ИИ в значительной степени их трансформирует, а во-вторых, количество правовых споров, связанных с защитой конфиденциальных данных и интеллектуальной собственности, а также этическим использованием ИИ, стремительно растет. Кроме того, при использовании ИИ-технологий возникает не меньше споров, связанных с нарушением антимонопольного законодательства.
Таким образом, вопрос о необходимости дополнительного регулирования использования ИИ (в том числе антимонопольного) является сейчас крайне актуальным. Как показывает практика, за рубежом активно формируются правовые основы использования ИИ, например, в Великобритании принят Закон о цифровых рынках, конкуренции и потребителях (Digital Markets, Competition and Consumers Act 2024), а в Китае выпущено положение о борьбе с недобросовестной конкуренцией в интернет-индустрии.
В РФ развивается система комплексного регулирования общественных отношений, возникающих в связи с развитием и использованием технологий ИИ, включающая в себя: нормативно-правовое регулирование, нормативно-техническое регулирование и этическое регулирование. Первым и наиболее значимым нормативным правовым актом в сфере регулирования ИИ стал Указ Президента РФ от 10.10.2019 № 490 «О развитии искусственного интеллекта в Российской Федерации», которым была утверждена Национальная стратегия развития ИИ на период до 2030 г.
Развитие ИИ в России поддерживается также через введение экспериментальных правовых режимов (ЭПР), предусматривающих применение в отношении участников ЭПР в течение определенного периода времени специального регулирования по направлениям разработки, апробации и внедрения цифровых инноваций (Федеральный закон от 31.07.2020 № 258-ФЗ, Федеральный закон от 02.07.2021 № 331-ФЗ).
Вместе с тем отдельного внимания заслуживает вопрос о том, применимо ли действующее антимонопольное регулирование к отношениям, возникающим при использовании и внедрении ИИ. Предлагаем рассмотреть несколько примеров использования ИИ на предмет наличия рисков нарушения антимонопольного и рекламного законодательства.
Нужно ли дополнительное регулирование дипфейков (deepfake)?
По своей сути дипфейк — это методика синтеза изображения или голоса, основанная на ИИ, результатом которого являются в том числе видеоролики, в которых лицо одного человека замещается другим посредством алгоритмов машинного обучения.
Технология дипфейков получила широкое распространение, в том числе, к сожалению, и в противоправных целях. Ее активное распространение уже приводит к таким негативным последствиям, как увеличение рисков манипулирования информацией и распространение недостоверной информации.
Кроме того, помимо потенциального нарушения антимонопольного и рекламного законодательства, использование данной методики может обеспечить доступ в разные системы (банковские приложения, смартфоны, вход в здание и т.д.), в связи с чем угроза недобросовестного использования новых технологий становится еще серьезнее.
В статье 5 Закона о рекламе предусматривается, что реклама должна быть добросовестной и достоверной. В свою очередь, недобросовестная и недостоверная реклама не допускаются. При этом на законодательном уровне запрет на использование в рекламе технологии deepfake отсутствует. Тем не менее если в результате такой рекламы потребитель вводится в заблуждение и ему предоставляется недостоверная информация, то можно смело говорить о нарушении рекламного законодательства.
Также отметим, что использование технологии deepfake для осуществления действий (которые не преследуют целей рекламирования того или иного товара или услуги), вводящих в заблуждение потребителей, может рассматриваться и как нарушение положений Закона о защите конкуренции, ст. 14.2 которого установлен запрет на недобросовестную конкуренцию путем введения в заблуждение.
С учетом изложенного вполне очевидным является тот факт, что в России разработан законопроект, согласно которому за дипфейки с помощью подмены голоса или изображения человека может грозить уголовное наказание. Предлагается ввести в несколько статей Уголовного кодекса новый квалифицирующий признак — использование дипфейк-технологии.
Так, например, в Госдуму внесен законопроект № 718538-8, который, согласно пояснительной записке, направлен на защиту чести и достоинства личности, а также собственности от потенциальных посягательств путем создания фальшивых материалов с использованием изображения или голоса, а также биометрических данных.
Риски применения корректирующих алгоритмов
В настоящее время вполне очевиден нарастающий интерес технологических гигантов к ИИ-технологиям. Тем не менее возможны ситуации, при которых технологические гиганты со значительными возможностями ИИ могут получить конкурентное преимущество.
Так, в 2017 г. Европейская комиссия установила, что компания злоупотребила своим доминирующим положением на рынке поисковых онлайн-сервисов в 13 странах Европейской экономической зоны. Алгоритм поисковика отдавал предпочтение собственным сервисам сравнительных покупок, выделяя их в специальных полях, в то время как к результатам конкурентов применялись корректирующие алгоритмы, понижающие их рейтинг в общем поиске (Case T–612/17).
Модели персонализации и защита персональных данных
Широкое распространение получила технология персонализации. Она позволяет прогнозировать предпочтения пользователя в товарах или развлечениях в целях анализа истории действий пользователя в сервисе.
На основе сбора предпочтений пользователя такая модель ИИ не только затрагивает вопросы безопасности его персональных данных (образ жизни, предпочтения в фильмах, музыке, мест для посещения, здоровья, коммуникации и пр.), но и может быть использована в целях манипуляции путем направления таргетированной рекламы без согласия пользователя, что также может быть квалифицировано как нарушение Закона о рекламе.
Таким образом, стремительное развитие использования ИИ-технологий — это уже наша реальность, которую нельзя игнорировать. При этом, с одной стороны, ИИ играет важную роль в современном обществе и имеет огромный потенциал для развития в будущем. С другой же стороны, использование ИИ сопряжено с рисками нарушения действующего законодательства, в том числе антимонопольного.
Вместе с тем зарубежный и отечественный опыт по выработке инструментов и механизмов регулирования общественных отношений, связанных с ИИ, свидетельствует о том, что уже в настоящий момент действующего законодательства недостаточно для того, чтобы обеспечить безопасное и эффективное использование технологий ИИ.
С учетом изложенного в заключение справедливо будет сделать вывод о том, что дальнейшее развитие антимонопольного законодательства должно происходить с учетом тех вызовов, которые порождает использование ИИ-технологий.
Елена Соколовская в своей статье об антимонопольных рисках технологий ИИ коснулась темы дипфейков и законопроекта, внесенного недавно в Госдуму, предусматривающего уголовную ответственность за неправомерное использование технологий подмены личности (№ 718538-8). Данная тема сейчас вызывает большие дискуссии среди юристов, поэтому «ЭЖ-Юрист» решил обратиться к экспертам за комментариями относительно данной инициативы. Сразу же скажем, что в целом, соглашаясь с позицией правительства и ВС РФ, они отнеслись к ней неоднозначно.