Антимонопольные риски и перспективы правового регулирования ИИ-технологий

| статьи | печать

Стремительный прогресс ИИ/нейросетей затронул в том числе и сферу рекламы, применения корректирующих алгоритмов, моделей персонализации и пр. В них проявились как очевидные перспективы правового регулирования, так и антимонопольные риски, связанные с отсутствием ответственности за противоправное применение дипфейков. Какие антимонопольные риски таятся в новых технологиях, как они регулируются законодательно и какие законодательные предложения по привлечению к ответственности за неправомерное применение технологии дипфейков существуют, рассмотрим в материале.

Роль и значение искусственного интеллекта (ИИ), представляющего собой способность машины выполнять задачи, для которых обычно требуется человеческий интеллект, в век информационных технологий невозможно недооценить ввиду его стремительного развития, а также влияния на все сферы жизни.

Его возможности не могут не вызывать восхищения, поскольку ИИ обладает способностью за считаные минуты анализировать колоссальные объемы данных, что способствует повышению уровня эффективности бизнес-процессов, а также производительности компаний и, соответственно, улучшает их конкурентоспособность. Нельзя не отметить, что основным технологическим трендом в сфере ИИ является развитие и широкое распространение генеративного ИИ, представляющего собой мощный инструмент для создания нового контента — изображений, видео и т.д.

Вместе с тем использование ИИ-технологий — это один из современных вызовов для digital-рынков, поскольку, во-первых, ИИ в значительной степени их трансформирует, а во-вторых, количество правовых споров, связанных с защитой конфиденциальных данных и интеллектуальной собственности, а также этическим использованием ИИ, стремительно растет. Кроме того, при использовании ИИ-технологий возникает не меньше споров, связанных с нарушением антимонопольного законодательства.

Таким образом, вопрос о необходимости дополнительного регулирования использования ИИ (в том числе антимонопольного) является сейчас крайне актуальным. Как показывает практика, за рубежом активно формируются правовые основы использования ИИ, например, в Великобритании принят Закон о цифровых рынках, конкуренции и потребителях (Digital Markets, Competition and Consumers Act 2024), а в Китае выпущено положение о борьбе с недобросовестной конкуренцией в интернет-индустрии.

В РФ развивается система комплексного регулирования общественных отношений, возникающих в связи с развитием и использованием технологий ИИ, включающая в себя: нормативно-правовое регулирование, нормативно-техническое регулирование и этическое регулирование. Первым и наиболее значимым нормативным правовым актом в сфере регулирования ИИ стал Указ Президента РФ от 10.10.2019 № 490 «О развитии искусственного интеллекта в Российской Федерации», которым была утверждена Национальная стратегия развития ИИ на период до 2030 г.

Развитие ИИ в России поддерживается также через введение экспериментальных правовых режимов (ЭПР), предусматривающих применение в отношении участников ЭПР в течение определенного периода времени специального регулирования по направлениям разработки, апробации и внедрения цифровых инноваций (Федеральный закон от 31.07.2020 № 258-ФЗ, Федеральный закон от 02.07.2021 № 331-ФЗ).

Вместе с тем отдельного внимания заслуживает вопрос о том, применимо ли действующее антимонопольное регулирование к отношениям, возникающим при использовании и внедрении ИИ. Предлагаем рассмотреть несколько примеров использования ИИ на предмет наличия рисков нарушения антимонопольного и рекламного законодательства.

Нужно ли дополнительное регулирование дипфейков (deepfake)?

По своей сути дипфейк — это методика синтеза изображения или голоса, основанная на ИИ, результатом которого являются в том числе видеоролики, в которых лицо одного человека замещается другим посредством алгоритмов машинного обучения.

Технология дипфейков получила широкое распространение, в том числе, к сожалению, и в противоправных целях. Ее активное распространение уже приводит к таким негативным последствиям, как увеличение рисков манипулирования информацией и распространение недостоверной информации.

Кроме того, помимо потенциального нарушения антимонопольного и рекламного законодательства, использование данной методики может обеспечить доступ в разные системы (банковские приложения, смартфоны, вход в здание и т.д.), в связи с чем угроза недобросовестного использования новых технологий становится еще серьезнее.

В статье 5 Закона о рекламе предусматривается, что реклама должна быть добросовестной и достоверной. В свою очередь, недобросовестная и недостоверная реклама не допускаются. При этом на законодательном уровне запрет на использование в рекламе технологии deepfake отсутствует. Тем не менее если в результате такой рекламы потребитель вводится в заблуждение и ему предоставляется недостоверная информация, то можно смело говорить о нарушении рекламного законодательства.

Также отметим, что использование технологии deepfake для осуществления действий (которые не преследуют целей рекламирования того или иного товара или услуги), вводящих в заблуждение потребителей, может рассматриваться и как нарушение положений Закона о защите конкуренции, ст. 14.2 которого установлен запрет на недобросовестную конкуренцию путем введения в заблуждение.

С учетом изложенного вполне очевидным является тот факт, что в России разработан законопроект, согласно которому за дипфейки с помощью подмены голоса или изображения человека может грозить уголовное наказание. Предлагается ввести в несколько статей Уголовного кодекса новый квалифицирующий признак — использование дипфейк-технологии.

Так, например, в Госдуму внесен законопроект № 718538-8, который, согласно пояснительной записке, направлен на защиту чести и достоинства личности, а также собственности от потенциальных посягательств путем создания фальшивых материалов с использованием изображения или голоса, а также биометрических данных.

Риски применения корректирующих алгоритмов

В настоящее время вполне очевиден нарастающий интерес технологических гигантов к ИИ-технологиям. Тем не менее возможны ситуации, при которых технологические гиганты со значительными возможностями ИИ могут получить конкурентное преимущество.

Так, в 2017 г. Европейская комиссия установила, что компания злоупотребила своим доминирующим положением на рынке поисковых онлайн-сервисов в 13 странах Европейской экономической зоны. Алгоритм поисковика отдавал предпочтение собственным сервисам сравнительных покупок, выделяя их в специальных полях, в то время как к результатам конкурентов применялись корректирующие алгоритмы, понижающие их рейтинг в общем поиске (Case T–612/17).

Модели персонализации и защита персональных данных

Широкое распространение получила технология персонализации. Она позволяет прогнозировать предпочтения пользователя в товарах или развлечениях в целях анализа истории действий пользователя в сервисе.

На основе сбора предпочтений пользователя такая модель ИИ не только затрагивает вопросы безопасности его персональных данных (образ жизни, предпочтения в фильмах, музыке, мест для посещения, здоровья, коммуникации и пр.), но и может быть использована в целях манипуляции путем направления таргетированной рекламы без согласия пользователя, что также может быть квалифицировано как нарушение Закона о рекламе.

Таким образом, стремительное развитие использования ИИ-технологий — это уже наша реальность, которую нельзя игнорировать. При этом, с одной стороны, ИИ играет важную роль в современном обществе и имеет огромный потенциал для развития в будущем. С другой же стороны, использование ИИ сопряжено с рисками нарушения действующего законодательства, в том числе антимонопольного.

Вместе с тем зарубежный и отечественный опыт по выработке инструментов и механизмов регулирования общественных отношений, связанных с ИИ, свидетельствует о том, что уже в настоящий момент действующего законодательства недостаточно для того, чтобы обеспечить безопасное и эффективное использование технологий ИИ.

С учетом изложенного в заключение справедливо будет сделать вывод о том, что дальнейшее развитие антимонопольного законодательства должно происходить с учетом тех вызовов, которые порождает использование ИИ-технологий.

 

Елена Соколовская в своей статье об антимонопольных рисках технологий ИИ коснулась темы дипфейков и законопроекта, внесенного недавно в Госдуму, предусматривающего уголовную ответственность за неправомерное использование технологий подмены личности (№ 718538-8). Данная тема сейчас вызывает большие дискуссии среди юристов, поэтому «ЭЖ-Юрист» решил обратиться к экспертам за комментариями относительно данной инициативы. Сразу же скажем, что в целом, соглашаясь с позицией правительства и ВС РФ, они отнеслись к ней неоднозначно.

Комментарий эксперта

Изменения, которые предлагается внести в ст. 128.1, 158, 159, 159.6, 163, 165 УК РФ, касаются включения дополнительных квалифицирующих признаков в состав преступлений, связанных с использованием изображения или голоса (в том числе сфальсифицированных или искусственно созданных) потерпевшего или иного лица, а равно биометрических персональных данных. Речь о технологии создания убедительно выглядящих обманных видео или аудио — deepfake.

Существует несколько видов дипфейков: подмена лица, поддельная речь, полностью сгенерированное видео — и все они синтезируются при помощи искусственного интеллекта. К примеру, ст. 327 УК РФ касается изготовления или оборота поддельных документов (как физических, так и цифровых), государственных наград, штампов, печатей или бланков. Однако при совершении хищения с применением подделки самостоятельная правовая оценка по ст. 327 УК РФ не требуется.

Таким образом, использование подделки охватывается способом совершаемого преступления, хотя подделка сама по себе является общественно опасным деянием и признается преступлением. По аналогии этот подход применим к использованию дипфейков — они тоже не требуют дополнительной правовой оценки.

Способ осуществления преступления — например, при осуществлении кражи — никак не изменяет сути квалификации деяния: кража остается кражей. Человек, которого обманули мошенники, лишается своего имущества — независимо от того, каким образом он был обманут, — является потерпевшим. В связи с этим при выведении способов совершения преступления в отдельную группу квалифицирующих признаков необходимо подчеркнуть их особую социальную опасность.

Представляется, что и применение в противоправных целях современных технологий требует включения в УК не каждого нового достижения в области науки и техники. При этом способы совершения преступления могут быть разными, однако формулировки закона должны быть обобщающими и ясными. В то же время сложность составляет отсутствие четкого обоснования особой повышенной опасности «дополнительных квалифицирующих признаков», а также сложно согласиться с тем, что проблема цифровых способов подмены личности требует внесения изменений в уголовное законодательство.

Относительно поправок, которые предлагается внести в ст. 128.1 УК РФ «Клевета», стоит отметить, что законодательно определенное понятие клеветы уже включает в себя распространение заведомо ложных сведений — от сплетен до дипфейков, сгенерированных искусственным интеллектом.

Для цели привлечения к ответственности не так важно, как именно, с применением каких технологий, они были сфабрикованы, — важен сам факт их распространения и способ распространения (публично или нет). При этом объективной стороной преступления «клевета» уже охватывается использование изображения или голоса потерпевшего (в том числе сфальсифицированных или искусственно созданных), таким образом, выделять дипфейки в особую группу квалифицирующих признаков представляется нецелесообразным.

 

Комментарий эксперта

Нейросети и ИИ значительно повысили риски распространения технологий, позволяющих подделывать изображение или голос лица настолько точно, что без наличия специальных знаний или программ отличить сгенерированный ИИ голос от настоящего представляется практически невозможным.

Действительно, в настоящее время фиксируется увеличение количества преступлений, совершаемых с использованием поддельных биометрических персональных данных, что свидетельствует о значимости поднимаемой в законопроекте проблемы. Внесенный законопроект, согласно пояснительной записке, направлен на защиту чести и достоинства личности, а также собственности от преступлений, совершаемых с применением стремительно развивающихся компьютерных технологий.

Предусмотренные законопроектом изменения в ст. 128.1, 158, 159, 159.6, 163, 165 УК РФ устанавливают дополнительный квалифицирующий признак — совершение преступления с использованием изображения или голоса (в том числе фальсифицированных или искусственно созданных) потерпевшего или иного лица, а также с использованием биометрических персональных данных потерпевшего или иного лица.

Вместе с этим стоит отметить, что в действующем законодательстве отсутствует определение понятия фальсифицированных или искусственно созданных изображения или голоса лица, что может повлечь неопределенность в применении данных норм на практике. Между тем отсутствие законодательного закрепления данного определения затрагивает имеющуюся проблему необходимости правового урегулирования использования нейросетей и искусственного интеллекта в целом.

На это в своем отзыве о законопроекте обратил внимание ВС РФ, отмечая необходимость дополнительных специальных исследований, «доказывающих целесообразность введения новых норм, усиливающих уголовную ответственность за противоправные деяния».

В отзыве правительство дополнительно отметило, что в отсутствие в обосновании статистических и иных данных, свидетельствующих об общественной опасности криминализируемых деяний невозможно «сделать вывод о том, что совершение преступлений только с использованием изображения или голоса (в том числе фальсифицированных или искусственно созданных) <…> свидетельствует о повышенной степени общественной опасности указанных деяний».

Таким образом, доработка должна предполагать тщательный криминологический анализ обстоятельств совершения преступных действий с использованием искусственно созданных изображения или голоса, определение всех преступлений, которые могут совершаться указанным способом, разработку детальной законодательной регламентации использования нейросетей и искусственного интеллекта.