Все о пенсиях в России

13.06.2024Депутаты СРЗП предложили снизить возраст для досрочного выхода на пенсию

11.06.2024Володин предложил назвать «законом Путина» решение об индексации пенсий

11.06.2024Депутат Жуков объяснил, почему пенсии работающих пенсионеров можно снова индексировать

Воскрешение мертвых и мошенничество с деньгами: чем опасны дипфейки

Можно ли регулировать новую технологию, чтобы она не приносила вреда обществу?

14.04.2023 14:34

Автор: Николай Козин

Воскрешение мертвых и мошенничество с деньгами: чем опасны дипфейки
  © pxhere.com

В России хотят ввести уголовное наказание за дипфейки при финансовом мошенничестве с помощью подмены голоса или изображения человека. Такой законопроект планирует внести в Госдуму фракция ЛДПР. «Парламентская газета» разбиралась в том, что такое дипфейки и какая в них таится угроза.

С чего все начиналось

Дипфейк (он же deepfake) — это, если верить интернету, «методика синтеза изображения, основанная на искусственном интеллекте». Если же говорить проще, то это технология, которая позволяет по запросу пользователя совмещать две или несколько фотографий или видеозаписей в одну. Например, заменить лицо случайного человека на видео на лицо какого-нибудь знаменитого актера или политика.

Появились дипфейки далеко не вчера. Более того — их уже много лет активно используют, например, в кинематографе. Еще в далеком 1999 году режиссер Ридли Скотт во время съемок «Гладиатора» заменил не вовремя умершего актера Оливера Рида, игравшего богатого рабовладельца Антониуса Проксимо, двойником и компьютерной графикой. Из более свежего: в одной из частей «Звездных войн», вышедшей в 2016 году, голливудские киноделы при помощи этой технологии «воскресили» на большом экране актрису Кэрри Фишер и актера Питера Кушинга — притом что последний к тому моменту умер более чем двадцать лет назад! А не далее как в 2022 году в российском сериале «Диверсант-4: Идеальный штурм» внезапно появился давно покойный актер Владислав Галкин — с его «воскрешением» создателям ленты помогали нейронные сети. Ну а уж сколько за последние лет пять вышло фановых проектов на том же YouTube, где пользователи меняли одних актеров на других или «врезали» себя в известные фильмы, — не сосчитать.

Для нейросетей предложили написать цифровые законы

Технологии для веселья и преступлений

Так если дипфейки уже давно и прочно вошли в нашу жизнь — почему о них все стали говорить только сейчас, да еще и в контексте большой угрозы?

Все просто. Во-первых, далеко вперед шагнули технологии. Можно только гадать, во сколько обошлись западным и нашим киноделам дипфейки известных актеров, — однако это точно были не десятки, не сотни и даже не тысячи долларов. Плюс работа целой команды специалистов в программном обеспечении, недоступном широкому пользователю. Сейчас же с бурным развитием нейронных сетей дипфейки может клепать практически каждый. В интернете существует множество сервисов, которые за минимальные суммы (в среднем — от 500 рублей) позволяют меняться лицами с кем угодно буквально в пару кликов. Да, качество при этом выходит, конечно, не голливудское, но вполне себе сносное.

Во-вторых, как только народ заполучил такой «веселый» и простой инструмент, он тут же пустился с ним во все тяжкие. Так, например, несколько лет назад на порносайтах внезапно стали появляться ролики, в которых девушкам «приклеивали» лица известных актрис. Это уже не невинная забава в стиле «как бы такая-то смотрелась в таком-то фильме» — это уже вполне себе тянет на унижение чести и достоинства.

А вскоре мир узнал и о первых преступлениях, совершенных с помощью новой технологии. Так, в 2019 году мошенники синтезировали голос босса материнской компании одной из британских энергетических фирм и позвонили директору головной организации с просьбой перевести 240 тысяч долларов на счет якобы поставщика из Венгрии. А в 2021 году в ОАЭ мошенники ограбили банк на 35 миллионов долларов при помощи имитации голоса его директора. Они позвонили управляющему и сказали, что фирма хочет совершить несколько крупных сделок, а в доказательство предоставили несколько фальшивых писем. Оба раза авантюры оказались успешными — притом что в них использовалась только имитация голоса.

Ранее, к слову, об этом же рассказывал «Парламентской газете» первый заместитель председателя комиссии Общественной палаты РФ по развитию информационного сообщества, СМИ и массовых коммуникаций Александр Малькевич.

«Если создать ролик, обманывающий алгоритмы по вычислению дипфейков, можно у себя дома, то легко представить, на что способна организация с деньгами и определенными политическими намерениями», — отметил он.

«Традиционные ограничения бессмысленны»

При этом, как именно нужно бороться с дипфейками и как сделать эту борьбу эффективной, так до сих пор и не ясно. К примеру, по мнению интернет-омбудсмена по вопросам, связанным с ликвидацией нарушений прав предпринимателей при осуществлении регулирования, контроля функционирования и развития интернета Дмитрия Мариничева, перенос в цифровую сферу привычных методов законодательного администрирования ничего не даст.

«Дипфейки — это на самом деле бич современности, — подчеркнул Мариничев в разговоре с «Парламентской газетой». — Наше общество к такой технологии явно не готово. Но я не очень здесь все-таки верю в эффективность административного давления. На мой взгляд, нужно предъявлять дополнительные требования с точки зрения технологического контроля. По крайней мере, в этом направлении сейчас мыслят практически все мировые IT-гиганты».

По словам Мариничева, самый надежный способ — обязать производителей программного обеспечения, использующегося при создании дипфейков, встраивать в свою продукцию условные «маркеры». Они могут быть и не видны пользователю (то есть речь не идет о надписи «ОСТОРОЖНО, ДИПФЕЙК!» во весь экран), но должны считываться самими сайтами, на которых дипфейки распространяются. Чтобы машина могла сама распознать искусственно сгенерированное изображение и в случае необходимости уведомить человека о том, с чем именно он имеет дело. А вот ограничивать распространение технологии как таковой — подход заведомо бессмысленный.

«Этим мы только усугубим ситуацию, — уверен интернет-омбудсмен. — Если, например, регулировать дипфейк так же, как мы сейчас регулируем оборот оружия, ни к чему хорошему это не приведет. Хотя бы потому, что для нелегального распространения оружия нужно его где-то изготовить, перевезти, продать. А стоимость дистрибуции информации в интернете равна нулю. А вот финансовые затраты государства на мониторинг всех известных сайтов, порталов и так далее, где дипфейки могут распространяться, напротив, стремятся к бесконечности».