Украденная личность: МВД предлагает считать дипфейки отягчающим обстоятельством

15:49 28.06.2024
0 62
Украденная личность: МВД предлагает считать дипфейки отягчающим обстоятельством
©freepik.com

Искусственный интеллектпозволяет создавать генеративный контент — видео, аудио и тексты, похожие на настоящие записи. Уже сегодня дипфейки используют для манипулирования политическими процессами и обществом, создания фальшивых новостей, мошенничества. В Китае недавно украли 76 миллионов долларов при помощи специальных компьютерных программ для подделки внешности. Так как явление быстро развивается и его трудно контролировать, государство намерено объединить усилия скомпаниями, чтобы противостоять новому типу недостоверной информации. Нужны технологии, которые позволят любому человеку максимально просто при помощи камеры мобильника выявлять дипфейки, заявилзампредседателя комитета Государственной Думы по информационной политике Антон Горелкин на XII Петербургском международном юридическом форуме.

Навел смартфон — и все понял

Несмотря на введение в Китае в 2022 году жесткого регулирования в области искусственного интеллекта, мошенникам удалось украсть 76 миллионов долларов с помощью технологии дипфейк, напомнил Антон Горелкин. «Я это к тому, что те меры, которые сегодня обсуждаются, не в полной мере отвечают запросу. Потому что та же маркировка контента — это не панацея, она не решает абсолютно ничего, потому что законопослушные игроки индустрии и так маркируют свои продукты, а мошенники этого делать никогда не будут», — уточнил депутат.

У сложных проблем не бывает простых решений, поэтому парламентарий считает важным сосредоточиться на ответственности: «В МВД разрабатывают законопроект, чтобы сделать дипфейки отягчающим обстоятельствам. И это правильное направление. Я уверен, что в ближайшее время так или иначе будет какая-то регуляторика. Но нам важна не регуляторика ради регуляторики, а искать действительно эффективные механизмы. И самая актуальная проблема, это, конечно, голосовые сообщения и видео. Сложность в том, что обычный человек уже не может отличить сгенерированный контент от настоящего».

Существующие инструкции для выявления подделки — обращать внимание на количество пальцев, на подергивание лица, чистоту моргания, по словам депутата, уже не работают, так как нейросети учатся на своих ошибках. В борьбе с дипфейками поможет постоянное улучшение моделей и систем для распознавания и верификации контента. «Людям нужен доступный инструмент для быстрой проверки происхождения контента, и чтобы это работало максимально удобно: камеру смартфона навел, получил вердикт — это продукт нейросети или реальное изображение. Хотелось бы, чтобы было у нас больше вот таких проектов, и я считаю, что государство сейчас должно сконцентрироваться на решении этой задачи», — пояснил Горелкин.

Создать такой инструмент, по мнению депутата, возможно, объединив все лучшие проекты распознавания дипфейков от российских разработчиков, которые сегодня есть, в том числе силовиков и Роскомнадзора. «Нам важно сделать так, чтобы люди себя ощущали и чувствовали более защищенными. Опять же, если мы говорим о какой-то регуляторике дипфейков, то без такого инструмента нам не обойтись», — подчеркнул парламентарий.

Горелкин отметил, что с каждым годом технологии будут упрощаться и становиться доступнее, «поэтому здесь нужно сосредотачиваться не только на регуляторике, но и на технологии, на инфраструктуре». «Важно, регулируя, не сделать работу наших ответственных компаний и разработчиков сложнее. Нам важно, чтобы в целом генеративные сети российского производства развивались. У нас стоит задача догнать в этом отношении технологических лидеров — Китай и США. Поскольку на этой технологии в целом будут строиться в том числе и военные технологии, и медицинские. На мой взгляд, это гораздо важнее, чем использование этих продуктов в креативных индустриях», — резюмировал депутат.

Материал дополняется

Источник

Новости по теме

Подождите, идет обработка запроса