В Госдуме рассказали о признаках подделки видео

В Госдуме рассказали о признаках подделки видео
МОСКВА, 9 июн – РИА Новости. Видеосообщение, созданное с помощью дипфейков, можно выявить по движению глаз человека на видео, цвету кожи и волос, контуру овала лица – зачастую они могут быть размытыми, странными, в случае с аудиосообщениями нужно оценивать четкость и интонацию речи, сообщил член комитета ГД по информполитике Антон Немкин. «Качество дипфейков за последние несколько лет значительно выросло, однако все равно есть ряд признаков, по которым можно выявить „подделку“. Обращайте внимание на движение глаз, цвет кожи и волос, контур овала лица – зачастую они могут быть размытыми, странными. В случае голосовых подделок стоит всегда внимательно оценивать интонации и четкость речи. Ну и, конечно, всегда в целом критически относиться к любым просьбам, которые поступают вам в сети, если это касается ваших личных данных или финансовых средств», — сказал он РИА Новости. Депутат уточнил, что даже если гражданин уже точно верит полученному сообщению, не будет лишним попытаться выйти на контакт с человеком, от имени которого с человеком связались. Депутат также отметил, что есть несколько причин, почему у мошенников сегодня получается успешно создавать дипфейки. Одна из причин — доступность технологий. «Современные технологии становятся все более доступными и простыми в использовании. Существуют открытые программные библиотеки и инструменты, которые позволяют создавать дипфейки с минимальными знаниями программирования. Это снижает порог вхождения для потенциальных мошенников, позволяя им быстро создавать убедительные фальшивые ролики и аудиозаписи», — подчеркнул Немкин. Также депутат рассказал, что сети и платформы видеообмена позволяют быстро распространять контент, включая дипфейки. Это означает, что фальшивые видео или изображения могут быстро стать вирусными и дойти до широкой аудитории, прежде чем они будут опровергнуты или идентифицированы как фальшивые, сказал Немкин. «Некоторые дипфейки могут быть настолько реалистичными, что выявить подделку бывает сложно даже экспертам. Технологии глубокого обучения позволяют создавать реалистичные синтетические изображения и видео, которые могут обмануть даже опытных пользователей», — подчеркнул Немкин.
Нравится
Не нравится
14:07
RSS
Нет комментариев. Ваш будет первым!
Загрузка...
На развитие сайта и покупку дополнений и информации. В дальнейшем будет в бесплатном доступе. Кто поддержит проект получит Vip доступ на срок Donate
Собрано 0% / 0 из 5000