Дипфейки становятся частым явлением в нарушении авторского права. С помощью современных технологий удается не только подделать голос будущей жертвы, но и заменить лицо на видео. Такая тенденция может не только разрушить репутацию человека, но и подставить его в преступлении.
Дипфейками могут быть видео, аудиозапись или фото, которые создают с помощью интеллектуального интеллекта. Технологии изменяют изображение так, что поддельные видео выглядят и звучат как настоящие.
В России пока нет закона о дипфейках, но с развитием технологий такая необходимость становится всё актуальнее. Так, в Госдуму уже был внесен законопроект, который поможет добавить в кодекс уголовного наказания новые поправки, сообщают в Право.ru.
Для того чтобы распознать дипфейк нужна профессиональная экспертиза. Несмотря на это, обыватель тоже может распознать подделку, если программа, с помощью которой ее создавали, является не столь разработанной. Так, эксперты советуют обратить внимание на дефекты речи, где может резко меняться интонация. Неестественные движения также помогут отличить дипфейк от оригинала, так обычно мимика губ и бровей кажется нетипичной для человека. Последние показатели – рассинхронизация рта и речи, несоответствие цвета кожи на лице и шее.
По словам экспертов, фотографии в открытом доступе оставляют за их создателем авторское право и право на образ, поэтому использование их в дипфейках несет за собой наказание. Однако если человек скрытно сделал снимок, его можно обвинить в незаконном использовании права на образ (ст. 1259 ГК). А вот с использованием голоса будет тяжелее, так как он не считается объектом интеллектуальной собственности. Не смотря на это голос человека является биометрическими данными, которые никто не имеет право распространять.
Напомним, «МК Мурманск» писал, что северянам рассказали, какие признаки есть у фейковых сообщений.