Привет, гость!

Добро пожаловать на CVVBOARD - крупнейший теневой кардинг форум. У нас Вы сможете найти огромное множество статей по теме кардинга и заработка в интернете. Актуальная информация, новости даркнета, сервисы от проверенных продавцов, эксклюзивные, только рабочие схемы заработка, ежедневные раздачи - все это Вы найдете на нашем форуме! Не пренебрегайте услугами Гарант-Сервиса это убережет Вас от мошенников. Обратите внимание, звание модератора не является гарантом в сделках!

В российском законодательстве появится термин «дипфейк»

HennisonVsop

Опытный user
Регистрация
12 Мар 2021
Сообщения
711
Реакции
25
В российском законодательстве появится официальный термин «дипфейк», о чем сообщают «Известия». Соответствующую инициативу готовят в комитете Госдумы по информполитике совместно с Роскомнадзором

«Главная задача законопроекта, которую, надеемся, удастся решить, — это дать правовое определение явлению под названием «дипфейки», которые сегодня стали уже не уникальными», — заявил глава комитета Александр Хинштейн.

Зампред комитета Олег Матвейчев заявил, что сейчас нейросети в первую очередь используют для развлечений, но в ближайшее время технологии всё чаще будут использовать мошенники. Он добавил, что документ готовится к внесению в Госдуму уже в осеннюю сессию в этом году. Авторы законопроекта считают, что он поможет в борьбе с мошенничеством.

В российском законодательстве появится термин «дипфейк»
Сейчас это просто игрушки. Но, когда люди будут, к примеру, загружать в программу свои голоса, то мошенники потом смогут звонить их близким с имитацией их же голоса. Или даже сама нейросеть будет вести разговор. То есть вам, к примеру, позвонит ваш родственник, вы его прекрасно узнаете, он будет так же шутить, использовать те же слова-паразиты. Вы его не отличите. А потом он скажет: «Пришли мне 20 тыс. рублей срочно».
Олег Матвейчев.
По мнению специалистов в этой отрасли, даже экспертам сложно отличить достоверную картинку от фейковой. Многие компании ведут исследования по противостоянию дипфейкам. Пока что технология остается дорогой для использования в мошеннических схемах, поэтому она уступает традиционным способам обмана.
 

Stephaniero

Опытный user
Регистрация
22 Апр 2021
Сообщения
215
Реакции
18
Очень интересно как они будут отличать оригинал от сгенерированной картинки? Если они сами же и пишут, что людям, которые за это шарят и то сложно различать их. Либо просто не хотят говорить как они это делают, либо же это очередной раз, когда они сами себе придумывают работу, видимо чтобы не так скучно было
 

Aleksich

Опытный user
Регистрация
11 Сен 2021
Сообщения
759
Реакции
26
Ну хоть какие то хорошие новости и предложения они могут генерировать, а то проблема дипфейков 100% скоро будет очень актуальна, сейчас нейронки подучатся, и все будет миллион роликов с заменой людей.
 

MrAndrey

Интересующийся
Регистрация
20 Ноя 2022
Сообщения
71
Реакции
11
Закон то может и нормальный,но исполнение будет корявым как всегда,да и наверное закинут денег с бюджета для создания нейронки,которая будет различать такие фэйки,а на самом деле просто попилят и всё.
 

Malkiel1337

Опытный user
Регистрация
5 Окт 2020
Сообщения
956
Реакции
29
А вот как они будут его применять мы узнаем позже. Мне вот интересно откуда такая быстрая реакция, по моему мы первая страна где такое на законодательном уровне будет описано, не из-за того ли что с плешивым фейки пошли?
 
Сверху Снизу