Top.Mail.Ru
Новости

В ногу с технологиями: Финансовые мошенники обманывают с помощью нейросети

Будьте внимательны! Искусственный интеллект научился подделывать голос и образ. Этой способностью успешно пользуются мошенники в своих финансовых махинациях.

Как рассказали эксперты Роскачества, новая схема мошенничества уже активно набирает обороты. Первые случаи обмана по телефону при помощи клонирования голоса зафиксировали западные специалисты. Искусственному интеллекту (ИИ) достаточно двадцати секунд, чтобы предельно точно скопировать голос и интонацию любого человека по фрагменту аудио или видеозаписи из соцсетей. Точность настолько поражает, что даже самые близкие люди верят в реальность разговора.

Схема как всегда банальна: ИИ звонит жертве и, представляясь близким родственником, просит срочно перевести деньги, к примеру, на возмещение ущерба в ДТП. Срочность и родной голос заставляют людей терять рассудок и переводить мошенникам большие суммы денег.

Предупредите родственников, особенно пожилых, что в таких случаях нужно обязательно завершать разговор и лично перезванивать близкому. Переводить деньги без подтверждения ни в коем случае нельзя. Можете даже придумать кодовое слово, без которого он сразу поймут, что им звонят мошенники.

Подделка голоса — не единственное умение ИИ обманывать людей. Успешно используют мошенники и так называемые «дипфейки» — копирование образа. При помощи нейросети происходит наложение ненастоящих фото и видео на реальные. Но в данном случае есть возможность выявить обман: видеоклона выдают неестественность мимики, асинхронность и несвязный темп речи.

Помните, что финансовая безопасность — только в ваших руках! Предупредите близких и родных, и будьте внимательны сами!

#ОсторожноМошенники
Made on
Tilda