Опубликовано 10 августа 2024, 20:36
1 мин.

Хакеры начали использовать ИИ для обмана своих жертв

С помощью нейросетей киберпреступники подделывают голоса близких людей своих жертв
Россиянам рассказали, как киберпреступники используют нейросети для обмана
Хакеры начали использовать ИИ для обмана своих жертв

Мошенники нашли новый способ обмана, используя искусственный интеллект для подделки аудио и видеосообщений. По информации Аллы Храпуновой, куратора платформы «Мошеловка», злоумышленники взламывают аккаунты в WhatsApp, скачивают переписку и затем с помощью ИИ создают дипфейки, имитируя голос и видео жертвы. Это позволяет мошенникам отправлять сообщения от имени жертвы её знакомым, подделывая интонацию и манеру общения.

По словам Храпуновой, такие мошенники начинают общение с обычных тем, избегая разговоров о деньгах. Лишь позже они переходят к просьбам о финансовой помощи. Эксперт советует всегда проверять просьбы о помощи, связываясь с человеком другим способом, и использовать «контрольные вопросы», ответы на которые знает только владелец аккаунта.

Если вы заметили, что ваш аккаунт взломан, важно как можно скорее предупредить свои контакты через другие каналы связи и отключить все активные сеансы в WhatsApp. Также полезно сообщить о мошеннических счетах в банк, чтобы предотвратить дальнейшие транзакции.