ИИ подарил аферистам новый инструмент — deepfake. Теперь любой публичный человек может «сказать» на видео то, чего никогда не говорил: мимика, голос, жесты выглядят правдоподобно. И этим активно пользуются, чтобы выманивать деньги.
🔎 Как работает схема
Поддельное обращение/интервью.
«Звезда» или чиновник «рекомендует» вложиться в «новую платформу», «проект», «госпрограмму».
Реклама в соцсетях.
Ролик крутят таргетом в YouTube, VK, Reels и т. п.
Ссылка под видео.
Ведёт на фальшивый сайт, стилизованный под банк или госструктуру.
Внесение средств.
Человек переводит деньги, уверенный в «поддержке» знаменитости — и теряет их.
🤔 Почему это работает
Эффект авторитета: публичным людям верят.
Реализм картинки и голоса: фейки всё сложнее отличить.
Виральность: ролики быстро разлетаются по лентам.
🕵️ Как распознать подделку
Слишком «выгодное» предложение от звезды — красный флаг.
Сверьте видео с официальными страницами человека. Нет публикации — вероятно, фейк.
Присмотритесь к деталям: неестественная мимика, «плывущие» зубы/украшения, сбитая синхронизация губ и звука.
Проверьте домен сайта: проекты публичных людей размещаются на проверенных адресах, а не на случайных субдоменах и укоротителях.
🛡 Как защититься
Не принимайте финансовых решений только на основании ролика в соцсетях.
Проверяйте платформы и «инвестпредложения» через официальные реестры/сайты (для брокеров — реестр ЦБ).
Подписывайтесь на верифицированные аккаунты и ищите первоисточник видео.
Берите паузу: не переводите деньги «по горячим следам», при сомнении — консультируйтесь с юристом.
Наткнулись на фейк? Жалоба на объявление/аккаунт и сохранение доказательств (ссылки, скриншоты).
📌 Итог
Deepfake — это новый уровень обмана: «заговорить» могут кого угодно — от министра до любимого актёра.
Единственная защита — критическое мышление + проверка по официальным источникам.
💬 Если материал был полезен — поставьте реакцию и поделитесь этой статьёй с друзьями. Так больше людей не попадутся на deepfake-уловки.