← Назад

Как распознать AI-фишинг: 7 признаков голосовых и видео-мошенничеств в 2025 и как себя защитить

Искусственный интеллект, который еще пару лет назад ассоциировался с футуристическими технологиями, сегодня стал инструментом мошенников. В 2025 году AI-фишинг перешел на новый уровень: поддельные голосовые сообщения, клонированные видео и персонализированные атаки на основе данных из соцсетей. По данным экспертов, количество инцидентов с использованием ИИ в мошенничестве резко возросло. В этой статье разберем, как распознать такие угрозы и какие меры защиты работают на практике.

Как работает AI-фишинг в 2025: новые методы мошенников?

Современные мошенники используют нейросети для создания реалистичных подделок. Достаточно 15-секундного аудиофрагмента — и алгоритмы генерируют речь, идентичную голосу вашего родственника или коллеги. В 2025 году популярны три сценария:

  • Эмоциональный шантаж: «Я в беде, нужны деньги!» — голос, похожий на сына или дочери, звучит в панике. Мошенники подбирают информацию из публичных данных, чтобы усилить доверие.
  • Поддельные видеозвонки: Через мессенджеры приходит запрос на видеосвязь от якобы руководителя с «срочной задачей».
  • Фишинг через соцсети: Глубокие фейки в TikTok или Instagram с участием знаменитостей предлагают «уникальные инвестиции».

Главное отличие от классического фишинга — высокая степень адаптации под жертву. ИИ анализирует вашу активность в интернете и создает персонализированный сценарий.

7 признаков, что вас атакуют с помощью ИИ?

Не все подозрительные звонки — результат работы нейросетей. Вот конкретные маркеры, на которые стоит обратить внимание:

  1. Резкие скачки громкости: Искусственные голоса часто имеют неравномерную динамику — шепот сменяется криком без причины.
  2. Нелогичные просьбы: Мошенники в 80% случаев требуют срочных действий: «Переведи деньги до закрытия банка».
  3. Отсутствие фоновых шумов: В реальных разговорах есть естественные помехи — шум улицы, голоса. В AI-аудио фон идеально чистый.
  4. Повторы фраз: Нейросети могут «заикаться», повторяя одни и те же слова при генерации длинных реплик.
  5. Стандартная интонация: Даже самые продвинутые ИИ не передают эмоциональные нюансы: интонация монотонная, как у голосового помощника.
  6. Запросы подтвердить личность через сторонние сервисы: «Нажми на ссылку в SMS, чтобы проверить, это ты» — реальные компании так не делают.
  7. Ошибки в локальных деталях: Если «ваш друг из Новосибирска» говорит с акцентом или упоминает несуществующее кафе — это явный красный флаг.

Как проверить подлинность голосового или видео-сообщения за 30 секунд?

Если сомневаетесь в подлинности звонка, не действуйте импульсивно. Используйте эти методы:

  • Проверка через альтернативный канал: Позвоните человеку напрямую по сохраненному номеру, а не через «вернуться в чат», как предлагают в сообщении.
  • Тест на эмоции: Задайте вопрос, требующий искренней эмоциональной реакции: «Какой подарок я принес на твою последнюю днюху?». ИИ часто дает общие ответы.
  • Анализ через приложение: Используйте официальные инструменты — например, Google Call Screen автоматически проверяет подозрительные звонки через ИИ.
  • Внезапный вопрос: Спросите что-то из личной переписки: «Что я написал вчера в 18:00?». Мошенники не имеют доступа к вашей приватной истории.

Настройки безопасности в смартфоне против AI-атак: что включить сегодня?

Современные устройства уже содержат инструменты, блокирующие фишинг. Вот что нужно активировать в 2025 году:

  • Android: В разделе «Безопасность» включите опцию «Блокировка AI-звонков». Система анализирует аудиопоток в реальном времени и предупреждает при выявлении аномалий.
  • iOS: Обновите до iOS 18.3 и активируйте «Проверку голоса» в Настройках → Конфиденциальность → Телефон. Функция сверяет входящие вызовы с контактами в книге.
  • Общие рекомендации: Установите приложения-анализаторы вроде «AudioDeepFake Detector» (бесплатно в App Store и Google Play). Они сканируют аудиофайлы на признаки генерации ИИ.
  • Блокировка метаданных: Отключите разрешение «Доступ к контактам» для мессенджеров, если не используете эту функцию. Так мошенники не смогут подставить знакомые имена.

Что делать, если уже попались на удочку мошенников?

Если вы перевели деньги или раскрыли данные, действуйте по инструкции:

  1. Сразу отключите интернет: Это остановит синхронизацию данных с серверами злоумышленников.
  2. Заблокируйте карту: Через банковское приложение или горячую линию. В 2025 году большинство банков возвращают средства при обращении в течение 1 часа.
  3. Сообщите в МВД: Подайте заявление через сайт «Госуслуги» → раздел «Кибербезопасность». Укажите все детали атаки — это помогает отслеживать группировки.
  4. Измените биометрию: Если мошенники записали ваш голос, перейдите на распознавание по лицу в платежных системах.

Важно: Не пытайтесь «вернуть» деньги через сервисы с гарантией возврата — это распространенная вторая ступень атаки.

Прогноз: как изменится AI-фишинг в ближайшие годы?

Эксперты предупреждают: к 2026 году появятся нейросети, генерирующие 3D-голограммы в реальном времени. Но уже сейчас разрабатываются контрмеры:

  • Блокчейн-аутентификация: Телефонные операторы внедряют систему цифровых подписей для голосовых вызовов.
  • Чипы с защитой от deepfake: В новых флагманских смартфонах (например, iPhone 17 Pro) есть отдельный процессор для анализа биометрии.
  • Законодательные инициативы: В ЕС и США приняты законы, наказывающие за создание AI-мошеннического контента. В РФ аналогичные поправки находятся на рассмотрении.

Пока эти технологии не массовые, ключевой барьер для мошенников — ваша бдительность.

Источники

← Назад

Читайте также