1. Генеративный фишинг - письма, которые сложно отличить от настоящих
Когда фишинг выглядел как «Дорогой юзер, ваша посылка на почте!!», его легко было опознать. Сегодня AI пишет так, будто ваш коллега по привычке забыл знаки препинания, но помнит вчерашний созвон.
До 70% пользователей не отличают AI-фишинг от реальной переписки. И это пугает даже специалистов по кибербезопасности.
2. Deepfake-атаки: когда «звонит директор» (но не директор)
- Голос директора? Легко.
- Лёгкий шум офиса? Да сколько угодно.
- Пауза, как будто человек думает? Приложение сэмплирует её автоматически.
В 2024 году было несколько случаев, когда компании теряли миллионы долларов, доверившись поддельному звонку «топ-менеджера».
3. AI-сканирование уязвимостей в автоматическом режиме
Модели проверяют тысячи сервисов и генерируют эксплойты.
Это превращает даже новичков в «мини-хакинг-команды». Кибербезопасность теперь требует не только защиты, но и скорости реакции.
5. “Невидимые атаки”, маскирующиеся под обычных пользователей
AI симулирует нормальное поведение - плавные клики, человеческие временные задержки, рандомизацию.
Классические системы защиты смотрят: «Ну, похоже на человека» - и пропускают угрозу.
4. Атаки на AI-модели: ваш ИИ можно «отравить»
Если ваш продукт использует ML, то враги могут:
- подмешивать вредные данные в датасеты (data poisoning);
- менять поведение модели;
- красть веса (взлом моделей уже стал отдельной профессией);
- заставлять AI выдавать неправильные результаты.
Даже крупные компании уже сталкивались с подобными атаками.
Новые AI-угрозы для бизнеса