Почему традиционная защита больше не справляется с фишингом?

Традиционные методы защиты — сигнатурные антивирусы, статические спам-фильтры и черные списки URL — теряют эффективность. Причина проста: модели защиты, основанные на сигнатурном анализе и статических правилах, демонстрируют снижение эффективности перед лицом проактивных и постоянно эволюционирующих кибератак.

Цифры неутешительны. Более 90% успешных кибератак начинаются с электронного письма. При этом на долю фишинга по-прежнему приходится от 30% до 40% всех угроз, связанных с электронной почтой. Причина роста угрозы в том, что злоумышленники сами вооружились искусственным интеллектом. Фишинг стал персонализированным и практически неотличимым от легитимной переписки благодаря генеративным моделям.

Сотрудники компаний открывают фишинговые письма, сгенерированные ИИ, в два раза чаще, чем созданные человеком. Атаки больше не направлены на абстрактную аудиторию: современный ИИ позволяет злоумышленникам проводить глубокий OSINT-анализ, создавая сверхперсонализированные фишинговые сценарии. В этих условиях борьба требует симметричного ответа — применения ИИ на стороне защиты.

Искали как защитить компанию от фишинга и социальной инженерии?

Оставьте заявку на консультацию и наш эксперт подскажет, какие инструменты ИИ помогут вашей организации противостоять атакам прямо сейчас.

Масштаб угрозы: что говорит актуальная статистика

Понимание масштаба — первый шаг к выстраиванию правильной защиты. Данные отраслевых исследований рисуют тревожную картину.

По итогам IV квартала 2024 года социальная инженерия продолжает оставаться одним из наиболее популярных способов для атак как на компании (50%), так и на частных лиц (88%). Чаще всего социальные инженеры используют электронную почту (84%), если атакуют организацию, и сайты (44%), если цель — обмануть конкретного человека.

В первой половине прошлого года число успешных атак уже превысило аналогичный показатель предыдущего периода на 53%. Доля успешных атак на организации с применением социальной инженерии выросла с 49% до 60%.

Доля атак социальной инженерии с применением технологий искусственного интеллекта выросла в полтора раза. Особую тревогу вызывает тренд на дипфейки: технологии создания поддельных видео и аудио достигли уровня, позволяющего имитировать топ-менеджеров компаний в реальном времени, — звонок от «генерального директора» с просьбой о срочном переводе средств теперь может быть дипфейком.

К текущему моменту затраты на кибербезопасность вырастут на 30–50% из-за необходимости внедрения ИИ-систем обнаружения атак — поведенческого анализа и машинного обучения для выявления аномалий. Инвестиции в ИИ-защиту становятся не опцией, а обязательным условием выживания бизнеса.

Как работает ИИ в системах антифишинга?

ИИ-системы антифишинга работают на нескольких уровнях одновременно, анализируя контент, поведение и сетевые паттерны. В отличие от правиловых систем, они обучаются на новых угрозах без участия человека.

Технологии машинного обучения анализируют подозрительные письма и ссылки

Применение ИИ в спам-фильтрации, борьбе с фишингом, обнаружении вторжений и анализе больших данных позволяет повысить эффективность защиты информации и обеспечить безопасность цифровых систем.

Ключевые механизмы работы ИИ в антифишинге:

  1. NLP-анализ содержимого писем — модели обработки естественного языка анализируют текст письма, выявляя манипулятивные паттерны, нетипичный контекст и несоответствия в стиле коммуникации.
  2. Анализ URL в реальном времени — ИИ проверяет ссылки не только по базам репутации, но и по поведенческим признакам: возраст домена, структура URL, перенаправления, визуальное сходство с известными брендами.
  3. Проверка подлинности отправителя — системы анализируют заголовки SPF, DKIM и DMARC, а также сравнивают стиль письма с историей переписки.
  4. Поведенческий анализ получателя — ИИ отслеживает, как сотрудник реагирует на письма, и в случае аномального поведения блокирует действие.
  5. Компьютерное зрение для анализа вложений — модели распознают поддельные бренды в изображениях, логотипах и скриншотах.

Современные решения используют комбинацию методов, включая искусственный интеллект, поведенческий анализ и анализ угроз в режиме реального времени, для обеспечения более комплексной защиты от угроз, связанных с электронной почтой.

Для понимания того, как устроен искусственный интеллект в подобных системах, важно знать: большинство современных антифишинговых движков используют ансамбль из нескольких моделей одновременно.

Хотите узнать как ИИ-защита от фишинга усилит безопасность вашего бизнеса?

Расскажите о вашей текущей системе защиты — поможем оценить эффективность и покажем, как ИИ перекроет те бреши, которые не видят традиционные решения.

Какие технологии ИИ применяются против социальной инженерии?

Защита от социальной инженерии требует особого подхода, поскольку атака направлена не на технические уязвимости, а на человека. ИИ здесь работает как дополнительный «цифровой иммунитет».

Машинное обучение для выявления аномалий

ИИ анализирует сотни параметров поведения пользователей, выявляет аномалии и сравнивает с базой известных мошеннических паттернов. Если сотрудник вдруг начинает переписываться с незнакомым адресатом, скачивать нетипичные файлы или авторизоваться с нового устройства — система немедленно поднимает тревогу.

Анализ голоса и видео (deepfake detection)

Дипфейк-атаки становятся стандартным инструментом. ИИ-системы детектирования дипфейков анализируют артефакты генеративных моделей: неестественные микродвижения, аномалии в освещении, нехарактерные паузы в речи. Скорость реакции — миллисекунды.

Поведенческая биометрия

Системы на основе ИИ создают уникальный «поведенческий профиль» каждого пользователя: скорость печати, паттерны движения мышью, последовательность действий в интерфейсе. Поведенческая аналитика изучает типичное поведение каждого клиента: система знает, где и когда клиент обычно совершает покупки, на какие суммы, в каких категориях.

Граф-анализ коммуникаций

ИИ строит граф связей внутри компании и выявляет нетипичные запросы — например, когда «руководитель» впервые просит бухгалтера провести срочный перевод через новый канал. Система сигнализирует: такого паттерна в истории коммуникаций не было.

NLP для выявления манипуляций

Модели NLP обучены распознавать классические приёмы социальной инженерии в тексте: создание искусственной срочности («немедленно!», «срок истекает сегодня»), апелляцию к авторитету, давление на страх. Цель злоумышленников — точная имитация знакомого человека, коллеги или сервиса с контекстом, подтверждённым реальными, проверяемыми фактами из открытых источников. Именно поэтому NLP-анализ контекста — ключевой инструмент.

Пошаговое внедрение ИИ-защиты от фишинга: с чего начать?

Внедрять ИИ-защиту нужно системно, начиная с аудита текущего состояния и заканчивая обучением персонала. Хаотичная покупка инструментов без стратегии не даёт результата.

  1. Провести аудит текущей защиты. Оцените, какие инструменты используются сейчас: есть ли SPF/DKIM/DMARC, настроен ли антиспам, применяется ли песочница. В первую очередь нужно обращать внимание на базовые средства — антиспам, антифишинг, проверки SPF, DKIM и DMARC.

  2. Выбрать уровень защиты в зависимости от размера компании. Средним компаниям потребуется набор из антиспама, антифишинга, антивируса и DLP. В более крупных компаниях к этому нужно добавить песочницу, многофакторную аутентификацию и дополнительную защиту на почтовом сервере.

  3. Внедрить ML-фильтрацию почты. Подключите почтовый шлюз с поддержкой машинного обучения. Среди применяемых алгоритмов — классические модели RandomForest, CatBoost, XGBoost, LightGBM, а также нейронные сети CNN, RNN, LSTM, BI-LSTM, машинное зрение на базе OpenCV и NLP-модели: BERT и LLM.

  4. Настроить поведенческий анализ. Должна быть комплексная защита: при прохождении фишингового письма отрабатывает поведенческий анализ на хосте, сетевой анализатор проверяет трафик, чтобы понять цели злоумышленников.

  5. Запустить симуляции фишинговых атак. Фишинговый симулятор содержит разные проверенные шаблоны фишинговых писем, рассылает их по заданному списку контактов и выводит статистику — это позволяет выявить уязвимых сотрудников до реальной атаки.

  6. Обучить персонал. Статистика показывает, что более 54% сотрудников не могут распознать фишинговые письма. ИИ-системы обучения адаптируют программу под каждого сотрудника индивидуально, фокусируясь на реальных слабых местах.

  7. Выстроить процесс реагирования. Если защиту всё-таки обошли, важно локализовать инцидент, найти точку входа, понять тактику и инструменты, которые использовали злоумышленники.

  8. Регулярно переобучать модели. Система самообучается на новых данных, постоянно улучшая точность детектирования. Ключевое преимущество — адаптация к новым схемам мошенничества без участия аналитиков.

Похоже, вам пригодится

Ваша компания теряет деньги из-за успешных атак социальной инженерии?

Получите полный аудит уязвимостей вашей команды к фишингу и конкретный план внедрения ИИ-решений. Первая диагностика для вас бесплатна.

Сравнение подходов: традиционная защита vs ИИ-защита

Чтобы принять взвешенное решение об инвестициях, важно понимать принципиальную разницу между классическими и интеллектуальными системами защиты.

Сравнение традиционной и ИИ-защиты от киберугроз в корпоративной среде

КритерийТрадиционная защитаИИ-защита
Скорость обнаруженияМинуты–часыСекунды–миллисекунды
Новые угрозы (0-day)Не обнаруживаетОбнаруживает по паттернам
Персонализированный фишингПропускаетВыявляет через NLP
ДипфейкиНе распознаётДетектирует артефакты
Ложные срабатыванияВысокий процентСнижается с обучением
Адаптация к новым схемамТребует ручного обновленияАвтоматическая
Стоимость поддержкиНизкаяСредняя–высокая
Покрытие каналовПочта, вебПочта, мессенджеры, голос, видео

Компании, которые решаются на внедрение искусственного интеллекта в бизнес-процессы, получают комплексный эффект: снижение числа успешных атак, сокращение времени реагирования и уменьшение нагрузки на ИБ-специалистов.

Какие инструменты и платформы выбрать для защиты?

Выбор инструментов зависит от бюджета, размера компании и критичности защищаемой инфраструктуры. Рынок предлагает решения для любого масштаба.

Российские решения

  • PT Sandbox (Positive Technologies) — sandbox с поведенческим анализом и интеграцией с SIEM. Опыт F.A.С.С.T. в области анализа угроз дает ему преимущество в обнаружении продвинутых попыток фишинга.
  • Kaspersky Anti-Phishingфильтрация URL-адресов и проверка ссылок в реальном времени, антифишинговый механизм известен своей высокой точностью.
  • AVSOFT KAIROSпроверяет ссылки в реальном времени и принимает их в любом формате — будь то обычные или скрытые веб-адреса, IP, ссылки на облачные или файловые хранилища, а также переходы с задержкой.
  • Phishman — платформа для симуляции атак и обучения сотрудников с аналитическими инструментами.
  • UserGate — российский NGFW с встроенной антифишинговой защитой и фильтрацией URL.

Ключевые характеристики при выборе решения

ПараметрНа что смотреть
Покрытие каналовПочта, веб, мессенджеры, голос
Типы ML-моделейNLP, компьютерное зрение, поведенческий анализ
Частота дообученияНе реже раза в месяц
Интеграция с SIEM/SOCНаличие API и коннекторов
Поддержка SPF/DKIM/DMARCОбязательно
Наличие sandboxЖелательно для Enterprise
Стоимостьот 500 тыс. руб. за базовые до 5+ млн для корпоративных

Система позволяет задавать порог чувствительности для вердиктов ML-моделей, а для объяснения их решений предусмотрены инструменты интерпретации на базе SHAP и LIME — это важно для прозрачности принимаемых решений.

Как ИИ-фишинг обходит защиту и как это остановить?

Атакующие не стоят на месте — они активно используют ИИ для обхода самих же ИИ-систем защиты. Это гонка вооружений, в которой важно понимать методы противника.

ИИ работает как мультипликатор: разведка, фишинг, социальная инженерия, автоматизированный поиск слабых мест и ускорение типовых этапов атаки — это делает противника быстрее, а его затраты меньше.

Основные методы обхода ИИ-защиты злоумышленниками:

  • Медленные атаки — письма рассылаются малыми порциями, имитируя легитимный трафик, чтобы не превысить пороговые значения детекторов аномалий.
  • Adversarial inputs — намеренное искажение фишингового текста (невидимые символы, синонимы, нетипичные форматы), сбивающее NLP-классификаторы.
  • Злоупотребление легитимными сервисами — ссылки ведут на Google Docs, Dropbox, Notion, которые не входят в черные списки.
  • Многоступенчатые редиректы — URL проходит через 5–7 легитимных сервисов перед посадочной страницей.
  • ИИ анализирует поведение пользователя и имитирует его, чтобы обмануть системы защиты: например, пользователь обычно вводит код с задержкой — ИИ повторит этот паттерн.

Как противостоять обходу:

  1. Использовать ансамблевые модели — несколько независимых классификаторов сложнее обмануть одновременно.
  2. Применять динамический анализ URL — переходить по ссылке в изолированной среде sandbox и анализировать финальную страницу.
  3. Внедрить граф-анализ коммуникаций для выявления нетипичных паттернов, независимо от содержимого.
  4. Регулярно дообучать модели на свежих атаках — все семплы проходят обязательную валидацию сторонними инструментами и дополнительный анализ на ошибки и аномалии.

Понять какие задачи решает искусственный интеллект в контексте кибербезопасности помогает правильно расставить приоритеты при выборе архитектуры защиты.

Роль обучения сотрудников: как ИИ усиливает человеческий фактор?

Технологии не заменяют человека — они помогают ему принимать лучшие решения. Человеческий фактор остаётся главной уязвимостью: никакая система не поможет, если сотрудник игнорирует предупреждения.

Обучение сотрудников распознаванию фишинговых атак с помощью ИИ-симулятора

Несколько уроков по кибербезопасности не помешает — организуйте обучение для сотрудников. Можно задействовать самые разные форматы: онлайн-курсы, вебинары, памятки, очное обучение. А фишинг-тесты помогают оценить, насколько пользователи уязвимы перед мошенниками.

Современные ИИ-платформы обучения работают принципиально иначе, чем стандартные курсы:

  • Адаптивное обучение — система анализирует, на какие атаки сотрудник «попадается», и формирует персонализированную программу тренингов.
  • Микрообучение в момент риска — если сотрудник кликнул на подозрительную ссылку, система немедленно показывает мини-урок прямо в интерфейсе.
  • Геймификация и рейтинги — ИИ-симуляторы превращают обучение в соревнование между отделами, повышая вовлечённость.
  • Автоматическая актуализация сценариев — ИИ генерирует новые шаблоны фишинга на основе актуальных атак, чтобы тренинги не устаревали.
  • Предиктивная аналитика риска — система прогнозирует, кто из сотрудников с наибольшей вероятностью станет жертвой атаки, и усиливает защиту именно для него.

Использование фишинг-симулятора и курсов обходится дешевле и эффективнее найма специалиста по социальной инженерии для компании.

Обучение поддерживает и автоматизация с помощью искусственного интеллекта: рутинные проверки знаний, напоминания и отчёты руководству теперь не требуют участия HR-специалиста.

Защита от дипфейков и голосового фишинга: новый фронт

Голосовой и видеофишинг (вишинг) — самый быстрорастущий вектор атаки. Злоумышленники используют более изощренные техники, включая таргетированные атаки, подделку голосовых сообщений (вишинг) и сложные схемы социальной инженерии.

Как ИИ противодействует дипфейкам:

  1. Детектирование артефактов генерации — нейросети анализируют спектрограммы голоса, выявляя следы синтеза: нехарактерные переходы между фонемами, отсутствие фоновых шумов, аномалии в просодии.
  2. Анализ видеопотока в реальном времени — системы компьютерного зрения проверяют когерентность движений губ, мигания, микровыражений лица во время видеозвонков.
  3. Верификация через второй канал — ИИ-системы автоматически инициируют верификацию подозрительных запросов через независимый канал связи.
  4. Голосовая биометрия с анализом живости — система не только узнаёт голос, но и проверяет, что это живая речь, а не воспроизведение записи.

Современные системы безопасности используют голосовую аутентификацию, однако ИИ может обмануть такие системы, имитируя голос владельца аккаунта. Поэтому одной голосовой биометрии недостаточно — нужна многофакторная верификация с поведенческим анализом.

Продавайте с
комиссией 0%

Команда маркетологов бесплатно откроет интернет-магазин на платформе Яндекс KIT и все запустит. От Вас нужен только план продаж.

Интеграция ИИ-защиты в корпоративную инфраструктуру: практические аспекты

Технические аспекты интеграции часто недооцениваются при планировании проектов кибербезопасности. Покупка инструмента — это 20% работы; оставшиеся 80% — корректное встраивание в инфраструктуру.

Ключевые шаги интеграции:

  • Интеграция с SIEM-системами — ИИ-детекторы должны отправлять алерты в единую систему мониторинга событий безопасности. Это позволяет коррелировать фишинговые атаки с другими инцидентами.
  • Подключение к SOCсистема кибербезопасности для мониторинга, анализа и реагирования на сетевые угрозы в режиме реального времени использует поведенческий анализ, машинное обучение и сигнатурные методы для выявления аномалий.
  • API-интеграция с почтовыми серверами — Microsoft Exchange, Yandex 360, VK WorkMail, RuPost и другие корпоративные почтовые системы поддерживают подключение внешних антифишинговых движков.
  • Федеративное обучение для холдинговтехнологии федеративного обучения позволяют обучать модель без централизации данных, сохраняя конфиденциальность. Это актуально для крупных структур с множеством юрлиц.
  • Консорциумные моделиконсорциумные модели объединяют данные нескольких организаций для обучения общей системы обнаружения мошенничества. Мошенник, обманувший одну организацию, может быть пойман при попытке атаковать другую.

Понять области применения искусственного интеллекта в корпоративной безопасности помогает правильно приоритизировать задачи при построении ИТ-архитектуры.

При внедрении ИИ-решений для кибербезопасности важно заранее определить, кто будет отвечать за обслуживание моделей, их переобучение и мониторинг качества — это отдельная роль в команде ИБ.

Риски и ограничения ИИ в антифишинге

Честный взгляд на ограничения технологии помогает строить реалистичные ожидания и избегать ложного чувства защищённости.

Иллюстрация к статье о Как применить искусственный интеллект в защите от фишинга и социальной инженерии

Для того чтобы справиться с рисками, связанными с машинным обучением и ИИ в области информационной безопасности, необходимо применять многоуровневую защиту и комбинировать методы машинного обучения с традиционными методами обнаружения.

Основные риски ИИ-систем защиты:

  • Ложные срабатывания — агрессивные модели блокируют легитимные письма, нарушая бизнес-процессы. Требуется тонкая настройка порогов чувствительности.
  • Ложное чувство безопасности — компании, внедрившие ИИ-защиту, снижают внимание к обучению сотрудников, хотя это взаимодополняющие меры.
  • Отравление обучающих данных — злоумышленники могут намеренно «загрязнять» данные для обучения, снижая точность модели. В правильно выстроенных системах все семплы проходят обязательную валидацию сторонними инструментами и дополнительный анализ на ошибки и аномалии.
  • Дефицит специалистовкомпании зачастую не могут найти квалифицированных экспертов по ИБ, что усугубляет проблему, так как даже имея бюджет, компании не могут эффективно внедрить новые технологии защиты.
  • Проблема «чёрного ящика»применение объяснимого интеллекта в кибербезопасности играет важную роль в обеспечении понятности и прозрачности принимаемых ИИ-системой решений.
  • Concept Drift — модели устаревают по мере изменения тактики злоумышленников. Чтобы повысить качество и устойчивость моделей к изменениям данных, система регулярно пополняется свежими данными из внешних источников.

Подробнее о том, с какими сложностями сталкиваются организации, читайте в материале о рисках внедрения искусственного интеллекта — многие из них актуальны и для ИБ-систем.

Регуляторная среда и требования к ИИ-системам защиты в России

Регуляторный контекст напрямую влияет на выбор инструментов и архитектуру защиты. Российские компании работают в условиях специфических требований.

Ключевые регуляторные требования:

  • 187-ФЗ «О безопасности критической информационной инфраструктуры» — обязывает объекты КИИ внедрять системы обнаружения и предотвращения компьютерных атак, включая фишинговые.
  • 152-ФЗ «О персональных данных» — требует защиты каналов передачи ПДн, в том числе почтовых.
  • ГосСОПКА — государственная система обнаружения, предупреждения и ликвидации последствий компьютерных атак обязывает крупные организации подключаться к централизованному мониторингу.
  • Приказы ФСТЭК — устанавливают требования к средствам защиты информации, в том числе к системам обнаружения вторжений.

При выборе ИИ-систем защиты важно убедиться в наличии сертификатов ФСТЭК и ФСБ, а также в том, что обработка данных происходит на российских серверах — это требование для государственных организаций и субъектов КИИ.

Читайте подробнее про направления применения искусственного интеллекта в регулируемых отраслях, где требования к системам защиты наиболее строгие.

Часто задаваемые вопросы

Что такое фишинг с применением ИИ и чем он отличается от обычного?

ИИ-фишинг — это атака, при которой злоумышленники используют языковые модели для создания персонализированных писем, учитывающих должность жертвы, историю переписки и контекст работы. В отличие от массовых рассылок, такие письма практически неотличимы от легитимных. Сотрудники открывают их в 2–3 раза чаще, чем стандартные фишинговые письма.

Может ли малый бизнес позволить себе ИИ-защиту от фишинга?

Да. Базовые решения с элементами машинного обучения доступны от 500 тыс. рублей в год для корпоративных внедрений, а облачные антифишинговые сервисы — от 15–30 тыс. рублей в месяц. Многие вендоры предлагают тарифы по числу пользователей, что делает решения масштабируемыми для компаний любого размера.

Как быстро ИИ-система обучается на новых атаках?

Современные системы с механизмом непрерывного обучения (online learning) адаптируются к новым паттернам в течение нескольких часов после первого обнаружения угрозы. Плановые дообучения на свежих датасетах проводятся раз в 2–4 недели, а реакция на критические угрозы может быть реализована в течение суток через экстренное обновление сигнатур.

Что такое поведенческий анализ в контексте антифишинга?

Поведенческий анализ — это мониторинг действий пользователей и систем для выявления аномалий. ИИ строит базовый профиль нормального поведения каждого сотрудника и автоматически реагирует на отклонения: нестандартное время входа, попытки открыть нетипичные файлы, скачивание большого объёма данных. Это позволяет выявлять атаки даже если фишинговое письмо уже прошло фильтры.

Заменяет ли ИИ-защита обучение сотрудников?

Нет, они дополняют друг друга. ИИ-системы снижают нагрузку на человека и ловят то, что не заметит сотрудник. Но человек принимает финальное решение: кликнуть или нет, перевести деньги или проверить по второму каналу. Обучение персонала с применением ИИ-симуляторов снижает вероятность успешной атаки на 60–70%.

Как ИИ помогает защититься от дипфейк-атак?

Системы детектирования дипфейков анализируют акустические и визуальные артефакты синтезированного контента: нехарактерные паузы, аномалии в видеопотоке, отсутствие фоновых звуков. Дополнительно ИИ помогает выстроить политику верификации: подозрительный видеозвонок с нестандартным запросом автоматически требует подтверждения через SMS или второй канал связи.

Какие метрики отслеживать для оценки эффективности ИИ-защиты?

Ключевые метрики: процент ложных срабатываний (FPR), процент пропущенных угроз (FNR), среднее время обнаружения атаки (MTTD), среднее время реагирования (MTTR), процент сотрудников, «попавшихся» на симулированный фишинг. Цель — снизить FNR ниже 2% и сократить MTTD до нескольких секунд.