Почему традиционные методы борьбы с мошенничеством больше не работают?

Правило-ориентированные системы защиты устарели: мошенники обходят статичные фильтры быстрее, чем службы безопасности успевают их обновить. Именно здесь на сцену выходит искусственный интеллект.

Финансовое мошенничество стремительно расширяется вместе с ростом цифровой экономики, эволюционируя от обычных транзакционных нарушений к более сложным и наукоёмким формам. Традиционные методы обнаружения на основе правил становятся всё менее эффективными перед лицом масштабов, неоднородности и динамичного поведения современного мошенничества.

По оценкам Интерпола, только за последний отчётный период глобальные потери, связанные с финансовым мошенничеством, составили около $442 млрд. В течение следующих трёх-пяти лет эта сумма продолжит расти, в основном из-за ИИ.

В России ситуация не менее тревожная. За семь месяцев 2025 года российские граждане потеряли на кибермошенничестве более триллиона рублей. По данным МВД, ущерб от киберпреступлений за семь месяцев 2025 года вырос на 16%.

Мошенничество сегодня — это не просто более быстрые атаки: оно стало более обманчивым. И это вынуждает специалистов по рискам внедрять стратегии обнаружения, которые в равной мере адаптивны, контекстуальны и основаны на разведывательных данных.

Если вы хотите разобраться в том, как устроены технологии ИИ на базовом уровне, прежде чем переходить к практике защиты, — начните с основ классификации.

Подпишитесь на наш Telegram

Актуальные новости маркетплейсов, лайфхаки и кейсы — каждый день в нашем канале.

Что такое ИИ-антифрод и как он работает?

ИИ-антифрод — это применение алгоритмов машинного обучения и нейронных сетей для автоматического выявления, предотвращения и минимизации мошеннических действий в режиме реального времени.

AI fraud detection — это использование искусственного интеллекта для выявления, предотвращения и смягчения мошеннических действий на цифровых платформах. Защитные решения применяют продвинутые алгоритмы, модели машинного обучения и поведенческий анализ, чтобы в реальном времени отличать добросовестных пользователей от тех, кто намерен совершить мошенничество.

Антифрод на базе ИИ — это технологический подход, применяющий машинное обучение для выявления мошеннических действий в больших наборах данных. Он предполагает обучение алгоритмов распознаванию паттернов и аномалий, сигнализирующих о возможном мошенничестве. Постоянно обучаясь на новых данных, такие модели становятся всё более точными и способны адаптироваться к эволюции мошеннических тактик.

Ключевой принцип работы системы:

  1. Сбор данных — агрегирование транзакционной и поведенческой информации из множества источников: детали платежей, геолокация, история устройств, паттерны входа.
  2. Построение базовой линии — система фиксирует «нормальное» поведение конкретного пользователя или транзакции.
  3. Непрерывный мониторинг — алгоритм в режиме реального времени отслеживает отклонения от нормы.
  4. Скоринг риска — каждой операции присваивается вероятность мошенничества.
  5. Реакция — автоматическая блокировка, запрос дополнительной верификации или алерт аналитику.

Системы ИИ значительно превосходят традиционные подходы на основе правил как в обнаружении реального мошенничества, так и в снижении ложноположительных срабатываний. Алгоритмы машинного обучения способны выявлять тонкие паттерны и аномалии, которые могут ускользнуть от правило-ориентированных систем.

Какие методы машинного обучения применяются для выявления мошенничества?

Для решения задач антифрода используют три основные парадигмы машинного обучения: обучение с учителем, без учителя и гибридные подходы.

Алгоритмы машинного обучения для выявления мошенничества — схема нейронной сети

Ключевые типы мошенничества, требующие детектирования, включают мошенничество с кредитными картами, фальсификацию финансовой отчётности, страховое мошенничество и отмывание денег, каждый из которых предъявляет особые требования к методам обнаружения. Рассматриваются подходы на основе обучения с учителем, без учителя и гибридного обучения.

Обучение с учителем (Supervised Learning)

Модели ИИ обучаются на больших объёмах тщательно подобранных данных с помощью обучения с учителем. Этот метод учит модель распознавать специфические паттерны для конкретных задач. В противоположность ему, обучение без учителя позволяет системам делать выводы из прошлых данных без направляющих обучающих материалов. При обучении с учителем системы ИИ тренируются на конкретных мошеннических тактиках, что задаёт ориентиры для распознавания паттернов.

Применяемые алгоритмы: Random Forest, Gradient Boosting (XGBoost, LightGBM), логистическая регрессия, нейронные сети.

Обучение без учителя (Unsupervised Learning)

Техники обнаружения аномалий без учителя используются там, где наблюдаются пробелы в обучении с учителем. Эти техники позволяют моделям ИИ распознавать ранее непредсказуемые, но всё же нетипичные паттерны поведения. Использование систем с такими возможностями позволяет анализировать новые данные и выявлять мошеннические тактики ещё до того, как люди вообще осознают существование таких угроз.

Глубокое обучение и графовые нейросети

Обзор включает репрезентативные подходы на базе машинного обучения и глубокого обучения, включая древовидные модели, нейронные сети и графовые методы, а также их применение в ключевых сценариях мошенничества: мошенничество с кредитными картами, ссудами и отмывание денег.

Техники машинного обучения, такие как граф-анализ, могут использоваться для раскрытия сетей потенциальных мошенников путём анализа взаимосвязей между объектами и выявления подозрительных связей или кластеров.

МетодЗадачаПреимущество
Random ForestКлассификация транзакцийВысокая точность, устойчивость к шуму
XGBoost / LightGBMСкоринг рискаСкорость, хорошая работа с несбалансированными данными
Нейронные сети (LSTM)Анализ последовательностей операцийУчитывает временной контекст поведения
АвтоэнкодерыОбнаружение аномалийРаботает без размеченных данных
Граф-нейросети (GNN)Выявление мошеннических сетейАнализирует связи между аккаунтами
Генеративные модели (GAN)Синтез обучающих данныхПомогает при нехватке примеров мошенничества

Рассчитайте прибыль

Узнайте, сколько вы можете заработать на маркетплейсах с нашим калькулятором.

Как применить поведенческий анализ для обнаружения мошенников?

Поведенческая аналитика — один из самых мощных инструментов современного антифрода. Система строит цифровой портрет каждого пользователя и немедленно реагирует на отклонения.

Вместо вопроса «Превышает ли эта транзакция пороговое значение?» современные системы спрашивают: «Является ли это поведение нормальным для данного пользователя, данного устройства, данного канала в данный момент времени?» Современные фрод-системы обучаются типичному ритму входа пользователя, времени транзакций, предпочтительным устройствам и даже микропаттернам — движению курсора, ритму набора текста или потоку навигации.

Что именно анализируют поведенческие ИИ-системы:

  • Биометрия нажатий клавиш — скорость и ритм набора текста, характерные паузы
  • Моторные паттерны — траектория движения мыши, характер прокрутки
  • Геолокация и устройство — новый IP, смена страны, незнакомый гаджет
  • Временные паттерны — нетипичное время суток для операций
  • Сессионные признаки — длительность сессии, порядок действий в интерфейсе
  • Историческое поведение — отклонение от средних значений за последние 30/90 дней

Если клиент начинает совершать действия, характерные для жертвы обмана, приложение показывает предупреждение и может временно ограничить операции.

Особую роль играет обнаружение социальной инженерии: искусственный интеллект позволяет злоумышленникам из клочка информации — ФИО и телефона — собрать подробный цифровой портрет жертвы и адаптировать под него сценарий, который будет звучать максимально правдоподобно. В ответ на это защитные системы учатся распознавать не только подозрительные транзакции, но и поведение клиента, находящегося под психологическим давлением.

Автоматизация бизнес-процессов с помощью ИИ позволяет внедрить такой поведенческий мониторинг без создания отдельной команды аналитиков.

Какие виды мошенничества лучше всего выявляет ИИ?

ИИ-системы антифрода применимы в десятках сценариев, но особенно эффективны в следующих областях.

Банковская система защиты от мошенников на основе ИИ — мобильное приложение с предупреждением

Мошенничество с платёжными картами

Классика антифрода. Продвинутые модели машинного обучения анализируют заявки на кредиты и займы, чтобы выявить мошенничество с синтетическими личностями, обнаруживая поведение, которое может свидетельствовать о сфабрикованных личностях, — предотвращая финансовые потери до того, как они произошли.

Дипфейки и биометрическое мошенничество

Согласно отчёту об идентификационном мошенничестве, атаки с использованием дипфейков происходили раз в пять минут в 2024 году, а количество цифровых подделок документов выросло на 244% в годовом исчислении.

Использование ИИ для имитации видео, голоса и создания дипфейков вышло на очень высокий уровень. Преступники не просто генерируют фейковые сообщения, но и проводят с помощью ИИ «предскрининг» своих жертв, а также делают «пробные» звонки.

Отмывание денег (AML)

Алгоритмы анализируют граф транзакций — сложные цепочки переводов через десятки счетов — и выявляют «слоение» (layering) и другие типичные схемы отмывания, которые человеческий аналитик пропустит в море операций.

Мошенничество на маркетплейсах

Фейковые карточки ненастоящих товаров на маркетплейсах «из-под пера» искусственного интеллекта — ещё один способ выманивания денег, причём на фото показаны вещи, которых не существует. ИИ-системы маркетплейсов анализируют поведение продавца, историю отзывов, паттерны создания листингов и выявляют такие схемы на этапе модерации.

Фишинг и социальная инженерия

Согласно отчёту F6, преступники начали применять ИИ-технологии для повышения эффективности атак, особенно в социальных сетях и фишинге. NLP-модели в режиме реального времени анализируют содержимое писем, ссылок и сообщений, выявляя фишинговые паттерны.

Как ИИ-антифрод применяется в банковском секторе России?

Российские банки — в числе мировых лидеров по внедрению ИИ-систем защиты. До 100% крупных банков используют ИИ для скоринга, выявления мошенничества и персонализации.

Сбербанк: В 2025 году Сбербанк помог россиянам уберечь от мошенников свыше 360 млрд рублей — это на 20% больше, чем годом ранее. Распознают и предотвращают подобные ситуации как антифрод-система Сбербанка, так и сотрудники подразделений безопасности и отделений банка.

Т-Банк (бывший Тинькофф): Нейросети анализируют каждую операцию более чем по 1000 параметров, включая вход с нового устройства, нетипичное поведение клиента, и в случае выявления подозрений подают сигнал службе безопасности для приостановки транзакции. Специалисты банка утверждают, что эти степени защиты с вероятностью 99% позволяют определить телефонное мошенничество.

Благодаря активности сервиса «Фрод-рулетка» удалось предотвратить хищения на сумму более 490 млн рублей.

Мировой рынок: По оценкам аналитиков, мировой рынок ИИ в финансовых услугах достиг 45 миллиардов долларов и продолжает расти темпами более 30% ежегодно.

Компании, которые решаются на внедрение искусственного интеллекта в бизнес-процессы, получают измеримый результат уже в первые месяцы — в первую очередь за счёт автоматизации рутинного мониторинга транзакций.

Похоже, вам пригодится

Доверьте продвижение
Первому Селлеру

Команда маркетологов возьмёт в управление ваши продажи и начнёт достигать поставленных планов по прибыли. А ещё команда продвижения подскажет, какой товар выбрать, чтобы начать.

Архитектура современной ИИ-системы антифрода: из чего она состоит?

Эффективная система выявления мошенничества — это не один алгоритм, а слоистая архитектура взаимодополняющих компонентов.

Финансовая отрасль переживает трансформационный сдвиг от традиционного обнаружения мошенничества на основе правил к системам на базе ИИ, использующим продвинутые возможности машинного обучения. Комплексная архитектура, стратегии реализации и операционные соображения современных систем обнаружения мошенничества в банковском секторе демонстрируют, как решения на базе ИИ значительно превосходят традиционные методы как по точности, так и по эффективности.

Основные уровни архитектуры:

  1. Уровень сбора данных — потоковая обработка событий (Kafka, Flink), интеграция с АБС, CRM, внешними источниками (бюро кредитных историй, базы мошенников ЦБ).
  2. Уровень Feature Engineering — генерация признаков в реальном времени: агрегаты за 1/24/168 часов, признаки устройства, сетевые признаки.
  3. Уровень моделей — ансамбль: правила + ML-скоринг + аномальное поведение + граф-анализ.
  4. Уровень принятия решений — оркестратор, взвешивающий сигналы всех моделей и выдающий итоговый вердикт.
  5. Уровень действий — автоблокировка, step-up верификация (OTP, биометрия), уведомление клиента, алерт аналитику.
  6. Уровень обратной связи — разметка результатов, переобучение моделей, дрейф-мониторинг.

Адаптивные системы защиты позволяют системам безопасности непрерывно обучаться и адаптироваться к новым мошенническим тактикам, сохраняя преимущество перед эволюционирующими угрозами.

КомпонентТехнологияФункция
Потоковая обработкаApache Kafka, FlinkОбработка событий в реальном времени
ML-платформаMLflow, KubeflowУправление жизненным циклом моделей
Feature StoreFeast, TectonХранение и переиспользование признаков
Граф-базаNeo4j, TigerGraphАнализ связей между аккаунтами
Мониторинг моделейEvidently AI, WhyLabsОбнаружение дрейфа данных
Оркестрация правилDrools, собственные движкиГибридное принятие решений

Как бороться с новыми угрозами: ИИ против ИИ?

Искусственный интеллект стал одновременно инструментом атаки и новой критически уязвимой поверхностью. Сегодня ИИ-защита вынуждена противостоять ИИ-нападению — и это принципиально меняет подходы к безопасности.

Команда разработчиков внедряет ИИ-систему антифрода — работа с данными и кодом

По данным Интерпола, финансовые мошеннические схемы, осуществляемые с помощью искусственного интеллекта, приносят злоумышленникам в 4,5 раза больше прибыли по сравнению с традиционными методами.

Ключевые угрозы со стороны ИИ-мошенников:

  • Состязательные примеры (adversarial attacks) — специально сконструированные транзакции, обходящие детекторы
  • Синтетические личности — сгенерированные ИИ персонажи с реалистичной кредитной историей
  • Автоматизированный фишинггенеративные нейросети, способные создавать тексты, изображения и медиафайлы, активно используются злоумышленниками для производства поддельных уведомлений, писем и веб-страниц, имитирующих официальные источники
  • ИИ-скрипты для колл-центровмногие схемы создаются с помощью искусственного интеллекта — скрипты и шаблоны делают их разнообразными
  • Ускорение атаксреднестатистическое время взлома зафиксировано на уровне 29 минут, что на 65% быстрее показателей предыдущего года

Защитные ответные меры:

Наиболее устойчивые организации инвестируют в модернизацию движков обнаружения с помощью моделей машинного обучения, понимающих поведение, а не статические условия.

Generative AI помогает улучшить обнаружение аномалий: генеративные модели могут устанавливать базовые паттерны нормального поведения, что упрощает выявление отклонений, которые могут указывать на мошенничество.

Чтобы глубже разобраться в том, как ИИ решает конкретные бизнес-задачи помимо антифрода, — обратитесь к нашему подробному разбору.

Пошаговое руководство: как внедрить ИИ-антифрод в компанию?

Внедрение системы выявления мошенничества на базе ИИ — это проект, требующий чёткой методологии. Организации, эффективно реагирующие на этот сдвиг, принимают ИИ не как инструмент для «улучшения» рабочего процесса по предотвращению мошенничества, а как его ключевой компонент. Вместо ожидания известных паттернов они используют машинное обучение для обнаружения связей между личностями, устройствами, транзакциями и поведенческими сигналами.

  1. Аудит текущей системы — инвентаризация существующих правил, оценка уровня ложноположительных срабатываний, анализ пропущенных инцидентов за последние 12 месяцев.
  2. Формирование датасета — сбор и разметка исторических транзакций с метками «мошенничество/легитимная». Минимальный объём — 50 000–100 000 записей на класс. Обучение моделей на традиционных данных (кредитные бюро, государственные удостоверения личности) и альтернативных данных (начисление зарплаты, данные об устройствах) помогает создавать более широкие, высокоинформативные наборы данных.
  3. Feature Engineering — разработка признаков: агрегаты транзакций за разные периоды, девайс-фингерпринт, сетевые признаки связей между аккаунтами, признаки скорости (velocity features).
  4. Выбор и обучение моделей — начать с ансамбля Gradient Boosting (быстрый старт) + LSTM для последовательностей + автоэнкодер для аномалий.
  5. Тестирование на hold-out выборке — метрики: Precision/Recall при разных порогах, AUC-ROC, F1. Для фрода ключевой метрикой является Recall (полнота), а не точность.
  6. A/B тестирование — параллельный запуск новой и старой системы на реальном трафике с измерением ключевых показателей.
  7. Мониторинг дрейфа — настройка алертов при изменении распределения входных данных (data drift) и деградации метрик модели (concept drift).
  8. Петля обратной связи — регулярная разметка результатов аналитиками, ежемесячное или ежеквартальное переобучение моделей.

Непрерывный цикл обучения укрепляет систему обнаружения: обратная связь, разметка и переобучение гарантируют адаптацию систем к новым мошенническим тактикам с течением времени.

Продавайте с
комиссией 0%

Команда маркетологов бесплатно откроет интернет-магазин на платформе Яндекс KIT и все запустит. От Вас нужен только план продаж.

Риски и ограничения ИИ-антифрода: о чём нужно знать?

Даже лучшие ИИ-системы не лишены слабых мест. Понимание ограничений позволяет выстраивать более зрелую стратегию защиты. С рисками внедрения ИИ в целом можно ознакомиться в нашем разборе рисков ИИ-технологий для бизнеса.

Иллюстрация к статье о Как применить искусственный интеллект в выявлении мошеннических операций

Проблема ложных срабатываний (False Positives): слишком чувствительная модель блокирует легитимных клиентов. Главная дилемма банковской безопасности — как защитить клиентов, не создавая им чрезмерных неудобств. Слишком строгие меры безопасности раздражают клиентов: если банк постоянно блокирует легитимные операции и усложняет доступ, клиенты уходят к конкурентам с более удобным сервисом.

Проблема дрейфа модели (Model Drift): мошенничество эволюционирует слишком быстро для статичных правил. То, что работало вчера, может быть обойдено завтра. Модель, обученная шесть месяцев назад, может стать неэффективной против новых схем.

Дисбаланс классов: в реальных данных мошеннических транзакций — менее 0,1% от общего потока. Без специальных техник (SMOTE, class weighting, cost-sensitive learning) модель будет игнорировать редкий класс.

Состязательные атаки: специалисты по безопасности и фроду сегодня сталкиваются с поведенческой непредсказуемостью, эмуляцией личности и «дрейфом сигнатур», где паттерны мошенничества меняются настолько быстро, что правовые движки устаревают до того, как команды успевают их обновить. Мошенники тестируют границы в реальном времени, зондируя системы в поисках слепых пятен.

Регуляторные ограничения: модели ИИ должны соответствовать требованиям объяснимости (XAI) — регулятор и клиент вправе получить понятное объяснение причин блокировки транзакции.

Качество данных: мусор на входе — мусор на выходе. Неполные или некорректно размеченные исторические данные напрямую деградируют качество модели.

Тренды ИИ-антифрода: что определяет развитие отрасли?

Системы обнаружения мошенничества на базе ИИ всё больше сосредотачиваются на намерении, а не на личности. Вот ключевые тренды, формирующие будущее антифрода.

Мультиагентные системы: фреймворки с несколькими агентами могут воспроизводить принятие решений в реальных условиях с помощью специализированных ИИ-агентов, которые анализируют сигналы, проверяют предположения и совместно выявляют риски. Это полезный способ понять, как архитектуры на базе агентных LLM могут улучшить точность обнаружения и устойчивость по сравнению с опорой на единую модель.

Федеративное обучение: позволяет банкам совместно обучать модели на объединённых данных без передачи конфиденциальной информации клиентов третьим сторонам — критично с точки зрения требований 152-ФЗ.

Генеративный ИИ для синтеза данных: ИИ может создавать реалистичные синтетические наборы данных для обучения моделей обнаружения мошенничества, улучшая их способность выявлять редкие паттерны мошенничества.

Real-time граф-аналитика: динамические граф-нейросети, анализирующие связи между аккаунтами в режиме миллисекунд — для выявления организованных мошеннических сетей.

Объяснимый ИИ (XAI): регуляторы требуют прозрачности алгоритмических решений; SHAP и LIME становятся стандартом для объяснения фрод-скоров.

Интеграция с биометрией: поведенческая биометрия + голосовая биометрия + liveness detection на основе deep learning создают многоуровневый барьер.

Важная тенденция: наиболее совершенные фрод-команды работают в тесном взаимодействии с командами по безопасности данных и compliance.

Компании, которые инвестируют в внедрение искусственного интеллекта комплексно — включая антифрод, аналитику и автоматизацию — создают устойчивое конкурентное преимущество. Узнать о конкретных направлениях применения ИИ в бизнес-аналитике можно в нашем подробном руководстве.

Часто задаваемые вопросы

Что такое ИИ-антифрод простыми словами?

Это система, которая с помощью алгоритмов машинного обучения автоматически анализирует транзакции и действия пользователей, сравнивает их с «нормальным» поведением и в реальном времени блокирует или помечает подозрительные операции. В отличие от правил, ИИ учится на новых данных и адаптируется к меняющимся схемам мошенничества.

Насколько точны ИИ-системы выявления мошенничества?

Современные системы на базе ансамблей ML достигают точности 95–99% при значительном снижении ложноположительных срабатываний. Т-Банк, например, заявляет о вероятности верного определения телефонного мошенничества на уровне 99% при анализе более 1000 параметров на транзакцию. Точность напрямую зависит от качества обучающих данных и регулярности переобучения модели.

Как ИИ помогает выявлять дипфейки и голосовые подделки?

Специализированные нейросети (liveness detection, speaker verification) анализируют акустические артефакты синтетической речи, микродвижения лица и другие признаки генерации. Они сравнивают биометрические характеристики с эталонным профилем пользователя и блокируют верификацию при обнаружении признаков deepfake. Гонка между генеративными и детектирующими моделями ведётся постоянно.

Подходит ли ИИ-антифрод для малого и среднего бизнеса?

Да. Существуют облачные API-решения (Stripe Radar, SEON, Kount) с оплатой по модели pay-per-use, которые доступны без крупных инвестиций в инфраструктуру. Малому бизнесу, работающему на маркетплейсах или принимающему онлайн-платежи, достаточно подключить готовый сервис через API — без найма команды data science.

Как долго занимает внедрение ИИ-системы антифрода?

Минимальный вариант — подключение готового облачного решения — занимает от 2 до 4 недель. Разработка собственной модели с нуля, включая сбор данных, обучение и тестирование, — от 3 до 6 месяцев. Полноценная production-система с мониторингом дрейфа и петлёй обратной связи выстраивается за 6–12 месяцев.

Какие данные нужны для обучения модели обнаружения мошенничества?

Для обучения с учителем необходимы размеченные исторические данные: транзакции с метками «мошенничество/легитимная», данные об устройствах, геолокация, поведенческие логи. Рекомендуемый минимум — 50 000–100 000 примеров каждого класса. При недостатке данных о мошенничестве применяют синтетическую генерацию через GAN или SMOTE.

Что делать, если ИИ заблокировал легитимную транзакцию?

Это называется ложноположительным срабатыванием (False Positive). Правильно выстроенная система должна предусматривать step-up верификацию (звонок, SMS, биометрия) вместо жёсткой блокировки, прозрачное уведомление клиента с объяснением причины и быстрый канал для оспаривания решения. Результаты всех оспариваний используются для переобучения модели.