Почему банкам придётся проверять ИИ-модели до интеграции

Глава Банка России Эльвира Набиуллина заявила, что банкам стоит тестировать модели искусственного интеллекта у себя внутри, прежде чем встраивать их в регулируемые процессы. С таким тезисом она выступила 8 апреля в Москве. По сути, речь идёт о простой, но принципиальной вещи: решения, которые могут влиять на клиентов, риски и соблюдение правил, нельзя передавать алгоритму без собственной проверки его поведения.
Для банков это особенно чувствительная тема. Любая ИИ-модель в такой сфере работает не в вакууме: она затрагивает оценку рисков, комплаенс, внутренний контроль, клиентский сервис и, в ряде случаев, решения, которые уже попадают в поле зрения регулятора. Поэтому позиция Набиуллиной выглядит не как торможение технологий, а как попытка заранее задать для них рамки.
Смысл её сигнала в том, что ответственность за итоговое решение должна оставаться у самой кредитной организации. Даже если банк использует внешнюю модель или готовый сервис, проверять устойчивость, корректность и ограничения этой системы ему придётся самостоятельно. Иначе внедрение ИИ может превратиться в перенос операционного и регуляторного риска на чужую «коробку», устройство которой сам банк понимает не до конца.
Такой подход укладывается в более широкий курс Банка России на осторожное внедрение новых технологий в финансовом секторе. Регулятор уже не первый год развивает формат испытаний и контролируемой апробации решений, прежде чем они становятся частью критически важных процессов. В кратком отчёте Банка России за 2025 год говорится, что в проекте «Отраслевые полигоны» тесты уже начали 28 крупнейших разработчиков технологических решений и ведущих финансовых организаций.
Это важная деталь, потому что она показывает: рынок в стране уже двигается не только к использованию ИИ, но и к формализации процедур его проверки. Иначе говоря, разговор идёт не о моде на нейросети, а о том, как встроить их в банковскую инфраструктуру так, чтобы потом не пришлось разбирать последствия в авральном режиме.
Для финансовой отрасли ИИ-модель - это не просто программа, а потенциальный источник нового класса рисков: от ошибок в данных и смещений в выводах до непрозрачной логики принятия решений.
На практике это означает, что банкам придётся усиливать внутренние процедуры. В первую очередь - документировать, где именно используется ИИ, какие данные поступают на вход, как оценивается качество модели, кто отвечает за её пересмотр и как быстро систему можно отключить или ограничить, если она начала работать нестабильно. Для отрасли это дополнительная нагрузка, но именно она отделяет эксперимент от промышленного внедрения.
Позиция Набиуллиной примечательна ещё и потому, что она прозвучала в момент, когда банки по всему миру всё активнее примеряют генеративный ИИ на повседневные операции. Отсюда и главный вывод: в финансовом секторе выигрывать будут не те, кто быстрее подключит модный инструмент, а те, кто сумеет доказать его надёжность внутри собственной системы управления рисками.
Для рынка это, вероятно, означает следующий этап зрелости. Если раньше обсуждение ИИ в банках часто сводилось к скорости автоматизации и экономии ресурсов, то теперь фокус смещается на проверяемость, объяснимость и контролируемость. И это уже разговор не о пилотах ради презентаций, а о том, как будет выглядеть реальная архитектура банковских решений в ближайшие годы.


