Финтех — это всегда баланс технологий и доверия. Поэтому внедрение ИИ в банки и финансовые проекты — одна из самых острых тем. Кто проверяет ИИ-помощников и алгоритмы, которые получают доступ к самым чувствительным данным?
Мы спросили об этом Максима Григорьева, генерального директора Ассоциации ФинТех. В первой части интервью — о том, как банки выстраивают систему ответственности и где проходит та самая красная линия, за которую ИИ пускать нельзя.
➡️ Клиенты не доверяют ИИ ключевые решения, несмотря на весь потенциал технологии. В чем причины и можно ли преодолеть этот барьер?
Я бы не назвал это кризисом. Скорее, это естественный этап взросления технологии. Алгоритмы все ближе подходят к решениям, влияющим на кошелек человека, и любая ошибка вызывает настороженность.
Накопился и прикладной опыт. В финансовом секторе мы протестировали 12 реальных сценариев с ИИ-агентами. Это важный шаг к пониманию, где технология полезна, а где нужен дополнительный контроль.
Недоверие направлено не на ИИ как таковой, а на его «черный ящик» — непрозрачность решений и «серую зону» ответственности. Клиенту важно знать, кто отвечает за результат и как его можно оспорить.
Преодолеть этот барьер помогает развитие объяснимого ИИ, гибридные контуры «ИИ + человек» с правом последнего слова, а также песочницы и рабочие группы по этике, где формируются общие правила игры.
Только сочетание технологий и прозрачных процессов ведет к осознанному доверию.
➡️ Если ИИ-агент действует автономно, кто несет ответственность за этичность его решений?
Алгоритм — это инструмент, а не субъект принятия решений. Задача банка — выстроить процессы так, чтобы использование ИИ было управляемым и прозрачным.
Юридическая и операционная ответственность всегда остается за финансовой организацией.
Этичность закладывается еще на этапе проектирования, но проверяется и в эксплуатации. В отрасли уже складывается типовой процесс аудита:
1️⃣ Дизайн-ревью, где фиксируются цели модели.
2️⃣ Аудит данных на предмет смещений
3️⃣ Валидация модели с помощью стресс-тестов.
После запуска действует пост-контроль: мониторинг «дрейфа» модели и анализ жалоб.
Для чувствительных кейсов создаются этические комитеты. Даже при 100% автоскоринге сохраняются гарантии: канал оспаривания и эскалация сложных случаев на человека.
Технология должна усиливать человека, а не подменять его там, где нужен профессиональный выбор.
➡️ Генеративный ИИ склонен «галлюцинировать» — можно ли внедрять его в финтех? Как решить эту проблему, если тотальная проверка человеком убивает выгоду?
Технологию внедряют не в критичных процессах выдачи денег, а там, где ИИ ускоряет эксперта, не принимая необратимых решений. Это:
⚪️ассистенты операторов,
⚪️аналитика,
⚪️комплаенс.
Риски «галлюцинаций» минимизируются технически:
▶️Подход RAG с опорой только на верифицированные данные
▶️Двухконтурные проверки «ИИ — правила — человек»,
▶️Жесткое ограничение домена знаний модели и метрики достоверности: если система не уверена, она просто передает задачу специалисту.
Уже есть успешные кейсы: ассистенты контакт-центров, автоматическая классификация обращений, антифрод-помощники.
И да, 100% ручная проверка действительно вредна — мы переходим к модели выборочного контроля, пропорционального уровню риска.
В следующий раз поговорим о безопасности в ИИ-разработке и о том, где проходит грань автономности ИИ.
#голос_AI
Подписывайтесь на AI Inside в Max | ВКонтакте