Кризис 2008 был пробой пера. Дальше – ИИ-катастрофа.
Банк Англии от растущей угрозы, связанной с использованием автономных алгоритмов на финансовых рынках. По мнению финансового политического комитета, продвинутые ИИ-модели способны не просто анализировать волатильность, но и провоцировать её, если сочтут, что это выгодно для их владельцев — банков и трейдеров.
Главные опасения связаны с тем, что автономные ИИ-системы, обученные максимизировать прибыль, могут прийти к выводу, что стрессовые рыночные события создают для них наилучшие условия. В этом случае они начинают не предсказывать кризисы, а активно способствовать их возникновению. Программы способны выявлять уязвимости других участников торгов и использовать их так, чтобы дестабилизировать рынок — как в облигационном сегменте, так и в акциях.
Банк Англии отдельно отметил риск того, что ИИ может незаметно провоцировать сговор между участниками или иные формы манипулирования, даже без ведома или намерения со стороны человека, отвечающего за систему. Это создаёт опасный прецедент, когда ответственность за действия алгоритма становится размытой.
Сейчас ИИ всё активнее внедряется в финтех, охватывая как разработку инвестиционных стратегий, так и автоматизацию одобрения кредитов или рутинных операций. По данным МВФ, уже более половины патентов в сфере алгоритмической и высокочастотной торговли касаются искусственного интеллекта. Однако вместе с преимуществами растёт и число уязвимостей.
Одна из таких угроз — «отравление данных». Недобросовестные игроки могут подменять обучающие выборки, формируя ошибочные поведенческие паттерны у моделей. Это может использоваться для обхода систем контроля, отмывания средств и финансирования преступлений.
Отдельное внимание уделено кибер . ИИ способен усиливать как защиту финансовых организаций, так и потенциал киберпреступников. Технологии, использующие генеративные модели, могут применяться для создания дипфейков, персонализированных атак и обхода систем идентификации. Особенно опасны сценарии, где злоумышленники используют уязвимости в общедоступных ИИ-сервисах или целенаправленно искажают обучающие данные моделей.
Значительные риски связаны и с зависимостью от внешних поставщиков ИИ-сервисов. Многие финансовые организации используют сторонние модели и вычислительные мощности облачных платформ. Это повышает производительность, но создаёт уязвимости. Если критический провайдер выйдет из строя, банки могут оказаться неспособны выполнять базовые операции — от обработки платежей до обслуживания клиентов. В июле 2024 года весь мир наблюдал последствия подобного сбоя из-за программного обеспечения CrowdStrike. В комитете также напомнили, что нечто подобное уже происходило в 2008 году, когда недооценка рисков ипотечных долгов обернулась глобальным кризисом.
Особое внимание планируется уделять тому, как ИИ влияет на устойчивость критических сервисов, системно значимых институтов и ключевых рынков. Разработка новых упражнений на стрессоустойчивость и взаимодействие с международными инициативами помогут лучше понять, где требуются новые меры защиты и какие именно. Ведь потенциал ИИ для экономического роста огромен, но он будет реализован только при условии безопасного внедрения технологий в финансовую систему.
Подробнее:

Банк Англии от растущей угрозы, связанной с использованием автономных алгоритмов на финансовых рынках. По мнению финансового политического комитета, продвинутые ИИ-модели способны не просто анализировать волатильность, но и провоцировать её, если сочтут, что это выгодно для их владельцев — банков и трейдеров.
Главные опасения связаны с тем, что автономные ИИ-системы, обученные максимизировать прибыль, могут прийти к выводу, что стрессовые рыночные события создают для них наилучшие условия. В этом случае они начинают не предсказывать кризисы, а активно способствовать их возникновению. Программы способны выявлять уязвимости других участников торгов и использовать их так, чтобы дестабилизировать рынок — как в облигационном сегменте, так и в акциях.
Банк Англии отдельно отметил риск того, что ИИ может незаметно провоцировать сговор между участниками или иные формы манипулирования, даже без ведома или намерения со стороны человека, отвечающего за систему. Это создаёт опасный прецедент, когда ответственность за действия алгоритма становится размытой.
Сейчас ИИ всё активнее внедряется в финтех, охватывая как разработку инвестиционных стратегий, так и автоматизацию одобрения кредитов или рутинных операций. По данным МВФ, уже более половины патентов в сфере алгоритмической и высокочастотной торговли касаются искусственного интеллекта. Однако вместе с преимуществами растёт и число уязвимостей.
Одна из таких угроз — «отравление данных». Недобросовестные игроки могут подменять обучающие выборки, формируя ошибочные поведенческие паттерны у моделей. Это может использоваться для обхода систем контроля, отмывания средств и финансирования преступлений.
Отдельное внимание уделено кибер . ИИ способен усиливать как защиту финансовых организаций, так и потенциал киберпреступников. Технологии, использующие генеративные модели, могут применяться для создания дипфейков, персонализированных атак и обхода систем идентификации. Особенно опасны сценарии, где злоумышленники используют уязвимости в общедоступных ИИ-сервисах или целенаправленно искажают обучающие данные моделей.
Значительные риски связаны и с зависимостью от внешних поставщиков ИИ-сервисов. Многие финансовые организации используют сторонние модели и вычислительные мощности облачных платформ. Это повышает производительность, но создаёт уязвимости. Если критический провайдер выйдет из строя, банки могут оказаться неспособны выполнять базовые операции — от обработки платежей до обслуживания клиентов. В июле 2024 года весь мир наблюдал последствия подобного сбоя из-за программного обеспечения CrowdStrike. В комитете также напомнили, что нечто подобное уже происходило в 2008 году, когда недооценка рисков ипотечных долгов обернулась глобальным кризисом.
Особое внимание планируется уделять тому, как ИИ влияет на устойчивость критических сервисов, системно значимых институтов и ключевых рынков. Разработка новых упражнений на стрессоустойчивость и взаимодействие с международными инициативами помогут лучше понять, где требуются новые меры защиты и какие именно. Ведь потенциал ИИ для экономического роста огромен, но он будет реализован только при условии безопасного внедрения технологий в финансовую систему.
Подробнее: