Sztuczna inteligencja w finansach: Bank Anglii podsumowuje wyzwania branży

Pod koniec 2025 roku Bank Anglii zorganizował serię spotkań okrągłego stołu z przedstawicielami sektora finansowego, aby lepiej zrozumieć bariery w adopcji sztucznej inteligencji (AI). W dyskusjach wzięli udział reprezentanci banków, w tym globalnych instytucji o znaczeniu systemowym, oraz firm ubezpieczeniowych. Wyniki tych konsultacji wskazują na wsparcie dla obecnego, elastycznego podejścia regulatora, ale też ujawniają poważne wyzwania, takie jak fragmentacja regulacyjna na świecie czy problemy z danymi.

• Uczestnicy spotkań wyrażają poparcie dla opartego na zasadach i efektach nadzoru brytyjskiego Urzędu Regulacji Prudencjalnej (PRA), który ich zdaniem daje przestrzeń do innowacji przy zachowaniu bezpieczeństwa.
• Główne wyzwania to brak globalnej harmonizacji przepisów dotyczących AI, trudności w zarządzaniu ryzykiem modeli generatywnych oraz bariery prawne i techniczne związane z danymi.
• Branża widzi potrzebę ewolucji metod zarządzania ryzykiem, większej współpracy międzynarodowej oraz wypracowania standardów dla zewnętrznych dostawców rozwiązań AI.

Regulacje: Elastyczność zamiast sztywnych zasad

Uczestnicy wszystkich trzech spotkań zgodnie ocenili, że obecne ramy regulacyjne PRA, oparte na ogólnych zasadach i pożądanych efektach, są odpowiednie dla dynamicznie rozwijającej się technologii AI. Za szczególnie pragmatyczny uznano dokument nadzorczy SS1/23 dotyczący zarządzania ryzykiem modeli, który umożliwia odpowiedzialne wdrażanie AI. Większość przedstawicieli sektora nie widzi obecnie potrzeby wprowadzania szczegółowych, dedykowanych AI przepisów. Również pomysł stworzenia specjalnej „piaskownicy regulacyjnej” dla AI przy Banku Anglii lub PRA nie znalazł szerokiego poparcia, ponieważ istniejące inicjatywy Urzędu ds. Konkurencji na Rynkach Finansowych (FCA) uznano za wystarczające.

Wewnętrzne hamulce i ewolucja zarządzania ryzykiem

W firmach wciąż widoczna jest ostrożność działów zarządzania ryzykiem (tzw. druga linia) wobec projektów związanych ze sztuczną inteligencją, co może spowalniać ich wdrażanie. Przyczyny są dwojakie: brak wystarczających wewnętrznych kompetencji w tej dziedzinie oraz chęć kompleksowego wykazania zgodności z oczekiwaniami nadzorczymi.

Uczestnicy wskazali, że tradycyjne metody walidacji modeli, polegające na dogłębnym zrozumieniu ich wewnętrznych mechanizmów, stają się niepraktyczne w przypadku zaawansowanych modeli generatywnych i systemów agentowych. Koncepcja „człowieka w pętli” (human-in-the-loop) również jest kwestionowana przez rozwój autonomicznych agentów AI. W odpowiedzi na to, wielu uczestników sugerowało, że zarządzanie ryzykiem musi ewoluować w kierunku większego nacisku na testowanie, monitorowanie i ustalanie granic dla wyników działania całych systemów AI, a nie tylko pojedynczych modeli.

Globalna mozaika regulacyjna i koszty zgodności

Firmy operujące międzynarodowo muszą mierzyć się z różnymi podejściami regulacyjnymi do AI, np. w Wielkiej Brytanii, USA (wytyczne SR 11-7) i Unii Europejskiej (Akt o sztucznej inteligencji). Ta fragmentacja znacząco zwiększa koszty compliance, spowalnia adopcję technologii i uniemożliwia skalowanie zastosowań AI pomiędzy jurysdykcjami. Uczestnicy zachęcali Bank Anglii, aby wykorzystał swoje członkostwo w międzynarodowych forach do promowania większej koordynacji i konwergencji globalnych standardów.

Wyzwania w łańcuchu dostaw i kwestie danych

Procesy zakupowe i negocjacje kontraktów z zewnętrznymi dostawcami rozwiązań AI są utrudnione przez ich często niedostateczną znajomość rygorystycznych wymogów regulacyjnych sektora finansowego. Choć rynek może z czasem wypracować pewne standardy, obecnie generuje to koszt utraconych możliwości. Padła sugestia, że Bank Anglii mógłby pomóc w zebraniu firm technologicznych i finansowych w celu uzgodnienia minimalnych standardów dla dostawców.

Poważną barierą są także przepisy o ochronie danych, w tym obowiązek przeprowadzania oceny skutków dla ochrony danych (DPIA), oraz nowe reżimy suwerenności danych w innych krajach, które mogą uniemożliwiać przekraczanie granic przez dane. Dodatkowo, w niektórych segmentach ubezpieczeń (np. majątkowych) ograniczona częstotliwość kontaktów z klientem skutkuje mniejszą ilością danych, co utrudnia rozwój spersonalizowanych produktów opartych na AI w najbliższym czasie.

Źródło: Bank of England (BoE) / bankofengland.co.uk

Podsumuj treść artykułu z AI:
Artykuł ma charakter informacyjny, jest prywatną opinią autora i nie jest poradą/rekomendacją w rozumieniu prawa. Ponadto zawiera linki reklamowe/partnerskie/sponsorowane, a my możemy otrzymać wynagrodzenie, jeśli skorzystasz z usług firm trzecich, do których zostaniesz przekierowany. Nasz serwis nie jest regulowany przez FCA i nie sprzedajemy jakichkolwiek produktów i usług, w tym produktów finansowych, inwestycyjnych, ani ubezpieczeniowych. Nie gwarantujemy aktualności i kompletności informacji znajdujących się na łamach naszego portalu, ani nie bierzemy odpowiedzilaności za ich wykorzystanie oraz decyzje podejmowane przez czytelników.