Europejski Urząd Nadzoru Ubezpieczeń i Pracowniczych Programów Emerytalnych opublikował 6 sierpnia 2025 roku kompleksowe stanowisko dotyczące wykorzystania sztucznej inteligencji w sektorze ubezpieczeniowym. Dokument został opracowany w odpowiedzi na rosnące wykorzystanie systemów AI w całym łańcuchu wartości ubezpieczeń, obejmującym wycenę, underwriting, zarządzanie szkodami i wykrywanie oszustw.
Stanowisko EIOPA koncentruje się na systemach sztucznej inteligencji, które nie są zakwalifikowane jako systemy wysokiego ryzyka lub praktyki zabronione przez Akt o Sztucznej Inteligencji, który wszedł w życie w lipcu 2024 roku. Akt ten wprowadził podejście oparte na ryzyku, klasyfikując systemy AI według różnych poziomów ryzyka, przy czym systemy używane do oceny ryzyka i wyceny w ubezpieczeniach na życie i zdrowia zostały zidentyfikowane jako wysokiego ryzyka.
Głównym celem dokumentu EIOPA jest dostarczenie wskazówek dotyczących interpretacji istniejących przepisów sektorowych w kontekście systemów AI, które albo nie istniały, albo nie były szeroko stosowane w czasie, gdy przepisy te zostały zatwierdzone. Stanowisko nie wprowadza nowych wymogów regulacyjnych, ale określa oczekiwania nadzorcze dotyczące systemów zarządzania i zarządzania ryzykiem.
Fundamentalną zasadą przedstawioną w dokumencie jest podejście oparte na ryzyku i proporcjonalności. Zakłady ubezpieczeń powinny najpierw ocenić ryzyko związane z różnymi systemami AI, które wykorzystują, uznając, że istnieją różne poziomy ryzyka wśród systemów, które nie są zakazane lub uważane za wysokie ryzyko. Ocena wpływu powinna uwzględniać kryteria takie jak przetwarzanie danych na dużą skalę, wrażliwość danych, liczba klientów, w tym klientów narażonych na wykluczenie, stopień autonomii systemu AI oraz potencjalny negatywny wpływ na osoby fizyczne.
W ramach systemu zarządzania ryzykiem EIOPA identyfikuje sześć kluczowych obszarów, którymi zakłady ubezpieczeń powinny się zająć. Sprawiedliwość i etyka wymagają od firm przyjęcia podejścia skoncentrowanego na kliencie podczas całego cyklu życia systemów AI, włączając rozwój kultury korporacyjnej obejmującej wytyczne etyczne i sprawiedliwe oraz szkolenia dla odpowiedniego personelu. Zarządzanie danymi jest kolejnym krytycznym obszarem, gdzie dane używane do trenowania i testowania systemów AI powinny być kompletne, dokładne i odpowiednie, z rozumnymi wysiłkami w celu usunięcia uprzedzeń w danych.
Dokumentacja i prowadzenie ewidencji wymagają od firm prowadzenia odpowiednich zapisów danych treningowych i testowych oraz metodologii modelowania, aby umożliwić ich odtwarzalność i identyfikowalność. Przejrzystość i możliwość wyjaśnienia stanowią kluczowy element, gdzie wyniki systemów AI powinny być możliwe do sensownego wyjaśnienia, z różnymi podejściami dostępnymi w zależności od złożoności systemu.
Nadzór człowieka jest uważany jako niezbędny element w całym cyklu życia systemu AI. Role i obowiązki powinny być określone w dokumentach polityki, włączając członków organów zarządczych lub nadzorczych w firmach, którzy są odpowiedzialni za ogólne wykorzystanie systemów AI w organizacji i muszą posiadać wystarczającą wiedzę na temat sposobu wykorzystania systemów AI oraz potencjalnych ryzyk. Funkcje zgodności i audytu weryfikują, czy wykorzystanie systemów AI w organizacji jest zgodne ze wszystkimi obowiązującymi przepisami.
Dokładność, solidność i cyberbezpieczeństwo stanowią ostatni filar, gdzie firmy powinny określić poziomy dokładności, solidności i cyberbezpieczeństwa systemów AI. Systemy powinny działać konsekwentnie w tych aspektach przez cały cykl życia, niezależnie od tego, czy zostały opracowane wewnętrznie, czy zakupione od zewnętrznych dostawców usług.
EIOPA podkreśla, że odpowiedzialne wykorzystanie systemów AI nie jest osiągane przez pojedynczy środek, ale przez kombinację różnych środków zarządzania ryzykiem. To holistyczne podejście oznacza, że środki zarządzania AI i ryzykami powinny być dostosowane do konkretnych używanych systemów AI, że są one komplementarne względem siebie i że wzajemne odniesienia i zależności między nimi będą powszechne.
Dokument zawiera również szczegółowe załączniki z praktycznymi przykładami wskaźników oceny wpływu, prowadzenia dokumentacji i metryk sprawiedliwości dla systemów wyższego ryzyka. Te przykłady, pochodzące z raportu o zasadach zarządzania AI opracowanego przez grupę interesariuszy EIOPA ds. etyki cyfrowej w ubezpieczeniach w 2021 roku, mają na celu zilustrowanie możliwych praktycznych sposobów implementacji wysokopoziomowych zasad zawartych w stanowisku.
EIOPA planuje monitorowanie praktyk nadzorczych organów kompetentnych dwa lata po publikacji tego stanowiska w celu oceny zbieżności nadzorczej. Urząd będzie również kontynuować współpracę z organami kompetentnymi w celu ułatwienia płynnego wdrożenia przepisów mających zastosowanie do wykorzystania AI w sektorze ubezpieczeń oraz wspierania organów kompetentnych w ich pracy nadzorczej.
To stanowisko reprezentuje znaczący krok w kierunku ustanowienia jasnych ram dla odpowiedzialnego wykorzystania sztucznej inteligencji w sektorze ubezpieczeń europejskich, równoważąc innowacje z ochroną konsumentów i integralność rynku.
Źródło: EIOPA (Europejski Urząd Nadzoru Ubezpieczeń i Pracowniczych Programów Emerytalnych)
Data publikacji: 6 sierpnia 2025
Numer dokumentu: EIOPA-BoS-25-360