Bankom brakuje oczu do pracy

Polecamy

Tradycyjne, stosowane przez banki metody oceny ryzyka operacyjnego i kredytowego na razie się sprawdzają, choć nie we wszystkich grupach klientów są równie efektywne. Nowe narzędzia polegające na analizie danych mogłyby bankom w wielu obszarach pomóc – mówi Mateusz Pikosz z firmy doradczej Finalyse.

– Niektórzy twierdzą, że data analytics zastąpią używane przez banki modele oceny ryzyka operacyjnego i ryzyka kredytowego. Zastąpią?

– W tej chwili nie. Mogą wzbogacić narzędzia, które używane są teraz, wzbogacić profile klientów, przyczynić się do pogłębienia analizy, a być może do odkrycia nowych zależności.

– Co bank wie o kliencie, a czego powinien się jeszcze się dowiedzieć?

– Bank ma rachunek klienta i wie bardzo wiele.

– A jeśli klient nie ma rachunku, a szuka dla siebie oferty przez Internet?

– Bank nie ma problemów z klientem, którego zna, który ma w nim konto, więc zna historię jego rachunku, wpływy i wypływy. Zna jego zobowiązania, może zapytać w BIK o zobowiązania w innych bankach. Banki mają natomiast problem z identyfikacją tożsamości klienta w procesie online. W Polsce brakuje gwarantowanego przez państwo potwierdzenia tożsamości. Ostatnio firmy komercyjne zaczęły umożliwiać dostęp do bazy PESEL, co może być sposobem na potwierdzenie tożsamości klienta. Ale i tak luka w tych danych istnieje.

– Czy Zaufany Profil może stać się takim potwierdzeniem tożsamości?

– Być może, jeśli się upowszechni na rynku. Jest to szansa i krok w dobrym kierunku. Są jednak sytuacje, kiedy bank potrzebuje informacji o kliencie, których w swoich zasobach nie ma.

– Jakie to sytuacje?

– Zasadniczo są takie trzy. Pierwsza występuje, gdy przychodzi do banku klient, którego bank nie zna i chce zebrać o nim informację z rynku, dowiedzieć się, co inni o nim wiedzą. Druga występuje, gdy przychodzi klient zupełnie nowy, młody i ani bank nic o nim nie wie, ani rynek. Trzecia sytuacja zachodzi wówczas, gdy klient, ma już wprawdzie konto, które założył, gdy bank miał na przykład superpromocję, ale jest to klient uśpiony. Bank chciałby tego klienta zaktywizować.

– Rocznie ok. 300–350 tys. ludzi wchodzi na rynek finansowy. Część zakłada rachunki, ale na tych rachunkach niewiele się dzieje. Jakieś pieniądze od rodziców, niektórzy pracują, ale nieregularnie, część na śmieciówkach, inni w taki sposób, że dostają gotówkę do ręki. Jest jakiś sposób, żeby ich „ubankowić”, a potem – „uproduktowić”?

– To są sytuacje bardzo trudne do obsłużenia z punktu widzenia ryzyka kredytowego i ryzyka operacyjnego. W Polsce nie mamy rozwiniętych narzędzi, żeby takiego klienta identyfikować i zacząć oferować mu produkty, na przykład kartę kredytową. Dla sektora bankowego byłoby to trudno akceptowalne ryzyko.

– Powiedzmy, że bank zebrał już jakieś informacje o kliencie. Co dalej? Co może wtedy wnieść data analytics?

– Najpierw jest sprawdzanie antyfraudowe mające pokazać, czy klient próbuje wyłudzić pieniądze, czy będzie chciał je spłacać. Banki mają systemy antyfraudowe, ale można je wzbogacić, np. o aplikację typu device fingerprint dającą informacje o systemie, jakiego klient używa, przeglądarce, nawet o rozdzielczości ekranu. Klient zwykle loguje się z jednego, dwóch urządzeń. Device fingerprint identyfikuje pewne właściwości urządzenia. Podobieństwo pomiędzy logowaniami powinno oscylować wokół 95–98 proc. Gdy nagle loguje się ktoś z zupełnie innego urządzenia i podobieństwo wynosi ok. 40 proc., bank powinien albo wylogować klienta z sesji albo powiadomić go, że ktoś się zalogował z innego urządzenia. Dzięki temu może podjąć kroki zabezpieczające klienta. Z kolei dzięki filtrom powtórzeniowym, które są udostępniane przez wybranych dostawców danych można sprawdzić, w ilu bankach taka osoba jednocześnie zaaplikowała.

– ZBP podaje, że w I kwartale banki zanotowały 1 046 prób wyłudzeń kredytów i to liczba poniżej kwartalnej średniej. Dziennie próbowano wyłudzić prawie 1 mln zł. Banki przez ostatnie lata wzmocniły swoje systemy antyfraudowe. Czy wystarczająco?

– Przeprowadziliśmy projekt związany z analizą wyłudzeń. Zastosowaliśmy zarówno kartę scoringową, używaną powszechnie przez banki, jak i nowość – sieć neuronową. Dane wejściowe były takie same. W sieci neuronowej dane przechodzą przez warstwy ukryte, które je kolejno przetwarzają. Można w niej sprawdzać wykorzystanie nowych danych z innych źródeł i ich przydatność. Oba narzędzia w bardzo interesujący sposób współgrały ze sobą. Zachowywały się bardzo stabilnie i bardzo porównywalnie. Dawały podobny poziom wykrywalności, ale wykrywały trochę inne fraudy.

– Sieci neuronowe zastąpią kiedyś scoringi?

– Sieć neuronową bardzo łatwo – w przeciwieństwie do scoringu – zrekalibrować. Przychodzą nowe dane o wyłudzeniach i możemy niemal natychmiast przyuczyć sieć do tych danych, poprzez zmianę parametrów w warstwach ukrytych. Żeby wprowadzić do scoringu nowe parametry, trzeba go w zasadzie przepisać na nowo. Można zaryzykować hipotezę, że bardzo dobrze mogłyby się uzupełniać. Jeśli chodzi o ocenę ryzyka operacyjnego sieci neuronowe są jak najbardziej do zastosowania, a więc warto te rozwiązania wdrażać i porównywać – jak zachowuje się scoring, a jak sieć neuronowa.

– W ocenie ryzyka kredytowego sieci neuronowe też mogą pomóc?

– To, co dzieje się w środku sieci neuronowej nie do końca można wyjaśnić, na przykład przed Komisją Nadzoru Finansowego. Dlatego banki wzbraniają się przed stosowaniem takich narzędzi, gdyż trudno wybronić podjętą na tej podstawie konkretną decyzję. KNF jest przychylna dla tradycyjnych scoringów, które są intuicyjne, łatwo interpretowalne i najprostsze do wybronienia. W scoringu wykorzystuje się dane, które można łatwo zinterpretować. Większy dochód – więcej punktów, dłuższe zamieszkanie pod tym samym adresem – więcej punktów. To działa bardzo linowo. Scoring to metoda statystyczna pozwalająca wyławiać dobrych klientów. W sieciach neuronowych można używać trochę więcej miękkich danych. Możemy wykorzystywać wiele zmiennych, które wprost nie są związane z ryzykiem klienta, ale wiele mogą o nim mówić.

– Skoro żyjemy w czasach, kiedy zmienność staje się paradygmatem, może lepiej stosować „uczące się” narzędzia, niż takie, które raz zostały zdefiniowane na długo?

– Okres życia modelu scoringowego to 5–7 lat. Choć zmienność jest duża, grupy klientów detalicznych są raczej stałe, więc jeśli bank ma zdefiniowany profil klienta, nie ma potrzeby częstego przerabiania kart scoringowych. Jeżeli wyobrazimy sobie grupę 40-latków – nie ma tam rewolucji. Niemniej sieć może lepiej dopasowywać się do nowych klientów, wraz z ich kolejnymi falami. W młodszych grupach może występować większa zmienność i sieci neuronowe, które mogą się szybko nauczyć nowych zmiennych, mogą lepiej oceniać ryzyko.

– A na przykład zmienne, które pozwalałyby bardziej elastycznie reagować na sytuację gospodarczą czy makroekonomiczną? Weszliśmy w kryzys z dużym portfelem frankowym, za pewien czas wejdziemy w cykl podwyżek stóp?

– Banki zaczną na to zwracać uwagę kiedy zacznie obowiązywać IFRS 9, bo w nim zawarty jest element forward looking. Na wskaźnik Probality of Default (PD) wyliczony na poziomie klienta powinien być nakładany współczynnik makroekonomiczny, w zależności od scenariusza, który może się wydarzyć. Wówczas PD albo rośnie, albo maleje. Scenariusz makroekonomiczny determinuje potencjalną oczekiwaną stratę na kliencie. Tego elementu do tej pory w bankach nie brano go pod uwagę, bo nie było takiej konieczności i nikt tym się nie przejmował. Teraz banki będą musiały się przygotować na scenariusze makroekonomiczne.

– Przygotowują się?

– Są pierwsze przymiarki. Na razie do wprowadzenia takich zasadniczych miar, jak PKB, stopa bezrobocia. W przyszłości być może banki będą uwzględniać więcej zmiennych makroekonomicznych i próbować lepiej szacować wpływ tych czynników na ocenę klienta. Na ten moment nie ma gotowych rozwiązań, które mogłyby im pomóc. Podejście scenariuszowe pozwoli na przewidywanie różnych sytuacji i ewentualne tworzenie rozwiązań a priori, gdy scenariusze zaczynają się spełniać.

– Gdzie jeszcze analiza nietradycyjnych danych może przynieść efekty?

– Przy ocenie ryzyka kredytowego mikrofirm. Bardzo cenne jest czerpanie danych np. z portali aukcyjnych. To nie są dane księgowe, jak rachunek wyników, księga przychodów i rozchodów. Liczba transakcji, powtarzalność transakcji pozwala ocenić, jak przedsiębiorca rokuje na przyszłość. Możemy więc odejść od tradycyjnej analizy papierów księgowych, biznesplanu i przejść do analizy faktycznej działalności i jej opłacalności. Oczywiście wiele zależy od branży, na przykład jeśli mamy do czynienia z agencja marketingową, możemy oczekiwać, że będzie ona bardziej aktywna na Facebooku niż mniej, więc sprawdzając jej aktywność, interakcje z jej użytkownikami, możemy ocenić, czy agencja ta jest ekspansywna. Nowe źródła danych o mikroprzedsiębiorcach mogą być bardzo cenne i wiele powiedzieć o ryzyku kredytowym. W malej skali dane te zastępują dane papierowe i można na nich polegać. Na duża skalę, czyli w sektorze bankowym, gdzie chodziłoby o tysiące kredytów, nikt tego jeszcze nie robił. Ale można spróbować.

– Banki mają problem z młodym, nieznanym klientem, a tymczasem przechwytują go firmy pożyczkowe. Potrafią jego ryzyko ocenić?

– Sektor consumer lending jest pod tym względem bardziej otwarty, bo firmy pożyczkowe starają się oferować usługi, godząc się z dużym ryzykiem utraty pieniędzy. Na zachętę dają jakąś drobną kwotę i patrzą, jak zachowuje się portfel.

– Ale nawet przy takim założeniu muszą ustalić, czy to nie jest próba wyłudzenia?

– Bazują na tym, co jest w zasobach banków. Jeśli klient udostępni dane o rachunku w swoim banku, zaloguje się do niego, pożyczkodawca może porównać dane aplikacyjne z danymi z banku. Jeśli zgadzają się, to uznaje, że jest to zweryfikowany klient. Sektor pożyczkowy korzysta z różnego rodzaju API bankowych. Dokonują one web scrapingu, czyli po prostu za zgodą klienta zaglądają na jego konto w banku, co pozwala stwierdzić, jakie są wpływy i wypływy na rachunku. Pod tym względem banki mają trudniej, bo KNF nie zgadza się na wykorzystanie przez nie tego typu narzędzi. W consumer lending też nie odbywa się rewolucja jeśli chodzi o modele oceny klienta. Z reguły są to tradycyjne scoringi, choć wzbogacone o nowe dane, których nie ma w bankach.

– Skąd te dane?

– Z branżowych baz. Firmy pożyczkowe tworzą takie bazy. Banki nie mają informacji z tego sektora, choć oczywiście część firm pożyczkowych korzysta z BIK i w zamian dostarcza tam swoje dane. Klient, który aplikuje w banku, może być w sektorze pożyczkowym. Niestety banki są tu w trudnej sytuacji, bo nie mogą korzystać z baz branżowych pożyczkodawców. W consumer lending powstało już rozwiązanie pokazujące na przykład jak często klient aplikuje, a banki dopiero chcą je mieć.

– To rozproszenie baz danych podnosi chyba koszty systemu i poziom ryzyka?

– Rynek dostawców danych jest w Polsce bardzo duży i bardzo podzielony. Walka o dane odbywa się na co dzień. Część pożyczkodawców korzysta tylko z BIG-ów, część tylko z BIK, część z baz branżowych. Dane z wielu różnych źródeł pozwoliłyby zbudować pełną informację o kliencie. Sytuacja, która jest, powoduje, że bank nie zna wszystkich danych pożyczkowych klienta. Jest to drogie i w sensie systemowym, i w sensie operacyjnym, bo zapytanie wszystkich baz generuje spore koszty. Pożyczkodawcy, mimo że stopa RRSO bywa u nich wysoka, nie są wcale biznesem o bardzo wysokich marżach, więc muszą pilnować kosztów. Dlatego powinna być wola porozumienia na rynku, żeby wymieniać się danymi, gdyby była większa współpraca i wola porozumienia, wszystkie strony by na tym skorzystały.

– Firmy pożyczkowe mają inne niż banki podejście do ryzyka „raczkujących” klientów. Gdzie są jeszcze różnice?

– Bank sprawdza klienta w zasadzie raz, gdy udziela mu kredytu. Potem klient ten kredyt spłaca w ratach i póki spłaca sytuacja jest pod kontrolą. W przypadku firm pożyczkowych jest ona trudniejsza. Nie ma systematyczności spłat, tylko jedna spłata balonowa. Ktoś bierze pożyczkę na małą kwotę 500-600 zł, spłaca w terminie, potem bierze pożyczkę na 2000 zł i to już jest wyłudzenie. Tu firmy pożyczkowe muszą się zabezpieczać i monitorować, czy klient nie ma pożyczek w innych firmach i czy tam nie zrobił wyłudzenia. W bankach ten problem nie jest taki duży.

– A równocześnie firmy pożyczkowe pożyczają coraz większe kwoty.

– Z badań wynika, że kwota kredytu konsumenckiego w bankach zaczyna się od 8–10 tys. zł, więc firmy pożyczkowe wchodzą w obszar do 8–10 tys. zł, wychodząc zresztą naprzeciw oczekiwaniom klientów. Mają też coraz więcej danych o klientach, więc skoro widzą, że dana osoba dobrze spłaca, to czemu nie dać jej więcej pieniędzy. Skoro firma nauczyła się już pożyczać 1000 zł, to chce się nauczyć pożyczać 2000 zł, bo jeżeli nie – klient pójdzie do innej firmy. Jeżeli chodzi o ryzyko kredytowe, firmy lepiej je rozpoznają właśnie dzięki temu, że mogą „obejrzeć” rachunek klienta w banku.

– Jaki jest stosunek banków do analizy nowych danych, skoro z punktu widzenia biznesowego efekty tych analiz nie przynoszą jeszcze przełomu?

– Banki chętnie oglądałyby nowe dane, ale nie mają do tego oczu. Dosłownie. Ktoś musi się danym przyjrzeć. Przy budowie modelu statystycznego do oceny klientów, czy to sieci neuronowej, czy scoringu, 80 proc. czasu zajmuje przygotowanie danych, ocena ich przydatności, opracowanie ich w formie analitycznej, oczyszczenie, wyliczenie odpowiednich agregatów, uwolnienie z obserwacji odstających. Dopiero 20 proc. poświęcone jest na przygotowanie modelu, łącznie z dokumentacją. Danych jest sporo, ale brakuje zasobów o odpowiednich kompetencjach analitycznych.

Autor: Jacek Ramotowski

Udostępnij artykuł: