Czy sztuczna inteligencja może mieć status doradcy inwestycyjnego?

Bezpieczne Finanse / Bezpieczny Klient / Komentarze ekspertów

sztuczna inteligencja, AI
Fot. stock.adobe.com/yingyaipumi

Jaką wiedzę i kompetencje powinna mieć sztuczna inteligencja w sektorze finansowym? Pytanie jest oczywiście w pewien sposób podchwytliwe, bo czy sztuczna inteligencja może mieć wiedzę? I jeżeli tak, to jak ją oceniać i w jakich kategoriach?

#MichałNowakowski: Jak człowiek miałby efektywnie ten nadzór nad konkretnymi czynnościami #AI sprawować? Czy ma on potwierdzać czynności dokonane przez algorytm? #Cyberbezpieczeństwo #DoradcaInwestycyjny @FinregtechPL @uknf

I jak to zwykle bywa, odpowiedź uzależnimy od tego czy mówimy o prawdziwej sztucznej inteligencji o dużym poziomie autonomiczności, czy też bardziej o celowościowym uczeniu maszynowym (machine learning).

Perspektywa będzie się też zmieniać w zależności od tego KTO patrzy i ocenia AI ‒ jej twórca, użytkownik czy organ nadzoru. Spróbuję odnieść się do tej kwestii na bazie robo-doradztwa.

I od razu chciałbym wrócić do podziału, który wskazałem, czyli AI versus ML. Wielu z nas dąży do stworzenia sztucznej inteligencji, która równać się (przewyższać) będzie zdolnościom intelektualnym człowieka i przede wszystkim będzie podejmować działania, czasem intuicyjnie.

Z natury rzeczy wymagałoby by to więc uznania, że AI jest autonomiczna i jej efektywność mierzylibyśmy tym, na ile jest ona samodzielna. Jest to jednak jeszcze dość odległa przyszłość i nie ma sensu rozwodzić się nad tym „co by było, gdyby…”. Tutaj zresztą zastosowalibyśmy test Turinga, który wydaje się całkiem sensowny do tego typu ćwiczeń.

Czytaj także: Czy można przypisać odpowiedzialność karną algorytmowi? AI w e-handlu

Dlatego chciałbym skupić się bardziej na uczeniu maszynowym, które staje się coraz bardziej powszechne w sektorze finansowym, a który najbliższy jest mojemu sercu. Jego wykorzystanie jest też obwarowane – tak mi się przynajmniej wydaje – nieco szerszym zakresem prawa i regulacji, co powoduje, że wprowadzanie ML jest też większym wyzwaniem.

Od czego zacząć?

Wydaje mi się, że najistotniejsze jest tutaj określenie jakimi danymi dysponuje algorytm do podejmowania działań, realizacji celu i czy jest to już wiedza i kompetencje. Dane powinny więc być:

‒ pełne, a więc pozwalające na wyciągnięcie konkretnych wniosków – warto odnieść się tutaj do raportu EBA w sprawie Big Data;

Czytaj także: EBA o Big Data i Machine Learning w sektorze bankowym. Report on Big Data and Advanced Analytics

‒ prawdziwe: pytanie jak ocenić ich prawdziwość i jak wykluczyć dane zmanipulowane – ta tematyka jest też przedmiotem analizy ekspertów Komisji (UE);

‒ możliwie jak najszersze, aby zarówno trenowanie algorytmu, jak i podejmowanie decyzji opierało się na jak największym zbiorze danych;

‒ aktualizowane;

‒ bezpieczne, czyli odporne na manipulację i działania ze strony   trzecich.

Tutaj pojawia się ciekawa kwestia, na której chciałbym się skupić.

Rozporządzenie Ministra Finansów z dnia 29 maja 2018 r. w sprawie szczegółowych warunków technicznych i organizacyjnych dla firm inwestycyjnych, banków, o których mowa w art. 70 ust. 2 ustawy o obrocie instrumentami finansowymi, i banków powierniczych w rozdziale 6 ‒ przewiduje, że firma inwestycyjna jest obowiązana zapewnić, aby pracownicy odpowiedzialni za doradztwo inwestycyjne i/lub przekazujący informacje o usługach i produktach, posiadali adekwatny do zakresu i charakteru wykonywanych czynności poziom wiedzy i kompetencji, pozwalający na przestrzeganie właściwych wymogów prawnych, zaleceń właściwego organu nadzoru, standardów etycznych oraz działanie zgodne z zasadami uczciwego obrotu oraz w najlepiej pojętym interesie klienta.

Czytaj także: Czy sztuczna inteligencja będzie zdolna odróżnić dane prawdziwe od nieprawdziwych?

Załóżmy, że chcemy wykorzystać algorytm do pełnienia którejkolwiek z tych funkcji, co pewnie częściowo zostanie zaadresowane w stosownych wyjaśnieniach organu nadzoru.

Ważne definicje

Rozporządzenie wskazuje kilka ważnych pojęć. Mamy więc wyjaśnione czym jest:

‒ wiedza: potwierdzona wiedza z bardzo szerokiego katalogu, o którym mowa w par. 41. Mamy tam m.in. znajomość ryzyk czy charakterystyki produktów – potrzebujemy tutaj stosowanego dokumentu;

‒ doświadczenie: praktyczne, zdobyte poprzez wykonywanie w określonych okresach pewnych czynności;

‒ kompetencje, czyli umiejętność praktycznego zastosowania wiedzy zdobytej w wyniku doświadczenia.

Osobą o odpowiedniej wiedzy i kompetencjach będzie przykładowo osoba o statusie doradcy inwestycyjnego. Wiedzę można uzupełnić na szkoleniach, a więc jak zakładam, można też zasilić algorytm odpowiednimi danymi, co w zasadzie nie powinno być aż tak trudne, choć oczywiście pozostaje kwestia wytrenowania algorytmu, aby tę wiedzę mógł wykorzystać. A czy sztuczna inteligencja może mieć status doradcy inwestycyjnego?

Brzmi ciekawie, ale pójdźmy dalej

W przypadku braku kompetencji oraz wiedzy §40 Rozporządzenia przewiduje, że osoba ta może wykonywać te czynności wyłącznie pod nadzorem odpowiedniego autoryzowanego pracownika.

No dobrze, czyli w takim wypadku, dopóki algorytm nie zostanie wytrenowany musi on działać pod nadzorem upoważnione pracownika.

Bądź na bieżąco – zapisz się na nasz newsletter >> (otwiera się na nowej zakładce)”>>>>

Ale czy ma on posiadać wiedzę i kompetencje tylko w zakresie określonym w rozporządzeniu, czy też musi znać się na uczeniu maszynowym? Jak będzie sprawował ten nadzór? I jak takiej weryfikacji dokonywała będzie komórka compliance, która zgodnie z §49 zobowiązana jest do oceniania zgodności postępowania firmy inwestycyjnej w tym kontekście?

Załóżmy jednak, że osoby te posiadają takie kompetencje. Zwróćmy jednak uwagę na jeden z obowiązków, który wynika z §39, zgodnie z którym pracownicy firmy muszą przestrzegać właściwych wymogów prawnych, zaleceń właściwego organu nadzoru, standardów etycznych, działania zgodnie z zasadami uczciwego obrotu oraz w najlepiej pojętym interesie klienta.

Musimy więc zapewnić wiedzę nie tylko merytoryczną, ale również wpłynąć na algorytm, aby postępował etycznie. Wprawdzie da się stworzyć listę praktyk dozwolonych i niedozwolonych, ale przecież zawsze może pojawić się tzw. moral hazard, jeżeli określone działanie przybliży algorytm do celu w jakim został on stworzony. Standardy etyczne mogą być więc trudne do zaimplementowania.

Sprawa komplikuje się w przypadku doświadczenia

Nasz algorytm dopiero się uczy i nie posiada odpowiedniego doświadczenia. Musi więc wykonywać czynności pod nadzorem pracownika, autoryzowane przez okresy od 6 do 24 miesięcy.

Co to znaczy w kontekście AI/ML? Czy oznacza to, że już na tym etapie algorytm może wykonywać określone czynności, ale pod warunkiem efektywnego nadzoru człowieka? Jak to zrobić, tj. jak człowiek miałby efektywnie ten nadzór nad konkretnymi czynnościami sprawować? Czy ma on potwierdzać czynności dokonane przez algorytm?

Czytaj także: Prawo do błędu a regulacje. Transformacja cyfrowa w sektorze finansowym w praktyce

Ostatnie wyjaśnienia KNF w sprawie doradztwa inwestycyjnego nie rozwiązują tego problemu. Odnoszą się one jedynie do stosowania zautomatyzowanego procesu wydawania przez firmę inwestycyjną rekomendacji i braku wymogu posiadania kwalifikacji przez osoby, które jedynie przekazują treść rekomendacji. Osoba udzielająca wyjaśnień wymogi te musi już jednak spełnić.

I dochodzimy do sedna

Na dzisiaj nie słyszałem o zautomatyzowanym doradcy inwestycyjnym z prawdziwego zdarzenia, czyli takim, który prowadzi proces od początku do końca, a nie tylko opracowuje rekomendacje, które są następnie przekazywane „fizycznemu” doradcy.

Być może na przeszkodzie stoją regulacje, a może technologia jeszcze nie jest tak zaawansowana. A może mamy kombinację obu powyższych?

Michał Nowakowski, https://pl.linkedin.com/in/michal-nowakowski-phd-35930315, Counsel w Citi Handlowy, założyciel www.finregtech.pl.

Opinie wyrażone w artykule są osobistymi opiniami Autora i nie mogą być utożsamiane z jakąkolwiek instytucją, z którą Autor jest lub był związany.

Źródło: FinregtechPl
Udostępnij artykuł: