Etyka, banki i sztuczna inteligencja

Technologie i innowacje

Nie chodzi o ostrzeganie przed sztuczną inteligencją, ale ostrzeganie przed taką lub inną formą jej zastosowania, która może nie poddawać się ludzkiej kontroli, nie podlegać określonym regułom – mówił dr Michał Boni podczas panelu „Czy przed sztuczną inteligencją należy ostrzegać czy ona nas może ostrzec?” w czasie webinarium „AI w finansach” zorganizowanego przez Centrum Prawa Bankowego i Informacji oraz Uniwersytet SWPS.

Nie chodzi o ostrzeganie przed sztuczną inteligencją, ale ostrzeganie przed taką lub inną formą jej zastosowania, która może nie poddawać się ludzkiej kontroli, nie podlegać określonym regułom – mówił dr Michał Boni podczas panelu „Czy przed sztuczną inteligencją należy ostrzegać czy ona nas może ostrzec?” w czasie webinarium „AI w finansach” zorganizowanego przez Centrum Prawa Bankowego i Informacji oraz Uniwersytet SWPS.

Włodzimierz Grudziński: Musimy jako bankowcy umieć wytłumaczyć jak działa algorytm i brać odpowiedzialność za wynik, który wyszedł, jeśli pojawił się w procesie decyzyjnym #AI #ZBP

Zdaniem wykładowcy  Uniwersytetu SWPS, dr. Michała Boniego ‒ AI ma wiele zalet. Może być ona wirtualnym analitykiem, ostrzegającym ludzi przed niebezpieczeństwami, zagrożeniami, które mogą się pojawić.

AI, korzyści i ryzyka

Sztuczna inteligencja pozwala  prognozować różnego rodzaju negatywne wydarzenia w świecie finansów, w tym możliwość wystąpień fraudów. Może być wykorzystywana do przewidywania konfliktów, pojawiania się tajfunów czy zagrożeń związanych z cyberbezpieczeństwem. Może kreślić trajektorie rozwoju pandemii  koronawirusa, gdyby upowszechniłyby się aplikacje, pozwalające pokazywać kto jest realnie zagrożony, kto miał kontakt z osobami zakażonymi.

Są też ryzyka. Takie jak dyskryminacja, naruszenie prywatności, zawłaszczanie danych, uprzedmiotowienie konsumenta, który nic nie wie o tym, co się dzieje z jego danymi, choć mówi mu się, że są one zbierane dla jego dobra.

Michał Boni zwracał uwagę na dyskomfort wynikający z asymetrii informacji między tymi, którzy oferują konsumentom różnego rodzaju usługi i produkty, a konsumentami, których wiedza o funkcjonowaniu AI jest znikoma.

Czytaj także: Czym nas jeszcze zaskoczy sztuczna inteligencja?

UE wobec AI

- Dopóki występuje taka asymetria, dopóty konsument jest w „czarnej skrzynce”. Wiadomo co do tej skrzynki wchodzi i co z niej wychodzi, ale nie wiadomo konsumentowi czy obywatelowi, co się w niej dzieje, według jakich schematów działa. To oznacza, że ten czarny box ma nad nami władzę – zauważył  dr Michał Boni.

Są w Unii Europejskiej próby zaradzenia tym zagrożeniom. Michał Boni wymienia cztery obszary, w których powinny być podjęte odpowiednie działania.

Są to przede wszystkim regulacje prawne. Jednak ‒ jak mówił w swoim wstępie do debaty ‒ trzeba uważać, aby nie przeregulować obszarów, w których pojawia się AI.

Jego zdaniem podstawową trudnością jest przeniesienie norm etycznych na przepisy prawa, które miałyby regulować wykorzystanie sztucznej inteligencji, szczególnie jeśli te regulacje miałyby mieć globalnych charakter.

Kolejne kwestie są związane z umiejętnością zarządzania ryzykami, jakie pojawiają się w związku z wykorzystaniem AI.

Odnosząc się do prac prowadzonych w Unii Europejskiej wskazał na różnice pomiędzy propozycjami przedstawionymi przez wysoką grupę ekspertów Unii Europejskiej, a dokumentem zaprezentowanym przez Komisję Europejską w lutym 2020 roku.

W dokumencie tym mówi się,  że tam gdzie spodziewane są wysokie ryzyka, będą podejmowane decyzje o dopuszczeniu do stosowania danego produktu czy usługi opartej na AI. Te aktywności, w których nie będą dostrzegane znaczące ryzyka będą mogły funkcjonować dalej.

Czytaj także: Sztuczna inteligencja może służyć bankowcowi i rolnikowi, ale także przestępcy

Ex post czy ex ante?

Kolejna sprawa, o której się mówi się w Unii Europejskiej to demokratyczny sposób zarządzania zagrożeniami. Temu mają służyć odpowiednie kodeksy etyczne. W ich przygotowaniu powinni brać udział naukowcy, przedsiębiorcy, konsumenci.

Następne kwestie związane z AI i unikaniem zagrożeń omawiane w gremiach unijnych to techniki oceny zagrożeń. Do tej pory zagrożenia były oceniane ex post, po ich wystąpieniu. Produkty i usługi są ocenianie dopiero kiedy okazuje się, że wywołują niepożądane skutki. I wtedy następuje reakcja.

W tej chwili rozważa się inny model działania, pozwalający oceniać zagrożenia.  Proponuje się działania ex ante, przed wdrożeniem danej aplikacji. Wtedy byłyby dokonywane analizy możliwych zagrożeń. I dopiero potem, ewentualnie, dane rozwiązanie byłoby wprowadzane w życie.

Amerykańscy eksperci twierdzą z kolei, że model typu ex ante wydłuży proces wprowadzania nowych rozwiązań, obniży poziom innowacyjności. Jednak ten sposób działania pozwalałby oceniać, czy dane wprowadzane do AI były dostatecznie szerokie, czy były dobrej jakości, i czy nie było niesymetrycznego doboru tych danych, bo to może prowadzić do przechyłu dyskryminacyjnego.

Konsument i AI

Druga propozycja dotyczy upodmiotowienia pozycji konsumenta.

‒ My, użytkownicy produktów i usług tworzonych przez AI, jesteśmy konsumentami i bardzo istotne jest, abyśmy wiedzieli na jakich zasadach te mechanizmy funkcjonują.

Nie chodzi o to, abyśmy jak np. pasażerowie samolotu wiedzieli wszystko o tym dlaczego samolot leci, ale pewne generalne zasady powinny być dla nas zrozumiałe, np. zasady dostępu do kredytu, gdzie rolę ocenną odgrywa AI.

Muszę wiedzieć, gdzie się mam odwołać, jaka jest procedura tego odwoływania, a ci, do których się odwołuję muszą sobie dać radę z nową sytuacją i technologią tego odwoływania – mówił dr Michał Boni.

Odnosząc się do AI w instytucjach publicznych, rządowych i samorządowych zwrócił uwagę, że eksperci postulują wprowadzenie tzw. certyfikatów higieny danych. Chodzi o to, aby dane do ofert usług i produktów, na których się uczy AI były dobrej jakości.

Jednocześnie w tych instytucjach technologie powinny być oceniane pod kątem etycznym, w modelu ex ante.

Dodatkowo instytucje stosujące AI w usługach publicznych powinny co roku publikować raporty o zdarzeniach związanych z AI, informujące jak obywatele, konsumenci byli obsłużeni, jaki był ich poziom satysfakcji lub niezadowolenia.

Te działania uzupełniałyby kodeksy etyczne, co miałoby doprowadzić do sytuacji, że usługi i produkty tworzone przy udziale AI byłyby uważane za godne zaufania.

Banki, etyka i AI

O zasadach etycznych, które powinny obowiązywać bankowców posługujących się sztuczną inteligencją ‒ mówił Włodzimierz Grudziński, doradca zarządu Związku Banków Polskich.

Jego zdaniem potrzebna jest uczciwość w podejściu do klienta. Mając bardzo dobry obraz klienta, znając jego nawyki, nie powinno się manipulować klientem, jego nawykami w wydawaniu pieniędzy, w celu sprzedaży mu produktów czy usług.

‒ Trzeba też zerwać z błędnym przekonaniem, że jeżeli coś wychodzi z komputera, z programu, z aplikacji to jest to wolne od przekonań, od ludzkich uprzedzeń, jest racjonalne, fair, bezuczuciowe. 

Tymczasem to, co "mówi" komputer zależy od tego, jakie dane zostały wprowadzone do programu. Np. jeżeli dane dotyczące jakiejś mniejszej populacji są słabo reprezentowane w danych programu, to proces uczenia się może prowadzić do niepoprawnych wniosków  – podkreślił ekspert ZBP.

Jego zdaniem, w danych historycznych mogą być ukryte pewne oceny, rożne dyskryminacje, uprzedzenia, które były kiedyś brane pod uwagę.

‒ Konsumentom trzeba tłumaczyć działanie algorytmu. To jest wyzwanie. Musimy jako bankowcy umieć wytłumaczyć, jak działa algorytm i brać odpowiedzialność za wynik, który wyszedł, jeśli pojawił się w procesie decyzyjnym – podkreślał Włodzimierz Grudziński.

Ważne jest też przygotowanie pracowników sektora bankowego. Przypomniał, że od 1995 roku przy ZBP działa Komisja Etyki.

Ostatnia wersja kodeksu etyki bankowej, zbioru dobrych praktyk została przyjęta w 2013 roku. Zaakceptowały ją wszystkie banki w Polsce. Niektóre duże banki, szczególnie te, które znajdują się  grupach międzynarodowych, mają swoje własne kodeksy etyki.

W 2019 roku Komisja przygotowała rekomendacje dotyczące kształtowania kultury etycznej w banku. Zaproponowano wskazówki dotyczące szkoleń. Przygotowano kilkadziesiąt przykładowych sytuacji, w których pracownicy banków mogą stanąć przed dylematami etycznymi. W tej grupie jest kilka przykładów z użycia nowych technologii. Te przypadki mają być punktem wyjścia do dyskusji dla szkolonych bankowców.

W tej chwili są przyjmowane zapisy do jednego z zespołów Komisji Etyki. Jest to „Zespół ds. Wyzwań etycznych w obszarze digitalizacji i nowych technologii.”

Banki przygotowane technologicznie do rewolucji AI

Odnosząc się do kwestii czy polskie banki są gotowe na rewolucję AI, doradca ZBP stwierdził, że nasze banki są do tego przygotowane technologicznie.

Jego zdaniem, już wkrótce informacje o stosowanych programach AI pojawią się w corocznych sprawozdaniach dotyczących niefinansowej działalności banków, które są coraz częściej publikowane przez te instytucje finansowe.

Tam są zamieszczane informacje odnoszące się do kwestii etycznych, są opisywane sposoby działania banków w odniesieniu do interesów klientów.

Nie ma co się bronić przed AI, ona pomaga, są nowe wyzwania etyczne i trzeba temu stawić czoła.

Czytaj także: Przedsiębiorcy chcą wspierać rozwój sztucznej inteligencji

Źródło: aleBank.pl
Udostępnij artykuł: