Czy unijne rozporządzenie w sprawie sztucznej inteligencji zabije innowacje?

Komentarze ekspertów

Niedawno opublikowałem ankietę w której zapytałem o to, jak postrzegacie nowe propozycje legislacyjne (m.in. w zakresie sztucznej inteligencji) przez pryzmat wpływu na szeroko rozumiany biznes. Wyniki ankiety zaraz omówimy, ale dosłownie przed parom dniami pojawił się ciekawy (i chyba nieco kontrowersyjny) raport pt. „How Much Will the Artificial Intelligence Act Cost Europe?” z którego wyłania się bardzo pesymistyczny scenariusz ‒ implementacja AI Act (AIA) może kosztować unijną gospodarkę aż 31 mld euro przez kolejne pięć lat i obniżyć poziom inwestycji w obszarze sztucznej inteligencji o 20%, pisze Michał Nowakowski.

Michał Nowakowski, Head of NewTech w NGL Advisory oraz Counsel w NGL Legal, założyciel www.finregtech.pl, wykładowca studiów podyplomowych SGH: FinTech ‒ nowe zjawiska i technologie na rynku finansowym.
Michał Nowakowski. Źródło: NGL Advisory, NGL Legal

Niedawno opublikowałem ankietę w której zapytałem o to, jak postrzegacie nowe propozycje legislacyjne (m.in. w zakresie sztucznej inteligencji) przez pryzmat wpływu na szeroko rozumiany biznes. Wyniki ankiety zaraz omówimy, ale dosłownie przed parom dniami pojawił się ciekawy (i chyba nieco kontrowersyjny) raport pt. „How Much Will the Artificial Intelligence Act Cost Europe?” z którego wyłania się bardzo pesymistyczny scenariusz ‒ implementacja AI Act (AIA) może kosztować unijną gospodarkę aż 31 mld euro przez kolejne pięć lat i obniżyć poziom inwestycji w obszarze sztucznej inteligencji o 20%, pisze Michał Nowakowski.

Według autorów raportu koszt wdrożenia (compliance) jednego systemu AI wysokiego ryzyka może kosztować przedsiębiorstwo z segmentu MŚP nawet do 400 tys. euro i skutkować obniżeniem zysku o nawet 40%.

Dyskusja nad ostatecznym kształtem AIA nadal trwa i nie wiem jeszcze do końca czy zaproponowane przez Komisję (UE) rozwiązania zostaną w pełni przyjęte. Do tego mamy liczne propozycje, na razie bardziej koncepcyjne, dotyczące chociażby odpowiedzialności za sztuczną inteligencję czy szczególnych wymogów dla oprogramowania.

Niewątpliwie biznes poniesie stratę (w sensie ekonomicznym) na implementacji, ale też utrzymywaniu rozwiązań w zakresie nadzoru nad systemami sztucznej inteligencji

Brak jeszcze jednak ostatecznego konsensusu w tym kontekście i trudno jednoznacznie określić wpływ nowych rozwiązań na rozwój biznesu wykorzystującego uczenie maszynowe czy głębokie, ale także mniej zaawansowane metody jak metody statystyczne, choć jedno jest pewne:

koszty rzeczywiście nie będą małe.

Źródło: M.Nowakowski

To nie ulega wątpliwości. Jest to efektem przyjętego przez Unię podejścia, które zakłada, że „rozwój rozwojem, ale najważniejszy jest człowiek” i to jemu należy zapewnić najwyższy poziom ochrony, m.in. w kontekście poszanowania praw podstawowych. Można mieć tutaj oczywiście wątpliwości co do tego czy wszystkie założenia i postulaty unijnych polityków są w ogóle możliwe do zrealizowania, ale cel jest niewątpliwie szczytny.

Czytaj także: Wytyczne BaFin dla sektora finansowego w sprawie AI, to dobry przykład i dobre praktyki

Granice i koszty wykorzystania algorytmów

W jednym z moich artykułów poruszyłem wątek wpływu algorytmów na nasze życie, decyzje i dlaczego rozsądne, ale niekiedy dość restrykcyjne przepisy mogą być zasadne. Nie zawsze jest to konieczne i pożądane, a AIA wydaje się to w jakimś stopniu uwzględniać, choć rzeczywiście w niektórych miejscach granice wydają się być nieco przekroczone, m.in. za sprawą niejasnych pojęć czy odniesień.

W ogólnym rozrachunku niewątpliwie biznes poniesie stratę (w sensie ekonomicznym) na implementacji, ale też utrzymywaniu rozwiązań w zakresie nadzoru nad systemami sztucznej inteligencji, natomiast nie zapominajmy, że koszt utraconej reputacji, kar administracyjnych czy wypłaconych odszkodowań może znacznie przewyższać koszt dostosowania się do nowych wymogów.

Poza tym wspomniany raport zdaje się nie uwzględniać jednej istotnej kwestii ‒ skąd wiemy, że podmioty, które już dzisiaj operują systemami wysokiego ryzyka (w sensie faktycznym, nie prawnym) nie posiadają już stosownych rozwiązań?

Wiele z tych obszarów, które ujęte są w propozycji Komisji już podlega szczegółowym regulacjom (w tym sektorowym), ale też pewnym standardom etycznym czy zawodowym, które mają zapewnić podobny poziom bezpieczeństwa.

Źródło: M.Nowakowski

To pierwszy wątek, który jest dla mnie nieco wątpliwy. Drugi to ocena czy rzeczywiście wdrożenie tych rozwiązań będzie aż tak wymagające i kosztowne?

Zgadzam się, że wdrożenie bardziej zaawansowanych systemów monitoringu (w szczególności w czasie rzeczywistym) może wymagać pewnych nakładów finansowych, a także zatrudnienia dodatkowych specjalistów, ale przecież mówimy tutaj o dość ryzykownym obszarze technologii, który może mieć wpływ na nas w takiej skali, o jakiej nawet dzisiaj nie myślimy.

Czy zahamuje to innowacje? Jak ktoś chce, to i tak rozwinie swój pomysł. I środki na jego realizację też znajdzie

I nie chodzi mi tutaj wcale o „Terminatora”. W dzisiejszych czasach manipulacja i dezinformacja, a także wykorzystywanie naszych słabości to jedno z największych zagrożeń, a wobec dość swobodnego udostępniania przez nas danych, ryzyko ewentualnych potknięć stale rośnie.

Czytaj także: Prawa podstawowe a sztuczna inteligencja, dlaczego powinniśmy o nie walczyć?

Ramy instytucjonalne i odpowiedzialność AI a innowacje

Idźmy dalej. Gdy wchodziło RODO pojawiły się podobne obawy o upadek wielu przedsiębiorstw. Czy tak się stało ‒ nie wiem, ale nie słyszałem o spektakularnych upadłościach związanych z RODO, ale już związanych z naruszeniem pewnych wymogów prawnych, regulacyjnych czy etycznych ‒ owszem.

Koszt wdrożenia GDPR rozłożył się w czasie i nie mówię tutaj tylko okresie pomiędzy uchwaleniem, a wejściem w życie, ale o tym, że otoczenie regulacyjne wciąż ewoluuje i nadal dostosowujemy się i uczymy jak żyć w nowej rzeczywistości.

Manipulacja i dezinformacja, a także wykorzystywanie naszych słabości to jedno z największych zagrożeń

Zakładam także, że budowanie ram instytucjonalnych trochę potrwa, a pełna odpowiedzialność związana m.in. z tzw. conformity assessment będzie wymagała efektywności i operacyjnej zdolności odpowiednich organów odpowiedzialnych za sztuczną inteligencję na poziomie krajowym oraz unijnym.

Źródło: M.Nowakowski

Jestem też dość ostrożny w ocenie ograniczeń inwestycji w zakresie AI czy „ucieczki” wielu podmiotów z Unii w poszukiwaniu bardziej elastycznych jurysdykcji. Rynek Unii Europejskiej jest dla wielu biznesów jednym z kluczowych i raczej tak pozostanie.

Dzisiaj też już mamy spore ograniczenia w zakresie pozyskiwania danych i mimo wszystko AI się rozwija

Propozycja w zakresie rozporządzenia AI zakłada bardzo szeroki zakres terytorialny ‒ innym słowy, jeżeli chcesz jakkolwiek wykorzystywać systemy wysokiego ryzyka na terenie UE, to musisz się dostosować. Kropka. Czy biznesy oraz fundusze zrezygnują z inwestycji tylko ze względu na restrykcyjne regulacje czy przepisy? W jakimś stopniu pewnie tak, ale jak bardzo?

Dzisiaj też już mamy spore ograniczenia w zakresie pozyskiwania danych i mimo wszystko AI się rozwija. Zgoda, nie jest to Dziki Zachód, jak w Chinach czy USA, gdzie rzeczywiście mamy potężne inwestycje i rozwój na bardzo wysokim poziomie, ale dramatu nie ma. Oczywiście, patrząc przez pryzmat całej UE i podstawowych zasad trudno wierzyć w to, że dogonimy te gospodarki w technologicznym wyścigu. Pytanie ‒ czy tego właśnie chcemy?

Na tym zakończę dzisiaj swój wywód. Nie mam wątpliwości, że po wejściu w życie rozporządzenia, a wcześniej jego uchwaleniu będzie gorąco. Pojawią się doradcy, narzędzia i rozwiązania, które będą nam ułatwiały pracę. Będzie to wymagało poniesienia kosztów. To na pewno.

Z drugiej strony globalnie nadal nie wiemy, jak dalej rozwiązać wiele problemów z AI (wyjaśnialność, przejrzystość, blackbox czy stronniczość i dyskryminacja), a jeżeli wymagać, to tylko jeżeli coś jest możliwe do zrobienia.

Nie mam więc złudzeń, że nie będzie to szybki proces, a do tego będzie on ewoluował w czasie. Czy zahamuje to innowacje? Jak ktoś chce, to i tak rozwinie swój pomysł. I środki na jego realizację też znajdzie.

Michał Nowakowski,

https://pl.linkedin.com/in/michal-nowakowski-phd-35930315, Head of NewTech w NGL Advisory oraz Counsel w NGL Legal, założyciel www.finregtech.pl, wykładowca studiów podyplomowych SGH: FinTech ‒ nowe zjawiska i technologie na rynku finansowym. Adres e-mail: michal.nowakowski@ngladvisory.com
Opinie wyrażone w artykule są osobistymi opiniami Autora i nie mogą być utożsamiane z jakąkolwiek instytucją, z którą Autor jest lub był związany.

Źródło: aleBank.pl
Udostępnij artykuł: