Sztuczna inteligencja z obowiązkowym ubezpieczeniem OC? Komisja Europejska pyta o zakres odpowiedzialności

Komentarze ekspertów / Technologie i innowacje

Tematyka odpowiedzialności za sztuczną inteligencję może na pozór wydawać się mało istotnym zagadnieniem, szczególnie z perspektywy biznesowej. W praktyce jednak ustalenie określonych ram prawnych w tym zakresie będzie niosło ze sobą liczne konsekwencje, również w kontekście obowiązków po stronie tworzących i wdrażających rozwiązania oparte o sztuczną inteligencję. Jest to szczególnie istotne w kontekście zmian jakie mają szansę zaistnieć dzięki propozycji rozporządzenia w sprawie sztucznej inteligencji, które szykuje nam Unia Europejska, pisze Michał Nowakowski.

symbol sprawiedliwości prawa - wirtualna waga i dłoń człowieka oraz robota i
Fot. stock.adobe.com / Alexander Limbach

Tematyka odpowiedzialności za sztuczną inteligencję może na pozór wydawać się mało istotnym zagadnieniem, szczególnie z perspektywy biznesowej. W praktyce jednak ustalenie określonych ram prawnych w tym zakresie będzie niosło ze sobą liczne konsekwencje, również w kontekście obowiązków po stronie tworzących i wdrażających rozwiązania oparte o sztuczną inteligencję. Jest to szczególnie istotne w kontekście zmian jakie mają szansę zaistnieć dzięki propozycji rozporządzenia w sprawie sztucznej inteligencji, które szykuje nam Unia Europejska, pisze Michał Nowakowski.

Istotą bowiem jest sama definicja AI, która może mieć bardzo szerokie granice uwzględniające m.in. stosunkowo nieskomplikowane metody statystyczne czy nawet drzewka decyzyjne.

Wszystko zmierza w jednym kierunku – jakiejś formy uregulowania odpowiedzialności za treści cyfrowe. Mniej lub bardziej restrykcyjnie

Jeżeli więc definicja AI będzie szeroka, a Komisja (o czym za chwilę) zrealizuje swoje zamierzenia w zakresie odpowiedzialności za sztuczną inteligencję, to może okazać się, że wyzwań po stronie twórców i korzystających z AI będzie znacznie więcej.

KE rozpoczyna konsultacje ws. AI

Do napisania tego tekstu skłoniła mnie świeża informacja o rozpoczęciu konsultacji Komisji (UE) w sprawie „dostosowania przepisów dotyczących odpowiedzialności do ery cyfrowej i sztucznej inteligencji” oraz treść kwestionariusza (już wypełniłem!), który ma posłużyć do diagnozy stanu oraz potrzeb zarówno biznesu, jak i klientów, ale także sądów, w zakresie odpowiedzialności m.in. za sztuczną inteligencję.

Jak może pamiętacie w zeszłym roku mieliśmy propozycję rozporządzenia w sprawie odpowiedzialności za AI wysokiego ryzyka, a także rezolucję Parlamentu Europejskiego, która próbowała nakreślić zarys odpowiedzialności. Wydaje się jednak, że zarówno pierwsza koncepcja, jak i propozycja PE, nie spotkały się z wystarczającą aprobatą decydentów. Może i słusznie.

Dzisiaj Komisja wraca do nas – obywateli – z szeregiem pytań co do kierunku zmian, które mogłyby mieć miejsce, jak i naszej percepcji tych zmian z punktu widzenia nas samych (obywateli-klientów, biznesu czy sądów oraz tworzących przepisy). Ma to związek z projektowanymi zmianami w zakresie produktu niebezpiecznego, ale nie tylko (tak czy inaczej wstępna ocena skutków zmian znajduje się tutaj). 

W kwestionariuszu znajdziemy naprawdę wiele wątków i zasadniczo bez znajomości zagadnienia, a także wspomnianych tam aktów prawnych można dostać zawrotu głowy. Widać jednak wyraźnie, że wszystko zmierza w jednym kierunku – jakiejś formy uregulowania odpowiedzialności za treści cyfrowe. Mniej lub bardziej restrykcyjnie. A jest to wątek istotny także z innego punktu widzenia – pewności prawnej i efektywności sądownictwa, która może „dotknąć” brak odpowiednich przepisów odnoszących się do sfery cyfrowej. A to już spory problem.

Czytaj także: NCBR stawia na sztuczną inteligencję

AI – produkt niebezpieczny?

Zasadniczą koncepcją, która jest dyskutowana od dłuższego czasu jest poddanie AI (tutaj jednak znów pojawia się problem samej definicji) odpowiedzialności jak za produkt niebezpieczny. W chwili obecnej nie ma zgodności co do tego, czy rozwiązania (systemy lub produktu) oparte o uczenie maszynowe czy głębokie powinny być traktowane jak produkty niebezpieczne. I na gruncie naszych krajowych przepisów – raczej nie będą (vide art. 449(1) par. 2 Kodeksu cywilnego, który za produkt niebezpieczny uznaje rzecz ruchomą, choćby została ona połączona z inną rzeczą).

Powoduje to, że w tym zakresie konsumenci nie są chronieni w specyficzny sposób, a to już zagrożenie wobec postępującej algorytmizacji naszego życia. Zakładając więc, że jakieś rozwiązanie oparte o AI wyrządziłoby nam szkodę, niekoniecznie fizyczną, choć to niewykluczone, to ewentualne roszczenie musielibyśmy oprzeć o inną – bardziej ogólną podstawę. Pytanie znowu jaką?

W chwili obecnej nie ma zgodności co do tego, czy rozwiązania (systemy lub produktu) oparte o uczenie maszynowe czy głębokie powinny być traktowane jak produkty niebezpieczne

Najczęściej wskazujemy tutaj odpowiedzialność na zasadzie winy, która ma ten minus, przynajmniej z perspektywy wywodzącego swoje roszczenie, że można się od tej odpowiedzialności wymigać. A udowodnienie winy będzie ciążyło na tej osobie, co może być trudne w kontekście AI.

Oczywiście nie znaczy to, że w pewnych warunkach przedsiębiorca nie może się ekskulpować w zakresie produktu niebezpiecznego, ale po pierwsze ciężar dowodu przeniesiony jest na niego, a po drugie przesłanki nie są już tak oczywiste. To zresztą jedna z głównych osi dyskusji nad odpowiedzialnością za sztuczną inteligencję. Wydaje się, że wszystko będzie sprowadzało się do przeniesienia ciężaru dowodu na twórcę i/lub (odpowiedzialność solidarna) użytkującego ten system, co w połączeniu z odpowiedzialnością na zasadzie ryzyka charakterystyczną dla produktu niebezpiecznego będzie dawała całkiem spore „szanse” konsumentom.

No właśnie, czy tylko konsumentom? W chwili obecnej owszem, ale w kwestionariuszu padają również pytania o ewentualne rozszerzenie tej odpowiedzialności, a także możliwość wyłączenia odpowiedzialności względem przedsiębiorców na mocy stosownej klauzuli (to oczywiście dwie wykluczające się koncepcje).

Odpowiedzialność, ale za co?

Inną sprawą jest także pytanie o to, za co miałaby być ta odpowiedzialność. Wspomniane już przeze mnie projektowane rozporządzenie wskazuje na tzw. praktyki zakazane, do których – w uproszczeniu – należy m.in. wykorzystywanie systemów, które mogą wyrządzić szkodę psychiczną i fizyczną osobom fizycznym (np. stosując techniki podprogowe czy wykorzystując określone słabości).

Pomijając fakt, że są to pojęcia niedookreślone – sam zgłosiłem takie uwagi do projektu – to ryzyko nadużycia po stronie konsumentów jest całkiem spore, szczególnie w przypadku szkody nie fizycznej i nieekonomicznej, które są przecież dość subiektywne. Wyzwania po stronie sądów byłyby całkiem spore.

Same przepisy projektu są w wielu miejscach odzwierciedleniem już istniejących rozwiązań m.in. dla produktu niebezpiecznego

W kwestionariuszu poruszono także wątek wspomnianych już przeze mnie systemów AI wysokiego ryzyka, które zostały wprowadzone do projektu rozporządzenia (jak pamiętacie – wiąże się z tym szereg nowych obowiązków). Tutaj również Komisja zastanawia się, jak podejść do tego zagadnienia i czy oparcie powinna znaleźć tutaj zasada ryzyka.

Wydaje się, że raczej pójdzie to w tym kierunku, bo nawet same przepisy projektu są w wielu miejscach odzwierciedleniem już istniejących rozwiązań m.in. dla produktu niebezpiecznego. Jak jednak będzie to wyglądało i czy zostaną przewidziane też pewne wyjątki lub odstępstwa, to się dopiero okaże.

Czytaj także: AI w finansach: dlaczego powinniśmy oczekiwać mniej od algorytmów

AI z obligatoryjnym ubezpieczeniem OC?

Innym ważnym wątkiem jest kwestia ubezpieczeń, która spędza sen z powiek zarówno korzystającym z takich „produktów”, jak i ubezpieczycielom. Pojawiają się pomysły obligatoryjnego nakładania swoistego OC dla systemów AI, co najmniej wysokiego ryzyka, które pozwoliłyby na podjęcie ryzyka gospodarczego (to kolejny wątek), bo bez tego istnieje całkiem spore ryzyko, że podmioty będą wyhamowywały z innowacyjnymi rozwiązaniami w obawie przed w zasadzie nieograniczoną odpowiedzialnością.

Problem jaki możemy tutaj zidentyfikować to niewątpliwie znalezienie właściwych parametrów dla wyceny ryzyka oraz w ogóle zainteresowanych ubezpieczycieli.

Istnieje (...) ryzyko, że podmioty będą wyhamowywały z innowacyjnymi rozwiązaniami w obawie przed w zasadzie nieograniczoną odpowiedzialnością

Niedookreślone pojęcia, o których pisałem powyżej plus odpowiedzialność na zasadzie ryzyka, to także wyzwanie dla ubezpieczycieli. I z tym musi zmierzyć się też Komisja.

Różnicowanie odpowiedzialności?

Ciekawym wątkiem jest także sposób podziału odpowiedzialności. Obok odpowiedzialności solidarnej, np. twórcy i użytkującego czy operatora, Komisja zastanawia się czy nie pójść w kierunku różnicowania odpowiedzialności dla konkretnych rozwiązań, np. (pół)autonomicznych samochodów.

Czytaj także: Raport specjalny | SZTUCZNA INTELIGENCJA W FINANSACH | AI zmienia świat

Jest to rzeczywiście dość istotne zagadnienie, bowiem łańcuch dostaw w przypadku złożonych systemów AI jest rzeczywiście dość rozbudowany (np. dostawcy danych, twórcy, przekaźniki etc.). Pytanie jak rozstrzygnąć coś tak złożonego na bazie dość ogólnych przepisów. Wyzwanie dla Komisji jest.

O czym warto podyskutować?

To oczywiście nie wszystkie wątki, bo znajdziemy tam także kwestie dotyczące m.in. dokumentacji technicznej i jej granic oraz przykładowo domniemań prawnych – np. jeżeli użytkujący system nie dostarczy dokumentacji technicznej poszkodowanemu, to czy sąd może przyjąć, że wina leży po stronie tego podmiotu? Jak widzicie temat jest ciekawy i niełatwy.

Będę się mu oczywiście przyglądał, choć już dzisiaj mogę napisać, że skłaniam się ku:

- Odpowiedzialności na zasadzie ryzyka przynajmniej wobec bardziej złożonych rozwiązań, ale z wyraźnie określonymi przypadkami wyłączenia tej odpowiedzialności;

- Doprecyzowaniu sytuacji, w których taka odpowiedzialność miałaby mieć miejsce, w tym o jaką szkodę chodzi;

- Jasne określenie obowiązków po stronie producentów (twórców) i operatorów, ale także samych użytkowników końcowych;

- Dla mniej złożonych spraw (systemów) – odpowiedzialności na zasadzie winy;

- Odejściu od koncepcji dzielenia „poziomów” odpowiedzialności, to kwestia ocenna dla każdej sprawy;

- Jasne określenie zasad wyjaśnialności w kontekście AI, która tutaj będzie miała znaczenie;

- Przeniesienia tzw. burden of proof na przedsiębiorcę, ale również w określonych przypadkach – nie wiem tylko jeszcze jakich.

I to tyle. Na razie, bo do tematu wrócimy. Do zobaczenia!

Michał Nowakowski
Michał Nowakowski, https://pl.linkedin.com/in/michal-nowakowski-phd-35930315, Head of NewTech w NGL Advisory oraz Counsel w NGL Legal, założyciel www.finregtech.pl, wykładowca studiów podyplomowych SGH: FinTech ‒ nowe zjawiska i technologie na rynku finansowym. Adres e-mail: michal.nowakowski@ngladvisory.com
Opinie wyrażone w artykule są osobistymi opiniami Autora i nie mogą być utożsamiane z jakąkolwiek instytucją, z którą Autor jest lub był związany. Źródło: NGL Advisory
Źródło: aleBank.pl
Udostępnij artykuł: