Jest konkretna propozycja unijnej regulacji dot. odpowiedzialności sztucznej inteligencji

Bezpieczne Finanse / CyberHub / Raporty / Technologie i innowacje

sztuczna inteligencja
Fot. stock.adobe.com/ sdecoret

W ostatnich dniach komitet ds. prawnych Komisji (UE) opublikował bardzo ważny dokument „Draft Report with recommendations to the Commission on a Civil liability regime for artificial intelligence”. Rekomendacje tam zawarte mają istotne znaczenie zarówno dla twórców AI, jak i podmiotów, osób, które z niej korzystają.

#MichałNowakowski: #Wdrażający ponosi odpowiedzialność za wszelkie działania #AI, niezależnie gdzie i kiedy miała miejsce szkoda. Jeżeli mamy więcej wdrażających, to mamy odpowiedzialność solidarną z prawem regresu #SztucznaInteligencja #Odpowiedzialność #KomisjaUE @FinregtechPL

Na wstępie eksperci Komisji zauważają, że AI może przyczynić się do poprawy warunków życia w wielu obszarach, w tym sferze osobistej (zdrowie, kondycja, edukacja), czy też wspomóc w walce z wieloma niekorzystnymi zjawiskami, jak zmiana klimatu czy głód na świecie.

Z tego względu tak istotne jest tworzenie takich rozwiązań prawnych i regulacyjnych, które będą dostosowane do nowych technologii, a także powinny być oparte na jasnych zasadach.

I od razu ważna informacja – dokument zawiera konkretną propozycję legislacyjną. To duży krok naprzód.

Nie czeka nas rewolucja?

Komitet stoi na stanowisku, że nie ma potrzeby przeprowadzania kompleksowej rewizji rozwiązań prawnych odnośnie odpowiedzialności AI, choć specyfika sztucznej inteligencji wymaga z pewnością pewnych dostosowań i wyjaśnień, aby zapewnić, że w każdym przypadku jesteśmy w stanie wskazać osobę odpowiedzialną za jej działanie.

I tutaj od razu bardzo ciekawe stwierdzenie mające znaczenie dla oceny autonomiczności AI. Pozwolę sobie zachować oryginalną pisownię:

    „(…) all physical or virtual activities, devices or processes that are driven by AI systems may technically be the direct or indirect cause of harm or damage, yet are always the result of someone building, deploying or interfering with the systems (…)”

Oznacza to, że za AI zawsze stoi człowiek. Idąc dalej eksperci Komisji wskazują jednak, że niekiedy może być trudno powiązać określone działanie AI ‒ wyrządzoną szkodę, z określonym, uprzednim działaniem człowieka, np. na etapie projektowania algorytm).

Nie ma więc mowy o tym, że AI jest w pełni autonomiczne, choć oczywiście pewien zakres swobody posiada ‒ w propozycji znalazła się definicja autonomiczności. To ważne stwierdzenie.

Czytaj także: Czy sztuczna inteligencja może mieć status doradcy inwestycyjnego?

Mamy więc reżim dla produktu niebezpiecznego

Przepisy regulujące kwestię odpowiedzialności za produkt niebezpieczny są oceniane pozytywnie. Rozwiązania te mogą być więc stosowane również do AI pod warunkiem, że takie rozwiązanie „podpada” pod definicję produktu niebezpiecznego.

Ja niestety mam wątpliwości czy obecna definicja produktu niebezpiecznego jest w pełni satysfakcjonująca w kontekście AI, ale to dyskusja na inną okazję.

I tutaj kolejna ważna uwaga tzw. backend operator powinien również odpowiadać jak producent, wytwórca czy deweloper oprogramowania.

Czytaj także: Czy można przypisać odpowiedzialność karną algorytmowi? AI w e-handlu

Cieszy to, że eksperci Komisji (UE) wskazali, iż również w przypadku udziału osoby trzeciej, np. hakera, zastosowanie mają „klasyczne” zasady odszkodowawcze, chyba że… wykrycie takiej osoby trzeciej będzie niemożliwe lub nieproporcjonalnie kosztowne.

W takiej sytuacji z pewnością będą potrzebne dodatkowe wyjaśnienia lub nawet zmiany legislacyjne.

Odpowiedzialność osoby wdrażającej AI

To centralny punkt opinii. Zdaniem ekspertów Komisji, ponieważ osoba wdrażająca określone rozwiązanie ma pieczę nad AI, tj. zarządza ryzykiem powiązanym z działaniem sztucznej inteligencji, to będzie ona traktowana zazwyczaj jak właściciel samochodu czy zwierzaka. Będzie to też zazwyczaj pierwsza osoba, do której swoje kroki skieruje pokrzywdzona osoba.

A kim jest wdrażający (deployer)? Będzie to osoba, która:

1. Podejmuje decyzję o wykorzystaniu AI;

2. Kontroluje ryzyko związane z AI;

3. Czerpie korzyści z AI.

Jaka jest tego konsekwencja? Ogólnie ‒ odpowiedzialność za wszelkie działania AI, niezależnie od tego gdzie (fizycznie, wirtualnie) i kiedy miała miejsce szkoda. Jeżeli mamy więcej wdrażających, to mamy oczywiście odpowiedzialność solidarną z prawem regresu.

Czytaj także: Czy sztuczna inteligencja będzie zdolna odróżnić dane prawdziwe od nieprawdziwych?

Różne poziomy ryzyka, różny poziom odpowiedzialności

Rodzaj zastosowanego systemu sztucznej inteligencji może mieć znaczenie dla zakresu odpowiedzialności. Chodzi tutaj przede wszystkim o wyższy poziom tej odpowiedzialności w przypadku rozwiązań generujących potencjalnie wysokie ryzyko dla społeczeństwa, czy w węższym ujęciu – general public. Szkoda miałaby dotyczyć zdrowia, życia, integralności cielesnej czy prawa własności.

Eksperci Komisji stwierdzili tutaj, że dla takich rozwiązań należy przewidzieć oddzielny reżim odpowiedzialności, który powinien uwzględniać różne rodzaje ryzyk, zależności czy trudności ‒ w „uprzedniej” ocenie tych ryzyk. Jeżeli AI się uczy, to może wygenerować ryzyka, których nie przewidzieliśmy.

Bądź na bieżąco – zapisz się na nasz newsletter >>>

To co ma istotne znaczenie, to propozycja wymienienia wszystkich high-risk AI-systems w załączniku do proponowanego aktu prawnego z zastrzeżeniem, że Komisja powinna być uprawniona do dokonywania przeglądu co najmniej raz na 6 miesięcy i wprowadzania stosownych zmian. Bardzo sensowna rekomendacja.

Lista jest na razie dość krótka i obejmuje takie rozwiązania jak:

1. Drony;

2. Określone typy samochodów autonomicznych;

3. Autonomiczne systemy utrzymania ruchu;

4. Autonomiczne roboty;

5. Autonomiczne roboty sprzątające w przestrzeni publicznej.

Ubezpieczenie?

Jeżeli będziemy wdrażali tego typu technologie (high-risk) to powinniśmy posiadać stosowne ubezpieczenie od szkód, które AI może wyrządzić.

Ubezpieczyciele powinni dostosować swoją ofertę do nowych technologii i poszczególnych sektorów.

Czytaj także: Czy sztuczna inteligencja zapłaci nam odszkodowanie?

Jak to oceniać?

Jestem jeszcze w trakcie analizy i „trawienia” nowej propozycji. Wydaje się jednak, że podział na AI o wysokim ryzyku i zwykłe to bardzo dobre podejście.

Z jednej strony nie będzie blokowało rozwoju innowacji, a z drugiej zapewni dodatkowe zasady ochrony przy tych rozwiązaniach, które mogą faktycznie wyrządzić dużą szkodę. Zobaczymy.

Michał Nowakowski, https://pl.linkedin.com/in/michal-nowakowski-phd-35930315, Counsel w Citi Handlowy, założyciel www.finregtech.pl.

Opinie wyrażone w artykule są osobistymi opiniami Autora i nie mogą być utożsamiane z jakąkolwiek instytucją, z którą Autor jest lub był związany

Źródło: FinregtechPl
Udostępnij artykuł: