Komisja Europejska wstępnie określiła czego nie wolno sztucznej inteligencji, wyznaczyła też wysokość kar

Komentarze ekspertów / Technologie i innowacje

Niedawno poruszyłem zagadnienie nie do końca jasnych definicji zawartych w projektowanym rozporządzeniu w sprawie sztucznej inteligencji w Unii Europejskiej. Doszedłem wtedy do wniosku – mam przynajmniej taką nadzieję – że Komisję czeka sporo pracy, bo wiele kwestii wymaga jeszcze dopracowania. Dzisiaj zajmę się kolejnym – dość kontrowersyjnym – tematem, a mianowicie listą zakazanych praktyk przy wykorzystywaniu systemów AI, a także powiązanych z tym karami za naruszenia. Przejdźmy do konkretów ‒ pisze w komentarzu Michał Nowakowski, Finregtech.Pl.

Michał Nowakowski
Michał Nowakowski. Źródło: MN

Niedawno poruszyłem zagadnienie nie do końca jasnych definicji zawartych w projektowanym rozporządzeniu w sprawie sztucznej inteligencji w Unii Europejskiej. Doszedłem wtedy do wniosku – mam przynajmniej taką nadzieję – że Komisję czeka sporo pracy, bo wiele kwestii wymaga jeszcze dopracowania. Dzisiaj zajmę się kolejnym – dość kontrowersyjnym – tematem, a mianowicie listą zakazanych praktyk przy wykorzystywaniu systemów AI, a także powiązanych z tym karami za naruszenia. Przejdźmy do konkretów ‒ pisze w komentarzu Michał Nowakowski, Finregtech.Pl.

Lista na pozór nie jest długa, jeżeli jednak przyjrzymy się konkretnym praktykom, to okaże się, że deskryptywny charakter potencjalnych naruszeń znacznie się wydłuża.

Co ma być zakazane w Unii?

Po pierwsze nie będzie można wykorzystywać (czy oferować) takich systemów AI, które – aż musiałem posłużyć się translatorem – wykorzystują przekaz podprogowy (a więc będący poza świadomością odbiorcy-osoby) w celu istotnego zniekształcenia zachowania (jak rozumiem wpłynięcia na odbiorcę-osobę), aby spowodować u niej (lub innej osoby) krzywdę fizyczną lub psychiczną. Innymi słowy – manipulacja naszymi zachowaniami jest zakazana.

Praktyką niezgodną z projektem będzie stosowanie przez organy publiczne systemów AI działających na zasadzie scoringu społecznego – tego na wzór chińskiego rozwiązania

Drugim działaniem może być wykorzystywanie lub oferowanie takich systemów AI, które wykorzystują określone słabości (cechy?) określonych grup osób, wyodrębnionych ze względu na wiek, fizyczną lub psychiczną niepełnosprawność, w celu istotnego wpłynięcia na te osoby, co może spowodować krzywdę fizyczną lub psychiczną. Ciężko.

Idźmy dalej. Trzecią praktyką niezgodną z projektem będzie stosowanie przez organy publiczne systemów AI działających na zasadzie scoringu społecznego (mówimy tutaj oczywiście o samym rezultacie) – tego na wzór chińskiego rozwiązania. Przy czym w projekcie mamy ograniczenie do dwóch sytuacji, kiedy ocena wiarygodności obywateli będzie zakazana:

Jeżeli scoring jest stosowany w celu szkodliwego lub niekorzystnego traktowania osób fizycznych w obszarze społecznym, przy czym mowa tutaj o sytuacji kiedy zebrane lub wygenerowane dane zostały zebrane w innym celu – nie jest więc to zakaz absolutny, a przynajmniej ja tak to czytam;

 i/lub

taki scoring jest wykorzystywany w celu szkodliwego lub niekorzystnego traktowania osób fizycznych w sposób nieadekwatny lub nieproporcjonalny do ich społecznych zachowań lub wagi tych zachowań.

Uff, ograniczenia są całkiem spore, ale samo wykorzystywanie systemów AI do stosowania scoringu obywateli nie zostało całkowicie zakazane. To w sumie dobrze, bo przykładowo w obszarze benefitów społecznych może to być ciekawe zastosowanie. Ale od razu uwaga – takie systemy wskazane są w załączniku do projektu jako systemy wysokiego ryzyka i podlegają szczególnym wymogom.

Czytaj także: Nowa regulacja UE dotycząca sztucznej inteligencji, drakońskie kary za naruszenie przepisów

Koniec? Nie. Biometria

No właśnie. Czwartą praktyką, która jest zarazem najbardziej rozbudowana jest zakaz stosowania identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej i w celu egzekwowania prawa, chyba że…

To „chyba że” jest też dość obszerne, bowiem takie rozwiązania mogą być stosowane, jeżeli takie są one niezbędne (strictly necessary) do realizacji jednego z poniższych celów:

„targetowanie” potencjalnych ofiar przestępstw, w tym zaginionych dzieci;

przeciwdziałanie istotnym i mogącym się wydarzyć w bardzo niedługim czasie zdarzeniom zagrażającym życiu lub fizycznemu bezpieczeństwu osób fizycznych, a także przeciwdziałanie atakom terrorystycznym;

wykrywanie, lokalizowanie, identyfikacja lub postawienie w stan oskarżenia sprawcy lub podejrzanego, ale tylko określonych typów przestępstw (i to pod warunkiem karalności w danej jurysdykcji).

Zakres więc jest dość wąski i pytanie ‒ jak ewentualnie miałoby to być realizowane, ale do tego też pewnie dojdziemy.

Praktyką, która jest zarazem najbardziej rozbudowana jest zakaz stosowania identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej i w celu egzekwowania prawa

To co jest istotne, to fakt, że poza tym musimy (organy publiczne) dokonać oceny spełnienia pewnych (wszystkich) elementów określonych w rozporządzeniu:

- rodzaj sytuacji, którym taki system miałby przeciwdziałać, w tym poprzez ocenę realnego prawdopodobieństwa zdarzenia przy braku takiego systemu;

- konsekwencje użycia systemu dla praw i wolności wszystkich osób.

No i to też nie koniec. Komisja chciałby, aby dodatkowo takie systemy miały zapewnione odpowiednie zabezpieczenia czy „safeguards”. Rozumiem to również jako rozciągnięcie na kwestie ochrony danych osobowych czy cyberbezpieczeństwa.

Dodatkowo projekt zakłada, że „ustawienie” takiego systemu AI będzie wymagało uzyskania stosownego zezwolenia wydawanego przez niezależny organ administracji lub sąd czy trybunał. Nie dotarłem do tego, jak wyznaczyć taki organ/sąd, ale być może będziemy mieli doprecyzowanie – tym bardziej, że prawo krajowe ma określić zasady.

Dalej projekt zakłada, że w przypadku pewnych wyjątkowych sytuacji wymagających natychmiastowego działania, system może być zastosowany bez zgody/zezwolenia (trzeba je uzyskać później). Wiele z kwestii dotyczących takich rozwiązań będzie ogólnie „doprecyzowywana” w krajowym porządku prawnym.

Czytaj także: Jak sztuczna inteligencja może pomóc bankom przetrwać w świecie zerowych stóp procentowych?

Kary, sankcje

Trochę tego jest, więc w skrócie. Mamy zarówno kary finansowe i to do 30 mln euro (lub 6% światowego obrotu) za naruszenie zakazów z art. 5.

Źródło: Finregtech.Pl

Dodatkowo EDPS (European Data Protection Supervisor) może nałożyć na organy publiczne karę administracyjną do 500 000 euro za takie samo naruszenie. Jest więc „nieźle”.

Ocena?

Jeden rabin powie tak, drugi powie nie. A tak serio, to obawiam się przede wszystkim dwóch pierwszych zakazanych praktyk, a raczej ich „nieostrości”.

Może okazać się, że podmioty stosujące innowacyjne rozwiązania będą obawiały się je szerzej wykorzystywać ze względu na potencjalne kary.

Jeżeli dołożymy do tego problem czarnej skrzynki, to wszystko staje się jasne. Nie zawsze będziemy mieli pewność. Niestety.

Michał Nowakowski, https://pl.linkedin.com/in/michal-nowakowski-phd-35930315, Counsel w Citi Handlowy, założyciel www.finregtech.pl.
Opinie wyrażone w artykule są osobistymi opiniami Autora i nie mogą być utożsamiane z jakąkolwiek instytucją, z którą Autor jest lub był związany.

Źródło: aleBank.pl
Udostępnij artykuł: