Czy już powinniśmy obawiać się totalnej inwigilacji biometrycznej?

Komentarze ekspertów / Raporty

W Unii Europejskiej toczy się obecnie debata na temat granic identyfikacji biometrycznej oraz możliwości oceny zachowań ludzi w sferze publicznej. Obecnie zmierzamy raczej w kierunku przeciwnym niż np. Chiny, które postawiły na powszechną identyfikację oraz połączenie jej z systemem tzw. scoringu społecznego, podkreśla w komentarzu Michał Nowakowski.

Michał Nowakowski, Head of NewTech w NGL Advisory oraz Counsel w NGL Legal, założyciel www.finregtech.pl, wykładowca studiów podyplomowych SGH: FinTech ‒ nowe zjawiska i technologie na rynku finansowym.
Michał Nowakowski. Źródło: NGL Advisory, NGL Legal

W Unii Europejskiej toczy się obecnie debata na temat granic identyfikacji biometrycznej oraz możliwości oceny zachowań ludzi w sferze publicznej. Obecnie zmierzamy raczej w kierunku przeciwnym niż np. Chiny, które postawiły na powszechną identyfikację oraz połączenie jej z systemem tzw. scoringu społecznego, podkreśla w komentarzu Michał Nowakowski.

Dowodem tego jest chociażby lista praktyk zakazanych wskazana w projekcie rozporządzenia w sprawie sztucznej inteligencji, ale także liczne opracowania na temat potrzeby ograniczeń w tym zakresie. W tym miejscu warto zauważyć, że propozycje, o których za chwilę napiszę wprowadzają pewne rozróżnienie na identyfikację i analizę biometryczną w przestrzeni publicznej i prywatnej (proponowany art. 5b).

Mniej więcej dwa tygodnie temu eksperci Parlamentu Europejskiego opublikowali bardzo ciekawy raport „Biometric Recognition and Behavioural Detection. Assessing the ethical aspects of biometric recognition and behavioural detection techniques with a focus on their current and future use in public spaces”, który w kompleksowy sposób odnosi się właściwie do wszystkich aspektów związanych z tym zagadnieniem, w tym sugeruje konkretne zmiany do projektu samego rozporządzenia, ale też wyjaśnia kwestie techniczne i rozróżnienie różnych poziomów biometrii oraz jej typów.

Zebranie i przypisanie określonych danych (...) powoduje liczne zagrożenia, które mogą zmaterializować się np. w przypadku przełamania zabezpieczeń

Nie chcę w dzisiejszym artykule wchodzić bardzo głęboko w zawiłości prawne i regulacyjne, bo pewnie musielibyśmy znacznie przekroczyć limit znaków, ale chciałbym skupić się na kwestiach etycznych związanych z identyfikacją biometryczną i powiązaną z nią analizą naszych zachowań wykonywaną zazwyczaj przez szeroko rozumianą sztuczną inteligencję.

Źródło: M.Nowakowski

To niewątpliwie trudny temat, który zawiera w sobie wiele wątpliwych lub co najmniej drażliwych obszarów, w tym także co do granic kontroli przez organy publiczne czy nieomylności w osądach.

Czytaj także: Nowe dowody z odciskami palców już są, ale wstrzymane

Inwigilacja totalna?

Szczególnie ciekawym zagadnieniem jest tutaj kwestia predykcji naszych zachowań na bazie pewnych czynników czy charakterystyk, jak np. temperatura ciała czy tętno, ale też bardziej zaawansowanych jak fale mózgowe (polecam wygooglować „brain-computing-interfaces”) czy bicie naszego serca.

Można powiedzieć, że inwigilacja totalna. Brzmi strasznie, ale takie rozwiązania mają też swoje plusy i pozytywne zastosowania, np. w wykrywaniu podejrzanych o terroryzm czy w ogóle do ścigania przestępstw. Takie odstępstwa, czyli możliwość wykorzystania identyfikacji biometrycznej ‒ pod pewnymi warunkami ‒ dopuszcza także projektowane rozporządzenie w sprawie AI.

Pytanie jakie tutaj się pojawia, to oczywiście czy chcemy poświęcać swoją prywatność na rzecz zwiększonego bezpieczeństwa. Oddajemy „część siebie”, ale w zamian ‒ przynajmniej potencjalnie ‒ może mieć poczucie, że państwo nas chroni i zareaguje w odpowiedniej chwili. Co jednak, jeżeli zareaguje wobec nas, a oskarżenia okażą się nieprawdziwe?

To zresztą, czyli wspomniana już „nieomylność” oraz „poświęcenie naszych danych”, to dwa z głównych obszarów, którym poświęcony jest raport ekspertów Parlamentu Europejskiego. Problem ten pojawia się na wielu poziomach, zaczynając już od momentu, w którym po prostu zbieramy dane identyfikujące poszczególne osoby i przetwarzamy je na potrzeby uczenia samego modelu. Zebranie i przypisanie określonych danych (oraz kategoryzacja, o której za chwilę) powoduje liczne zagrożenia, które mogą zmaterializować się np. w przypadku przełamania zabezpieczeń. 

Ktoś kto wejdzie w posiadanie takich danych, jak wskazują sami eksperci, będzie miał możliwość odnaleźć i zidentyfikować taką osobę właściwie w każdym ‒ nawet nie do końca legalnym ‒ celu. Innymi słowy, jeżeli za pomocą identyfikacji biometrycznej i zaawansowanej analityki zostaniemy zapisani w systemie, to jesteśmy „załatwieni”.

Naszych charakterystycznych zachowań czy cech fizjologicznych nie jesteśmy w stanie zmienić. To już brzmi groźnie. Tym bardziej, że w zasadzie nie mamy pewności co do dokładności określonych modeli, ale także samych sensorów. Stąd już niedaleka droga do stygmatyzacji czy dyskryminacji, tym bardziej, że ostatecznie decyzje podejmują nie roboty, ale ludzie, którzy mają swoje uprzedzenia czy po prostu zły humor. 

Ktoś kto wejdzie w posiadanie takich danych, jak wskazują sami eksperci, będzie miał możliwość odnaleźć i zidentyfikować taką osobę właściwie w każdym ‒ nawet nie do końca legalnym ‒ celu

Abstrahuję tutaj oczywiście od wymagań stricte prawnych wynikających nie tylko z RODO, ale także, a może przede wszystkim ‒ z praw podstawowych.

To oczywiście jeden z wątków, który już od początku może budzić sprzeciw. Bezpieczeństwo jest ważne, ale czy kosztem nas samych?

Czytaj także: RODO: co wolno, a czego nie wolno robić używającym technologii rozpoznawania twarzy?

Kategoryzacja zachowań; możliwe ryzyka i konsekwencje

To zaś prowadzi nas do kolejnego wątku, czyli kategoryzacji określonych zachowań, które mogą uruchamiać alerty sugerujące, że „chcemy zrobić coś złego”. Już sama myśl o tym, że jesteśmy pod obserwacją może wywołać u nas zwiększone tętno czy temperaturę ciała, a to już może być „trigger” dla urządzenia wykrywającego potencjalnie niebezpieczne zachowania.

Eksperci wskazują, że rozwiązania w zakresie tzw. human oversight, czyli nadzoru człowieka nad modelami, które zostały przedstawione w propozycji rozporządzenia w sprawie AI mogą być niewystarczające

Zanim jednak do tego dojdzie ktoś (a później „coś”) musi określić, jakie czynniki mogą wskazywać na takie ryzyko. Stworzenie listy obiektywnych czynników, nawet z udziałem najlepszych psychologów czy psychiatrów, kryminologów (nie kryminalistów), może nadal być obarczone pewną stronniczością (bias), a jak wiemy z wcześniejszych opracowań ‒ modele również mają tendencję do podejmowania stronniczych lub dyskryminacyjnych decyzji, predykcji czy rekomendacji.

Źródło: M.Nowakowski

Będzie to także ściśle powiązane z tym, jakie dane dostarczymy do systemu, tj. czy będziemy bazowali wyłącznie na uczeniu się w czasie rzeczywistym, czy też wykorzystamy już wcześniej pozyskane (skąd?) dane, które posłużą nam do wytrenowania modelu? 

W jaki sposób będziemy też mierzyli skuteczność tego modelu? W tym kontekście sami eksperci wskazują, że rozwiązania w zakresie tzw. human oversight, czyli nadzoru człowieka nad modelami, które zostały przedstawione w propozycji rozporządzenia w sprawie AI mogą być niewystarczające. Tutaj człowiek powinien grać pierwsze skrzypce, bo sfera jest nad wyraz wrażliwa. To jeden z obszarów.

Wydawało mi się to oczywiste, ale dobrze, że zostało to wypowiedziane wprost. Innymi słowy ‒ nie zostaniemy skazani za to, że system stwierdził, że pomyśleliśmy o czymś „brzydkim”

Drugi, ale powiązany z ludzkim charakterem tej identyfikacji, to wyraźne ograniczenia w zakresie możliwości wykorzystania decyzji bazujących na identyfikacji biometrycznej, wykrywaniu emocji czy kategoryzacji biometrycznej, jeżeli nie została ona poddana weryfikacji przez niezależną stronę (?) oraz jeżeli taka decyzja czy rezultat „wypluty” przez system daje odpowiedni poziom dokładności i niezawodności. Jestem ciekaw, jak ta niezależność i badanie tych czynników miałoby się odbywać i kto będzie właściwy do tego typu zadania?

Ważne jest jednak co innego. Eksperci sugerują, że wykrywanie emocji oraz kategoryzacja biometryczna nie powinny być wykorzystywane jako dowody (w sensie prawnym) w odniesieniu do osób fizycznych w kontekście tego, czy dana osoba miała określone emocje w danym momencie, czy nawet myśli lub intencje, które zostały wykryte przez system. Cóż, wydawało mi się to oczywiste, ale dobrze, że zostało to wypowiedziane wprost. Innymi słowy ‒ nie zostaniemy skazani za to, że system stwierdził, że pomyśleliśmy o czymś „brzydkim”.

No dobrze, w skrócie to tyle, choć wiele z wątków technicznych i prawnych pominęliśmy, skracając też fazy, które składają się na cały proces tworzenia takich systemów. Konkluzja jest jednak taka, że odpowiednie „safeguards” po prostu muszą znaleźć się w zmodyfikowanej propozycji Komisji. Już wcześniej można było zauważyć, że w wielu miejscach projekt jest po prostu nieprzemyślany, i choć cel, i założenia są słuszne, to wykonanie nie najlepsze.

Sam nie mam przekonania co do identyfikacji biometrycznej w przestrzeni publicznej, choć może akurat lotniska są przykładem, na który mógłbym przystać. Sami eksperci wskazują, że już tzw. large-scale surveillance jest wątpliwe, a identyfikacja może wiązać się z jakąś formą utraty naszej godności. 

Ja zresztą nie wyobrażam sobie, żeby państwo przejęło całą wiedzę na temat mnie samego, której ‒ nota bene ‒ sam nie mam. Jako ludzie jesteśmy nieprzewidywalni, unikalni i zaskakujący. Może tak powinno pozostać?

Michał Nowakowski,

https://pl.linkedin.com/in/michal-nowakowski-phd-35930315, Head of NewTech w NGL Advisory oraz Counsel w NGL Legal, założyciel www.finregtech.pl, wykładowca studiów podyplomowych SGH: FinTech ‒ nowe zjawiska i technologie na rynku finansowym. Adres e-mail: michal.nowakowski@ngladvisory.com
Opinie wyrażone w artykule są osobistymi opiniami Autora i nie mogą być utożsamiane z jakąkolwiek instytucją, z którą Autor jest lub był związany.

Źródło: aleBank.pl
Udostępnij artykuł: