Bankowość i Finanse Technologie: Każdą technologię można wykorzystać na różne sposoby

BANK 2020/02

dr hab. Aleksandra Przegalińska-Skierkowska
dr hab. Aleksandra Przegalińska-Skierkowska, Akademia Leona Koźmińskiego. Fot. ZBP/K. Zapała

Z dr hab. Aleksandrą Przegalińską-Skierkowską z Akademii Leona Koźmińskiego, profesor wizytującą w Center for Collective Intelligence na Massachusetts Institute of Technology, o sztucznej inteligencji rozmawiali Przemysław Barbrich i Jan Osiecki.

Dla kogo jest tworzona sztuczna inteligencja? Rozwijamy ją na potrzeby biznesu, choćby Netflixa czy Amazona, żeby wiedzieli o nas wszystko i mogli zarabiać więcej, czy dla zwykłego Kowalskiego?

– Trudno odpowiedzieć w prosty sposób na to pytanie. Na pewno biznes bardzo interesuje się sztuczną inteligencją i robi to w celu pomnażania swoich zysków, albo przynajmniej minimalizowania kosztów. Sztuczna inteligencja jest źródłem wielu tak zwanych insightów konsumenckich. Dzięki wejrzeniu w potrzeby klientów firmy lepiej poznają tych, którzy kupują ich usługi, dowiadują się o konkurencji itp. Ale z drugiej strony AI jak najbardziej jest tworzona dla konsumentów. Najlepszym tego przykładem jest jej zastosowanie w medycynie, gdzie mamy do czynienia z diagnostyką wykonywaną przez sztuczną inteligencje, czy propozycjami terapii przez nią wybieranymi. Tu w centrum uwagi jest konsument, czyli pacjent, który z takich rozwiązań korzysta. 

Pracując nad sztuczną inteligencją, staramy się działać tak, żeby była albo skierowana do obywatela czy społeczeństwa, albo tworzymy sztuczną inteligencję dla sztucznej inteligencji. Aby zrozumieć ją, to jak może działać i czym ona właściwie jest lub mogłaby się stać. Zatem odpowiedzi na pytanie jest kilka i one wszystkie są równouprawnione.

Tematyka związana ze sztuczną inteligencją jest bardzo trudna, ludzie nie rozumieją jej. Kiedy to wszystko stanie się prostsze, tak żeby Kowalski mógł zaprojektować sobie robota?

– To już się dzieje, trwa upraszczanie sztucznej inteligencji tak, żeby interfejs, czyli kanał komunikacji między systemem a użytkownikiem był w miarę przyjazny. Ze sztuczną inteligencją jest trochę tak jak z innymi technologami – ludzie nie do końca wiedzą, jak działa samochód czy samolot, ale jednak stale z nich korzystają. I pewnie w taki sam sposób, za jakiś czas, będą mogli zbudować swojego domowego asystenta. Właściwie to mogą zrobić to już w tej chwili.

Co takiego mogę teraz zrobić?

– Choćby stworzyć system, który będzie za pana w ściśle określonym czasie w wybranych miejscach domu włączał lub wyłączał światło. Żeby mieć coś takiego nie trzeba kodować czy posiadać umiejętności programistycznych, korzysta się z gotowych zestawów narzędzi, które pozwalają to robić. 

Widzę, zwłaszcza u przedstawicieli młodszego pokolenia, że wykorzystanie technologii to już rutyna, ponieważ dla młodszych generacji te rozwiązania są bardzo intuicyjne. W tej chwili można próbować je uprościć jeszcze bardziej i dostosować istniejącą technologię do tego, co konkretnie potrzebujemy zrobić.

Pani mówi „już”. Ale mówimy o studentach z amerykańskiego MIT? Czy studenci w Koźmińskim są już w stanie zrobić bota?

– Tak, jak najbardziej, wszyscy moi studenci są w stanie z prostego narzędzia zrobić sobie bota. To nie znaczy, że kodują czy programują, ale potrafią skorzystać z programu, który przypomina klocki Lego i umieją z tych gotowych elementów zbudować różne rozwiązania. 

Proszę powiedzieć, w którą stronę pójdą rozwiązania? Czy będzie tak, że jedną ścieżką stanie się sztuczna inteligencja, a drugą tak zwane technologie ubieralne, czyli smartwatche, które się przyjęły, itp. To będą równolegle rozwijające się linie, czy któraś z nich uzyska w najbliższej przyszłości przewagę? 

– Zakładam, że te ścieżki będą połączone. Jeśli mówimy o niedalekiej przyszłości, to przede wszystkim stanie się nią tak zwana sztuczna inteligencja ambientowa.

Co to znaczy?

– To technologia, w której dane pojawiają się w czasie rzeczywistym, pochodzą z bardzo wielu źródeł i są analizowane przez holistyczne wieloagendowe systemy, które je przetwarzają. Żeby mieć odpowiednio dużo danych, potrzebne są tysiące, miliony sensorów rozmieszczonych w różnych punktach miasta, kraju, globu. Tak zaprojektowana sztuczna inteligencja wydaje się najbardziej oczywistym rozwiązaniem, po to żeby była mądrzejsza niż dzisiaj. Dlatego internet rzeczy będzie ogromną pomocą w rozwoju sztucznej inteligencji.

Co pani odpowie osobom ostrzegającym, że AI może nam wymknąć się spod kontroli? Ludzie zwyczajnie boją sią sztucznej inteligencji.

– Widzę w tych narzędziach zarówno źródła szans dla ludzkości, jak i wiele zagrożeń. Każdą technologię da się wykorzystać na różne sposoby. Na przykład młotek – mogę nim uderzyć kogoś w głowę, żeby go zabić, albo wbić nim gwoździe w deski i zbudować dom.

Czy w takim razie obawy przed sztuczną inteligencją można porównać do strachu, jaki kiedyś towarzyszył ludziom, na przykład gdy pojawiły się maszyny parowe?

– Sądzę, że to podobna sprawa. Choć są tacy, którzy mówią, że to raczej przypomina obawy towarzyszące takim technologiom, jak klonowanie lub broń atomowa. Bo sztuczna inteligencja w niewłaściwych rękach może przynieść potencjalnie bardzo negatywne skutki. I pewnie tak jest, już nawet na tym etapie, kiedy AI ani nie jest świadoma, ani nie może się samodzielnie wymknąć spod kontroli.

Trwa upraszcza­nie sztucznej inteligencji tak, żeby interfejs, czyli kanał komunikacji między systemem a użytkownikiem był w miarę przyjazny. Ze sztuczną inteligencją jest trochę tak jak z in­nymi technologami – ludzie nie do końca wiedzą, jak działa samochód czy samolot, ale jednak stale z nich korzystają. I pewnie w taki sam spo­sób, za jakiś czas, będą mogli zbudo­wać swojego domowego asystenta. Właściwie to mogą zrobić to już w tej chwili.

W jaki sposób może nam zagrozić?

– Może być niebezpiecznym narzędziem w rękach dyktatorów, despotów, którzy wykorzystają ją, aby na przykład dyscyplinować swoje społeczeństwa. To właściwie, niestety, już się dzieje.

I to zatrzyma prace nad sztuczną inteligencją?

– Nie sądzę, żeby rozwój sztucznej inteligencji miał się zatrzymać. Dlatego najlepiej się zaangażować w to, żeby ona była maksymalnie dobra i bezpieczna dla ludzi.

Jak można to osiągnąć?

Wierzę w decentralizację, bo jeśli odpowiednio dużo ludzi będzie umiało „bawić” się w sztuczną inteligencję, to wtedy będziemy bezpieczniejsi, niż gdyby AI była domeną tylko bardzo wąskiej grupy naukowców czy też zamkniętych ośrodków akademickich, w których tylko i wyłącznie będzie się budować albo tworzyć kompetencje sztucznej inteligencji. 

Jak najwięcej ludzi powinno mieć kompetencje cyfrowe na bardzo wysokim poziomie, bo to nas wszystkich nawzajem zabezpiecza. To jest praktyczne podejście do tego lęku przed AI, który wszystkim towarzyszy.

A może powinniśmy w tym momencie powiedzieć: STOP, zatrzymać prace nad AI i nakreślić pewne normy moralne? Nie myślę o powstrzymaniu dyktatorów, ale problemem są choćby samochody czwartej generacji, które przejeżdżają pieszego na tak zwanych zebrach. I właściwie nie wiadomo, kto jest winny w takiej sytuacji: producent, ten co zaprogramował, czy może kupujący takie auto?

– Rzeczywiście nie mam rozwiązań dla tego problemu, choć uważam, że on jest bardzo istotny. Niestety troszkę przespaliśmy kwestie norm etycznych przy stosowaniu sztucznej inteligencji. Nie wiem, czy warto mówić o zatrzymaniu prac, ale na pewno trzeba zastanowić się nad małym krokiem w tył. Trzeba uczciwie powiedzieć sobie, że mamy pewne problemy ze sztuczną inteligencją, na przykład kwestię wyjaśnialności.

Co to znaczy?

– Po prostu nie wiemy, skąd algorytm wykluwa taką a nie inną decyzję w danej sprawie I teraz możemy tylko albo zaufać ślepo, albo odrzucić ją. W takiej sytuacji, kiedy mamy do czynienia z wrażliwą sferą, na przykład diagnostyką medyczną czy sferą prawną – rozwiązania z wykorzystaniem sztucznej inteligencji nie powinny być wdrażane, póki ta kwestia nie będzie rozwiązana na tyle, żebyśmy czuli się bezpiecznie, to znaczy, żeby algorytm wydał decyzję, którą przynajmniej do pewnego stopnia rozumiemy.

Teraz jest taki moment, kiedy wszyscy stateholderzy: firmy technologiczne, państwa i społeczeństwo muszą się zaangażować w dyskusję nad AI. Jestem zmartwiona tym, że nasi politycy tak rzadko poruszają kwestię sztucznej inteligencji. Wydaje mi się, że to jest niepokojące, biorąc pod uwagę szybki rozwój tej dziedziny. Sztuczna inteligencja musi znaleźć się na czele priorytetowych tematów.

Udostępnij artykuł: