Lepsza od nas

Lepsza od nas

Wywiady

W przyszłości sztuczna inteligencja podejmie decyzje brzemienne w skutki, np. w inwestycjach, w medycynie czy w ruchu ulicznym. Chciałabym, aby działała zgodnie z naszym kodeksem etycznym. Musimy mieć szanse SI ocenić w wymiarze odpowiedzialności, a teraz nie mamy nawet zalążka systemu prawnego, który to uwzględni.

W przyszłości sztuczna inteligencja podejmie decyzje brzemienne w skutki, np. w inwestycjach, w medycynie czy w ruchu ulicznym. Chciałabym, aby działała zgodnie z naszym kodeksem etycznym. Musimy mieć szanse SI ocenić w wymiarze odpowiedzialności, a teraz nie mamy nawet zalążka systemu prawnego, który to uwzględni.

Aleksandra Przegalińska – filozof, etyk, światowej klasy ekspert ds. rozwoju sztucznej inteligencji, zagadnień etyki w relacjach ludzie i maszyny oparte na procesorach, badacz technologii ubieralnych na Massachusetts Institute of Technology (MIT) w USA, wykładowca Akademii Leona Koźmińskiego w Warszawie. W rozmowie z dziennikarzem Pawłem Oksanowiczem.

 Z Aleksandrą Przegalińską rozmawia Paweł Oksanowicz.

 

Co to takiego współdzielona odpowiedzialność?

Koncepcja, która powinna wejść  do systemu prawnego.

Współdzielona przez kogo z kim?

Przez ludzi i inteligentne maszyny.

Po co nam taka odpowiedzialność?

Po co nam odpowiedzialność w ogóle?

Zaszliśmy już tak daleko?

Maszyny pracują szalenie szybko, ludzie szalenie wolno. To jest problem, że prawo nie nadąża i nawet pojawiły się głosy, że system deep learning (pol. proces automatycznego uczenia się inteligentnej maszyny) powinien sam napisać dla siebie regulacje.

To ma sens?

Owszem, gdyby sam deep learning był dla nas w pełni transparentny.

A nie jest?

Zrozumienie sztucznej inteligencji wiąże się z rozwojem neuronauki; ona odpowiada na pytania dotyczące tego, jak przetwarzamy informacje. Ponieważ my sami nie do końca wiemy, jak pracuje nasz mózg, tym bardziej mikromózg sztucznej inteligencji jest dla nas, inżynierów i badaczy, swego rodzaju black box. Dopóki go nie zrozumiemy do końca, nie nakażemy SI samowyregulować się, bo to nie ma sensu.

Czy cię to nie przeraża, że nie można do końca zrozumieć procesów zachodzących w maszynie?

Nie tyle przeraża, ile w pewnym stopniu niepokoi. Jestem jednak przekonana, że niebawem poznamy te procesy znacznie lepiej. Teraz tłumaczę sobie, że przecież tak zawsze przebiegał postęp naukowy i technologiczny. Wobec przełomowych wynalazków ludzkość najpierw stawała trochę bezradnie, stopniowo korygowaliśmy zachowania. Obecnie także nowe warstwy rzeczywistości ujawniają się szybko przed nami, zaczynamy coś widzieć i to nie jest do końca zrozumiałe, stąd niepokój. Zresztą obawa wobec nowych teologii jest też dobrym psychologicznym odruchem, aby trochę opierać się zagrożeniom, które one mogą ze sobą nieść.

Jakie to zagrożenia?

W przyszłości sztuczna inteligencja podejmie decyzje brzemienne w skutki, np. w inwestycjach, w medycynie czy w ruchu ulicznym. Chciałabym, aby działała zgodnie z naszym kodeksem etycznym. Musimy mieć szanse SI ocenić w wymiarze odpowiedzialności, a teraz nie mamy nawet zalążka systemu prawnego, który to uwzględni. Dlatego obecnie jestem zwolenniczką tego, aby robić małe kroki wstecz. Tzn., żeby zamiast masowo skalować rozwiązania deep learning,  najpierw zaproponować regulacje prawne, wyjść z nimi na rynek. Nie zaszkodzi nam odrobina przestoju w tym obszarze, bo skutki bez regulacji mogą być mało korzystne dla wszystkich.

Może lepiej zatrzymać ten proces w ogóle?

Wtedy zablokujemy zarówno dyskusję o odpowiedzialności SI, jak i sztuczną inteligencję w rozwoju. Co może oznaczać, że maszyny wejdą do naszego świata bocznymi drzwiami i będzie niewesoło.

Na jakim etapie tworzenia współdzielonej odpowiedzialności jesteśmy?

W ubiegłym roku w Parlamencie Europejskim debatowaliśmy o elektronicznej osobie, osobliwości. Teraz Komisja Prawna PE – JURI postuluje, aby maszyna SI miała osobowość prawną. Konkretnie czekamy na wypowiedzi ekspertów, chociażby na efekty prac harvardzkiego Berkman Klein Center, gdzie zaczęto największe międzynarodowe badania etyki maszyn. To centrum badawcze jest pierwszym, które zainicjowało debatę na poziomie międzynarodowym na ten temat. W ten sposób Parlament śmiało wyszedł naprzeciw oczekiwaniom.

Czyim?

Nas – użytkowników i przemysłu. Musimy określić, jak powinniśmy traktować autonomiczne maszyny – jako osoby prawne czy rzeczy.

Według ciebie jak?

Niewątpliwie to są narzędzia, nasze rozszerzenie, ale będą rozwijać się do form, jakich wcześniej nie znaliśmy. Najbardziej nośnym przykładem jest autonomiczne auto, wciąż w fazie testów. Natomiast biorąc pod uwagę różne mechanizmy tego auta, ono będzie brało na siebie odpowiedzialność, za co wcześniej odpowiadał człowiek w wymiarze osobistym i prawnym. I tu nie można zatrzymać się na pojmowaniu inteligentnych maszyn jako narzędzi, tylko czegoś więcej. Wtedy odpowiedzialność za ich działanie pozostanie nie tylko po stronie użytkownika, producenta, ale także samej SI. Teraz nawet bardziej obciążałabym odpowiedzialnością właśnie producenta.

Dlaczego?

Chociażby dlatego, że firmy czy instytucje nie są osobami w sensie fizycznym, a biorą odpowiedzialność prawną za swe działania. I na tej podstawie definicję odpowiedzialności inteligentnej maszyny trzeba na pewno rozszerzyć, zwłaszcza że tego ustalenia domagają się wszyscy zainteresowani w kontekście sporów na tle autonomicznych aut.

Biznes chętnie przerzuci odpowiedzialność na innych?

Dlaczego? Biznes chce jasnych reguł gry, my, konsumenci, też, i regulator też.

W takim trójkącie atmosfera bywa napięta.

Rzeczywiście, goni nas czas i jak już zaznaczyłam, mamy tu bardzo dużo niewiadomych i problematycznych kwestii, a trzeba relatywnie szybko działać. Jednak fakt, że podjęliśmy się wysiłku na takim szczeblu, jest dobrym i ważnym sygnałem dla świata. Amerykanie są pierwsi w samych rozwiązaniach technologicznych, Europa śmiało wychodzi naprzeciw oczekiwaniom regulacji.

Dlaczego producenci nie chcą wziąć na siebie pełnej odpowiedzialności za autonomiczne auto?

Bo jest dla nich nie do przewidzenia. Samochód deep learning na drodze wykaże się pewnym zakresem kreatywności w zachowaniu, oczywiście stosując wprowadzone do pamięci reguły ruchu. Ale do tego dojdzie styl jazdy, jakiego nauczył się od właściciela.

I 0 to właśnie chodzi, o styl jazdy właściciela?

Tak, biorąc pod uwagę chociażby to, jak jeździ się w Polsce, to w naszym kraju te samochody nauczą się od nas ryzykownego zachowania. Będą wprost chłonąć od nas, kolektywu, w którym obowiązują nawet bardziej niepisane, niż pisane zasady.

A jeśli rząd zmusi producentów?

To zaprzestaną produkcji, a wtedy zatrzymamy sztucznie postęp i będzie niedobrze. Stąd koncept kolektywnej odpowiedzialności, jeszcze nieokreślony dzisiaj. Na samą maszynę można coś zrzucić, ale w wymiarze prawnym o tyle to nic nie znaczy, że przecież nie stanie przed sądem, nie pójdzie do więzienia, gdy popełni przestępstwo na drodze, czy nawet nie będzie płacić mandatów. Więc w przypadku samochodów, które będą implementowały zachowanie użytkownika, musimy wypracować odpowiedzialność współdzieloną.

(…)

Poruszę jeszcze jeden wątek z popkultury. Czy w przyszłości dojdzie do wojny ludzie – maszyny?

Takie konflikty to totalna fantastyka. Zatrważające obrazki wyjęte z kina. Wynikają z naszych uprzedzeń, z naszego braku poczucia wartości. My nasze słabości przerzucamy na inne byty. Myślę też tutaj o chęci dominacji czy wręcz zabijania w imię chorych celów, idei. To my jesteśmy konfliktogenni. Jeśli coś zaczyna nam dorównywać, to uruchamiamy mechanizmy obronnej agresji. Ja nie sądzę, aby wysoka SI chciała z nami walczyć. Jeżeli naprawdę powstanie taka wyższa inteligencja, to będzie miała wyższe cele. I naprawdę nie będzie chciała zgładzić człowieka, bo takie pobudki będą jej wdawać się bardzo niskie. Będzie lepsza od nas.

 

Fragment stanowi wybór z wywiadu, który w całości ukazał się w książce „Rozmowy o odpowiedzialności”.

 

Podziel się

Facebook / Twitter / LinkedIn

Komentarze
Facebook Twitter LinkedIn