Coraz bardziej oswajamy się ze sztuczną inteligencją, chociaż wciąż nie do końca umiemy stwierdzić, czy bardziej nas ona pociąga, czy też się jej obawiamy. Jak zmienia się nasz stosunek do nowych technologii i czy właściwie diagnozujemy wiążące się z nimi zagrożenia? O relacji człowieka z robotami oraz SI mówi dr Sebastian Szymański – filozof z Uniwersytetu Warszawskiego i gość 6. Śląskiego Festiwalu Nauki KATOWICE.
Kiedy patrzę na popychanego i kopanego przez inżynierów Atlasa, podobnego do człowieka robota Boston Dynamics, współczuję mu, chociaż doskonale wiem, że on nie może odczuwać cierpienia. Okazuje się, że podobne zachowanie jest u ludzi dość powszechne. Co nam to mówi o człowieku?
Jest to zjawisko obecnie intensywnie dyskutowane w literaturze poświęconej relacjom ludzi z maszynami, zwłaszcza tymi, które bardziej przypominają zwierzę lub człowieka. Mamy silną tendencję do antropomorfizacji, więc jeśli coś zachowuje się w sposób podobny do ludzi, to pojawia się nieświadoma tendencja, by przypisywać takiej maszynie ludzkie cechy. Filozof stwierdziłby, że maszyna nie ma żadnych stanów mentalnych – niczego nie odczuwa, nie ma poczucia tożsamości ani nie przejawia emocji i dlatego tak naprawdę nie robimy niczego złego, jeśli traktujemy maszynę w sposób, który byłby brutalny, gdybyśmy traktowali tak czującą istotę. Nie jesteśmy w stanie wyrządzić maszynie żadnej krzywdy, co najwyżej możemy ją uszkodzić. Wielu badaczy natomiast zwraca uwagę na to, że nie należy zupełnie lekceważyć tego rodzaju emocji – tego, że ludzie mają tendencję do uczłowieczania czy „uzwierzęcania” maszyn. Podnoszony jest tutaj argument, zgodnie z którym powinniśmy zwracać uwagę na tego typu zachowania i oceniać je negatywnie, a przynajmniej nie zachęcać do ich podejmowania, bo mogą one np. wzmacniać tendencję do traktowania w ten sposób istot, które rzeczywiście odczuwają – czy to zwierząt, czy innych ludzi.
Kiedy widzimy kogoś znęcającego się nad zwierzętami, możemy założyć, że w stosunku do ludzi również przejawi agresywne zachowania. Czy podobne założenie byłoby uzasadnione, gdybyśmy widzieli kogoś atakującego np. humanoidalnego robota?
To, że ktoś jest skłonny traktować coś podobnego do człowieka w sposób, w jaki byśmy nie chcieli, by traktował ludzi, jest oczywiście istotnym sygnałem – niesie informację o tym, do czego dana osoba jest zdolna. Możemy wskazać tu pewną analogię z podejściem do traktowania zwierząt. Do pewnego momentu traktowano je właśnie jak maszyny. Dopiero od stosunkowo niedawna nasze relacje ze zwierzętami się zmieniły, do czego przyczynił się rozwój wiedzy naukowej. Wiemy więcej o tym, jak postrzegają one rzeczywistość, jak odczuwają i że są zdolne nie tylko do prostych percepcji, ale również do bardziej złożonych stanów mentalnych i mogą cierpieć. Z etycznego punktu widzenia nie jest to obojętne. Istnieje duża grupa zwierząt mających bardzo złożone zdolności poznawcze, porównywalne z naszymi, są one nie tylko w stanie odczuwać proste emocje, ale mają też zdolność rozumowania. Biologia ewolucyjna pokazuje nam, że nawet jeżeli się różnimy, to nie jest to różnica diametralna, ponieważ wywodzimy się od wspólnego przodka, a różnice wynikają z tego, iż nasza trajektoria ewolucyjna potoczyła się tak, a nie inaczej. Mamy tu do czynienia z ciągłością, a nie z nieprzekraczalną przepaścią.
Na przykład św. Tomasz był skłonny postrzegać nasz stosunek do zwierząt w sposób analogiczny do tego, jak niektórzy etycy myślą obecnie o robotach – że jeśli ktoś zadaje im ból, to nie robi nic złego ze względu na samo zwierzę, ale jest to niepokojące, ponieważ może wzmacniać tego rodzaju tendencje w stosunku do innych ludzi. Jednak od Jeremy’ego Benthama, czyli przełomu XVIII i XIX wieku, zaczęto zwracać uwagę na to, czy zwierzę jest zdolne do odczuwania bólu i cierpienia, i właśnie te cechy uznawać za istotne z etycznego punktu widzenia. Współcześnie wielu etyków, którzy zajmują się tym zagadnieniem, jak chociażby Peter Singer lub Tom Regan, twierdzi, że z etycznego punktu widzenia fakt, iż mamy do czynienia z przedstawicielem innego gatunku, nie ma znaczenia. Istotne jest, czy odczuwa ból czy nie.
Coraz częściej zdajemy się na roboty i to nie tylko, gdy chodzi o posprzątanie mieszkania czy włączenie oczyszczacza powietrza. Zwłaszcza w Japonii, z jej starzejącym się społeczeństwem, trwają zaawansowane prace nad maszynami, które pomogą seniorom się umyć czy będą skuteczniej monitorować stan ich zdrowia. W wielu przypadkach roboty zastąpią towarzystwo ludzkich kompanów. Czy wobec tego robot może stać się kiedyś ludzkim przyjacielem, takim samym jak pies lub kot?
Wiele firm pracuje obecnie nad robotami wykorzystywanymi w opiece nad osobami w starszym wieku czy chorującymi na alzheimera. Przykładowo, w domach opieki w Japonii i w Holandii wykorzystuje się robotyczną foczkę Paro i rzeczywiście wydaje się, że wywiera ona pozytywny wpływ na pensjonariuszy. Foczka reaguje, gdy się ją głaszcze – wydaje dźwięki, mruga oczkami itd. Osoba w pełni władz poznawczych wie, że to tylko urządzenia, ale osoby z alzheimerem prawdopodobnie traktują je, jak gdyby były prawdziwymi zwierzątkami. Kontakt z nimi redukuje u chorych stres, osoby te są mniej skłonne do agresywnych zachowań, które mogą być kłopotliwe z punktu widzenia opiekunów, a nawet niebezpieczne dla nich samych. Cały czas jednak toczy się dyskusja, w jakim zakresie wykorzystywanie takich urządzeń jest uzasadnione, bo pojawiają się wątpliwości, czy nie narusza się w ten sposób godności pensjonariuszy. W końcu wzbudzamy u nich fałszywe przekonanie, że zajmują się zwierzęciem, choć w rzeczywistości to tylko maszyna.
Pytanie o zachowanie godności i możliwe przekroczenie granic pojawiło się niedawno, gdy pewien mężczyzna użył programu Midjourney i ChatGPT do „wskrzeszenia” swojej zmarłej babci, z którą chciał się pożegnać. Reakcje na to były dość spolaryzowane.
To jest istotnie trudna i złożona sprawa, bo korzysta się z wizerunku człowieka, który już nie żyje. Zmarły nie ma możliwości wyrażenia własnej woli, chyba że w testamencie zastrzegł, iż sobie czegoś takiego nie życzy. Należy też spojrzeć na to zjawisko pod kątem konsekwencji społecznych. Możemy to postrzegać jako jeden z przykładów szeroko rozumianej dezinformacji, bo prowadzi do wzbudzenia w odbiorcach fałszywych przekonań. Ktoś przecież może być przekonany, że osoba, z którą rozmawia, to prawdziwy, żywy człowiek. Obecnie dysponujemy technologiami pozwalającymi nałożyć komputerowo na twarz wizerunek innego człowieka i odpowiednio zmodyfikować głos, co daje wrażenie obcowania z prawdziwą osobą. Jest to tym bardziej problematyczne, że możemy się spodziewać coraz powszechniejszego wykorzystywania tej technologii do różnych celów. Osobiście jestem zwolennikiem daleko idącego ograniczenia i ścisłego uregulowania takich praktyk, choć zdaję sobie sprawę, że może być to bardzo trudne. Obecnie nie jest żadnym problemem pobranie z internetu odpowiedniego programu do modyfikacji wyglądu i głosu, a korzystanie z niego jest bardzo łatwe nawet dla osoby bez szczególnych kompetencji technicznych. Należy jednak zwrócić uwagę na różnice kulturowe. W Europie panuje dość sceptyczne podejście do wykorzystywania wizerunków nieżyjących albo nieistniejących osób, ale są kraje, w których ta praktyka jest powszechna. Na przykład w Korei Południowej prosperuje cała scena muzyczna z wirtualnymi wykonawcami – organizowane są masowe koncerty, na których występują hologramy wykreowanych komputerowo artystów. W innych krajach widzowie wciąż jednak wolą oglądać prawdziwych aktorów niż cyfrowe awatary.
Niedawno było głośno o przypadku mężczyzny, który popełnił samobójstwo, ponieważ miał zostać do tego nakłoniony przez chatbot SI. Jak ocenić takie zjawisko i kogo należałoby pociągnąć do odpowiedzialności?
Jestem bardzo negatywnie nastawiony do wykorzystywania tego rodzaju programów w celach terapeutycznych. Przede wszystkim dlatego, że funkcja terapeutyczna jest najczęściej przykrywką do zbierania danych. Na przykład w czasie pandemii popularność zyskała aplikacja Replica, którą reklamowano jako program – bot tekstowy – służący do wspierania osób w sytuacjach kryzysowych. Sposób, w jaki konwersował z użytkownikami, wskazuje jednak, że jego celem było pozyskanie o nich jak najwięcej informacji. Co nie powinno dziwić – był to program do pobrania za darmo, a jego producenci musieli w jakiś sposób na nim zarobić.
Jestem przeciwnikiem wykorzystywania takich aplikacji z tego prostego powodu, że choć bardzo dobrze radzą sobie z imitowaniem sensownej rozmowy, to doskonale wiemy, że to tylko imitacja konwersacji. Po drugiej stronie nie ma nikogo, kto mógłby zrozumieć osobę, która potrzebuje wsparcia. Ponadto modele językowe wciąż niezbyt dobrze radzą sobie z rozumieniem kontekstu. Tymczasem w interakcjach terapeutycznych rozumienie kontekstu jest szczególnie istotne. W relacji pacjenta i terapeuty interakcja przebiega w dwie strony, a terapeuta dostosowuje kierunek rozmowy do reakcji pacjenta. Tymczasem, nawet jeśli program jest w stanie zidentyfikować emocje rozmówcy na podstawie tekstu albo zmian barwy głosu lub innych wskazówek, to ani on, ani zazwyczaj jego twórcy nie mają kompetencji, których wymaga się od terapeuty czy psychologa. Terapeuci i psychologowie podlegają ponadto kontroli, a tego rodzaju oprogramowanie – nie.
Ogólnie rzecz biorąc, jestem zwolennikiem takich rozwiązań, które nakładają maksymalnie dużą odpowiedzialność na twórców i operatorów. Przede wszystkim dlatego, że użytkownicy nie są fachowcami i nie muszą wiedzieć, jak naprawdę działa bot. Ze względu na tę dysproporcję wiedzy oraz kompetencji odpowiedzialność powinna być bardzo wyraźnie ulokowana po stronie tych, którzy taką technologię rozwijają.
W ostatnich miesiącach byliśmy świadkami wielu ciekawych rzeczy: gwałtownego rozwoju ChatGPT i pokazu możliwości narzędzi korzystających ze sztucznej inteligencji. Internet jest coraz bardziej zalewany deep fake’ami (choć samo zjawisko istnieje już od paru lat) i coraz trudniej nam odróżnić materiały tworzone przez ludzi od tych, które spłodziła SI. Czy nie jest trochę tak, że nie jesteśmy zbyt dobrze przygotowani na taką rewolucję? Prawo wciąż chyba nie nadąża za tymi zmianami?
Tzw. duże modele językowe, które wykorzystuje się w takich czatach tekstowych, jak GPT, nie są niczym nowym. W laboratoriach badawczych uczelni i firm pracuje się nad nimi od dawna. Teraz mamy jednak do czynienia z sytuacją, w której stały się publicznie dostępne. Każdy może sobie porozmawiać z chatbotem i wymyślić dla niego własne zastosowania. Dyskutuje się o nich szeroko w mediach, nie zawsze rzetelnie – na przykład opisuje się je jako przełomową technologię, coś, czego dotychczas nie było. Tymczasem to nieprawda – jedynie nie wykorzystywano ich na taką skalę w praktyce. Opinia publiczna jest wyraźnie zdezorientowana.
Jeśli chodzi o kwestie regulacji, to problem leży przede wszystkim w braku konsensusu w globalnej skali. A to jest przecież technologia o zasięgu globalnym, rozwijana i wykorzystywana przez światowych gigantów technologicznych. Odpowiedzialnym za ChatGPT OpenAI jest formalnie niezależnym laboratorium badawczym finansowanym ze środków zewnętrznych. Od samego jednak początku jego działalność finansowali wielcy gracze inwestujący w nowe technologie, tacy jak Elon Musk czy Peter Thiel. W tej chwili OpenAI formalnie pozostaje niezależną organizacją, ale gigantyczne pieniądze inwestuje w nią Microsoft. Mamy do czynienia z sytuacją, w której potężne narzędzie jest kontrolowane przez jednego z głównych graczy, z którym mało kto może konkurować, czyli de facto z monopolem, co w ogóle jest charakterystyczne dla rynku sztucznej inteligencji. Tak jak Google jest praktycznie monopolistą w skali globalnej, jeżeli chodzi o wyszukiwarki internetowe (to przecież też jest zastosowanie SI), tak najwyraźniej Microsoft dąży do zajęcia analogicznej pozycji w branży dużych modeli językowych, botów tekstowych czy czatbotów. A globalne korporacje bardzo trudno jest regulować z powodów politycznych i ekonomicznych.
Gdzie wobec tego leży faktyczne zagrożenie? Po stronie SI, która – jak uczy nas science fiction – w końcu zerwie się ze smyczy, czy po stronie ludzi, którzy mogą wykorzystać ją do niecnych celów?
Myślę, że najbardziej powinniśmy się obawiać ludzi i firm, które wykorzystują te najgłupsze systemy sztucznej inteligencji. SI to technologia, która z jednej strony budzi bezpodstawny optymizm, a z drugiej źle ukierunkowane obawy. Wiele osób boi się, że pojawi się tzw. ogólna SI o jakichś nadludzkich zdolnościach. Tymczasem jest bardzo wątpliwe, czy kiedykolwiek będziemy w stanie coś takiego stworzyć. Niepokoić powinny nas przede wszystkim głupie zastosowania SI, jak np. systemy rekomendacyjne, które bardzo wpływają na zachowania ogromnej liczby ludzi – na decyzję o tym, co kupimy, którą drogą pojedziemy, jaki film obejrzymy. Takie systemy pozwalają na zgromadzenie o nas wiedzy, która często przekracza to, co wiemy o nas samych. Analiza preferencji ujawnianych w zachowaniach konsumenckich daje olbrzymią przewagę tym, którzy dysponują odpowiednimi narzędziami do obróbki danych. I w drugą stronę: pozwala na bardzo skuteczne i niedostrzegalne dla użytkowników manipulowanie ich postawami. Może chodzić o decyzje dotyczące zakupu butów, ale też decyzje podejmowane przez wyborców podczas wyborów. Jest to realne zagrożenie, bo już teraz dostrzegamy konsekwencje wykorzystywania takich rozwiązań. To nie przyszłej nadludzkiej sztucznej superinteligencji powinniśmy się obawiać, bo już teraz istnieją znacznie poważniejsze zagrożenia.
Dziękuję za rozmowę.