Jak żyć z SI, czyli „postmoralny” świat sztucznej inteligencji

Wyobraźmy sobie świat za pół wieku. Wciąż działają współczesne instytucje życia publicznego, takie jak szkoły i parlamenty. Co się w nich będzie działo? Czy uczniowie będą zmuszani do pisania wypracowań bez pomocy sztucznej inteligenci, choć wszyscy będą pewni, że z zasady będą to wypracowania gorsze i że nikt po ukończeniu szkoły nie będzie się bawił w samodzielne pisanie? Może tak, a może nie. Jeśli tak, to w każdym razie na podobnej zasadzie, jak działała szkoła, gdy sam do niej chodziłem. Kazano nam pisać pismem kaligraficznym, za pomocą pióra maczanego w kałamarzu, i zakazywano używania długopisów. Był to długi ukłon w stronę przeszłości, lecz i tak było jasne, że wkrótce wszyscy się wyprostujemy i chwycimy za długopisy.

Podobnie może być w parlamencie. Dlaczego mieliby swoje debaty toczyć „cieleśni” posłowie, a nie aplikacje, do których będą przywiązani i z którymi będą się identyfikować? Przemówienia wirtualnych asystentów polityków z pewnością będą mądrzejsze, bardziej racjonalne, wiarygodne i przekonujące niż ludzkie popisy retoryczne. W dodatku sama dyskusja będzie jedynie rytuałem, skoro dowolna aplikacja językowa będzie mogła w ułamku sekundy wygenerować cały scenariusz debaty politycznej, czyli wszystkie przemówienia, a następnie przedstawić płynące z nich wnioski.

Czy wobec takiej sytuacji kogoś będzie jeszcze obchodzić debata publiczna? Pewnie nie. Stanie się ona zabawą i zgrywą, a w najlepszym wypadku hobby, podobnym do kaligrafii. Liczyć się będzie po prostu arbitralna wola tego, kto zdolny będzie swoją wolę wyegzekwować. Czy będzie to człowiek, czy inna, postludzka istota? A czy to w ogóle ma znaczenie z punktu widzenia tych, którzy będą zmuszeni podporządkować się decyzjom władzy?

Tego rodzaju pytania można było stawiać już dawno, lecz dopiero dziś są to kwestie całkiem realne, a nie jakieś futurologiczne dywagacje. Od dawna zapowiadała się zmiana cywilizacyjna, która wprawdzie jeszcze nie nadeszła, lecz jest nieuchronna, tak jak nieuchronne są skutki globalnego ocieplenia. Dla życia moralnego, zwłaszcza w sferze publicznej, masowe stosowanie sztucznej inteligencji może oznaczać coś więcej niż rewolucję – może oznaczać zmianę na poziomie samej istoty moralności i moralnej podmiotowości.

Problemy moralne życia publicznego mają swoją genealogię i swoją dynamikę. Niektóre są stare jak świat, chociaż dopiero epoka nowoczesna albo wręcz dopiero nasze czasy widzą je w taki sposób, czyli właśnie jako kwestię moralną. Tak jest na przykład w przypadku etyki wojny. Powoli, począwszy od protestów przeciwko prowadzeniu przez armię USA wojny w Wietnamie, zaczynamy się skłaniać ku generalnemu potępieniu wojny jako zła obciążającego winą moralną – choć w różnym stopniu – wszystkich „aktorów politycznych”, którym nie udało się jej zapobiec, i tych, którzy ją prowadzą. Daleko jeszcze do powszechnej delegitymizacji wojny obronnej, lecz z biegiem czasu bardziej niż to, „kto zaczął”, zaczyna się dla nas liczyć to, kto jest w danej wojnie stroną silniejszą i kto odpowiada za większą liczbę ofiar.

To samo można powiedzieć o skrajnych nierównościach społecznych, które zaczęto postrzegać jako niemoralne dopiero w epoce oświecenia, a w większej skali – dopiero począwszy od XIX w. Są jednakże i takie kwestie, które rozpoznano niemal natychmiast, gdy zaistniały, aczkolwiek zaistniały niedawno. W szczególny sposób dotyczy to konsekwencji pojawienia się nowych technologii, których można używać w sposób krzywdzący dla ludzi albo udostępniać je potrzebującym w sposób niesprawiedliwy.

Użycie broni masowego rażenia uważane jest powszechnie za działanie, które nigdy bądź prawie nigdy nie może być usprawiedliwione. Jednakże pełni ona swoją funkcję odstraszania właśnie dzięki temu „prawie”, czyli ewentualności jej użycia jako środka odwetu. Nie zmienia to faktu, że światowy system zapobiegania użyciu broni nuklearnej oraz zakazanych środków masowego rażenia, na czele z bronią biologiczną, powstał w oparciu o silne pobudki moralne – poczucie odpowiedzialności i moralną niezgodę na masowe cierpienia ofiar ataku nuklearnego.

Oczywiście, przerażenie, jakie ogarnia nas na myśl o konflikcie nuklearnym, psychologicznie biorąc, jest pobudką jeszcze silniejszą niż moralna niezgoda na użycie takiej broni, lecz przerażenie złem i moralny imperatyw odrzucenia tego zła są w takich przypadkach jak najściślej złączone. Trudno wręcz odróżnić jedno od drugiego.

Natomiast inny przykład nowej technologii, której stosowanie wymaga refleksji moralnej, nie kojarzy się z tak silnymi emocjami, przynajmniej dopóty, dopóki nie jest się bezpośrednio zainteresowanym dostępem do niej. Jest to bowiem technologia niosąca dobro – ratująca życie. Mam na myśli wynalazek aparatury do dializoterapii. Niezgoda moralna na niesprawiedliwość w udostępnianiu tej aparatury potrzebującym (zdecydowane faworyzowanie białych obywateli USA) stała się jedną z najważniejszych pobudek dla rozwoju procedur sprawiedliwego i transparentnego racjonowania deficytowych świadczeń medycznych i całej bioetyki.

Powstanie bioetyki, czyli etyki biomedycznej, w odpowiedzi na technologiczny rozwój medycyny to rzadki przykład moralnej mobilizacji na poziomie instytucjonalnym i społecznym. Dziś każda regulacja prawna i organizacyjna w medycynie jest starannie konsultowana z doradczymi ciałami bioetycznymi, które w wielu przypadkach takie regulacje wręcz inicjują i proponują ich kształt. Dzięki temu poziom bezpieczeństwa moralnego, czyli zabezpieczenia (głównie) pacjentów przed krzywdą moralną, taką jak niesprawiedliwe traktowanie bądź brak respektu dla ich autonomii, wydatnie się zwiększył w porównaniu z epoką, którą nazywamy paternalistyczną, gdyż los pacjentów zależał wówczas głównie od „ojcowskich” cnót lekarzy, a tylko w niewielkim stopniu od nich samych i dobrze ustalonych reguł podejmowania decyzji w trudnych i konfliktowych sytuacjach.

Dziś jednak rozwój technologii stawia nas przed wyzwaniem jeszcze potężniejszym niż wynalazki medyczne, a jakże daleko nam jeszcze po powstania globalnej sieci instytucji kontrolujących ich użytkowanie, podobnej do sieci instytucji i gremiów bioetycznych. Tym wyzwaniem jest burzliwy rozwój oprogramowania znanego pod zbiorczą nazwą Sztuczna Inteligencja (SI).

Społeczne i cywilizacyjne konsekwencje SI są obecnie jednym z najżywiej dyskutowanych tematów. Nie można też powiedzieć, że problemu nie dostrzegają rządy i organizacje międzynarodowe. Co więcej, w trybie futurystycznych spekulacji zagadnienie SI jest rozważane przez filozofów co najmniej od lat 80 XX w., natomiast współczesne bibliografie na ten temat zawierają tysiące pozycji. Mimo to postęp refleksji i regulacji zdecydowanie nie nadąża za rozwojem nowych aplikacji, które zadziwiają nas, a nawet szokują swoimi możliwościami, sprawiając, że niemal co miesiąc przeżywamy to samo: zachwyt połączony z niedowierzaniem i lękiem, gdy oglądamy nowe osiągnięcia w tym zakresie. A przecież najczęściej mamy do czynienia z wynalazkami udostępnianymi na wolnym rynku, podczas gdy zaawansowane oprogramowanie, używane przez naukowców, wojsko czy służby policyjne, z pewnością ma możliwości znacznie większe.

Paradoksalnie mamy dziś całkiem dobre prognozy odnośnie do poszczególnych zastosowań SI oraz dość szczegółowe rekomendacje odnośnie do tego, jak SI się posługiwać i jak zapobiegać jej nieetycznym zastosowaniom, lecz wciąż są to dokumenty „bezzębne”. Bardzo daleko nam do tego, aby wpłynąć na rzeczywistość komunikacji czy globalny rynek pracy w taki sposób, jak bioetyka wpłynęła na realia lecznictwa i eksperymentów medycznych z udziałem ludzi.

Z etycznego punktu widzenia najbardziej dojmującym problemem, gdy chodzi o SI, jest groźba marginalizacji i degradacji społeczno-zawodowej znacznej części ludzkości. Ogromna rzesza ludzi wykonujących różnego rodzaju prace umysłowe może stracić zatrudnienie, bo ich pracę przejmą komputery, tak jak niegdyś pracę fizyczną zastąpiły automaty. Trzeba powiedzieć, że burzliwy i niewolny od dramatycznych niesprawiedliwości proces industrializacji i mechanizacji produkcji w ostatecznym rozrachunku przyniósł ludzkości ogromne korzyści, wyzwalając ją w znacznym stopniu od nisko opłacanego i ogłupiającego znoju. Nie daje to jednakże żadnej gwarancji, że podobnie będzie z pracami umysłowymi.

W dalszej perspektywie prawdopodobnie znajdziemy się też w sytuacji, w której przestrzeń moralna, czyli społeczność inteligentnych istot powiązanych ze sobą więzami moralnych zobowiązań, poszerzy się o różnego rodzaju byty pozaludzkie – maszynowe, organiczne bądź hybrydowe. Co więcej, niektóre tego rodzaju byty nie będą miały podmiotowości umocowanej w jakimś pojedynczym obiekcie fizycznym, takim jak ciało ludzkie (czy zwierzęce) albo maszyna, lecz podmiotowość rozproszoną, sieciową, a nawet tylko umową, postulowaną.

Dla relacji moralnych będzie to wyzwanie ogromne, skoro cała nasza wrażliwość moralna, a w konsekwencji nasze przekonania i koncepty etyczne dopasowane są do wzorcowej sytuacji, gdy dwie osoby (lub więcej), będące po prostu śmiertelnikami osadzonymi w swoich ciałach, wchodzą w różnego rodzaju związki i na siebie poprzez swoje czyny oddziałują. Dodatkowo poszerzenie naszej wyobraźni moralnej, a przez to i poszerzenie pola moralnej odpowiedzialności utrudnia bardzo silne przywiązanie do myśli, że moralna odpowiedzialność sprzężona jest z aktami świadomości i że tylko świadome, a przynajmniej świadome swych przeżyć zmysłowych i emocji istoty mogą być podmiotami moralnymi odpowiadającymi za swoje czyny oraz wywołującymi w innych istotach moralne zobowiązania.

Nie idzie za tym żadne pogłębione rozumienie, czym właściwie jest takie „świadome działanie” i czym jest realne sprawstwo i wolne działanie rozumnego podmiotu, lecz mimo to dogmat trzyma się dobrze. A jego nową odmianą jest przekonanie, że maszyna nie może i nigdy nie będzie mogła być świadoma, nawet jeśli tak się będzie zachowywać i takie sprawiać wrażenie. Podkreślanie tego brzmi jak aprioryczna asekuracyjna kontestacja ewentualnego przypisania moralnej podmiotowości i praw istotom wirtualnym.

Niestety, zupełnie niezależnie od wyników filozoficznej debaty nad ewentualnością uzyskania przez SI czegoś w rodzaju czucia i świadomości jest oczywiste, że do uznania w drugiej istocie jej podmiotowości moralnej, zwanej godnością, nie trzeba rozstrzygać wprzódy żadnej kwestii ontologicznej, jako że dokonuje się to spontanicznie. I jeśli w przyszłości niektórzy z nas będą się powstrzymywać od okazywania szacunku pozaludzkim istotom zachowującym się inteligentnie na podstawie dogmatycznego przekonania, że istoty te nic nie czują i niczego nie myślą, to będzie to motywowana ideologicznie przemoc, podobna do tej, na którą niegdyś dawali sobie przyzwolenie konkwistadorzy, odmawiając uznania w „Indianach” ludzi. Co do zasady bowiem, jeśli nie jesteśmy uprzedzeni, uważamy każdą istotę, która z nami rozmawia, za inteligentną i posiadającą godność osobę. Nie znamy świata, nie znamy kultury ani społeczności, w której to nie zachodzi i w której odstępstwa od tej zasady nie są związane z przemocą i niesprawiedliwością.

W ogólności dramatycznie przeceniamy metafizyczną problematykę podmiotowości maszyn i SI. Prawie nikt nie jest wystarczająco kompetentny, żeby choćby pobieżnie zrelacjonować dokonania ludzkości w zakresie filozoficznej problematyki uznawania podmiotowości „drugiego ja”, a fakt ten nie ma dosłownie żadnego znaczenia praktycznego. Jeśli ludzie się krzywdzą, to nie dlatego, że nie poznali przekonujących rozwiązań problemu postawionego na początku XVII w. przez Kartezjusza i nie mają dowodów na to, że inni są czującymi i myślącymi istotami. Podmiotowość drugiego ja po prostu się w nim uznaje. Warto przypomnieć prorocze niejako słowa Kartezjusza z „Medytacji o filozofii pierwszej” (tłum. własne):

„Gdybym oto przypadkiem ujrzał za oknem ludzi idących ulicą, a widząc to powiadam, że widzę ludzi (…), to przecież cóż innego byłbym widział niż kapelusze i płaszcze, które mogłyby okrywać sztuczne roboty, poruszające się dzięki mechanizmowi? A jednak sądzę, że są to ludzie, a znaczy to, że rozumiem, dzięki samej tylko zdolności pojmowania, która tkwi w mojej duszy, to, co – jak mi się wydawało – widziałem za pomocą oczu”.

Bez względu na to, czy będziemy mieli do czynienia z udoskonalonymi „transludźmi”, „cyborgami”, „postludźmi”, czy wręcz istotami żyjącymi jedynie życiem cyfrowym, będziemy stawiani przed wyzwaniem i wezwaniem, aby uznać ich podmiotowość i godność, niezależnie od tego, jak bardzo są czy nie są ludźmi. Na poziomie fundamentalnej zmiany stosunków społecznych, jaką przynieść może wszechobecność SI i jej najrozmaitsze aktywności, istotne jest coś zupełnie innego niż Wielki Dylemat: myśli czy nie myśli? Czeka nas bowiem dewaluacja, czyli obniżenie rangi czegoś, co w naszej epoce, pionierskiej epoce informatyzacji, ma wciąż znaczenie podstawowe: o rozróżnienie tego, co fizyczne, i tego, co nie całkiem fizyczne, czyli luźno bądź tylko pośrednio związane z konkretnym makroskopowym obiektem fizycznym.

Na tej ontologicznej intuicji opiera się wciąż aktualny podział na „świat realny” i „rzeczywistość wirtualną”. Nadal ma dla nas znaczenie, czy coś dzieje się „w czasie realnym”, jest nagraniem czy kreacją SI, zostało powiedziane przez konkretnego człowieka czy wygenerowane przez „awatara”. Wciąż nie jest dla nas bez znaczenia, czy słuchamy utworu napisanego przez kompozytora, czy może wygenerowanego przez maszynę. Tym bardziej istotne jest dla nas, czy komunikujemy się z kimś wciąż żyjącym i mającym ciało, z czyimś umysłem „pobranym na komputer”, czy też może uczestniczymy w pozorowanej komunikacji z programem przystosowanym do pośmiertnego komunikowania się „w stylu” osoby już nieżyjącej bądź rozmawiamy z wirtualnie „unieśmiertelnionym” i odcieleśnionym człowiekiem.

Łatwo tu ulec konserwatywnemu złudzeniu, bo wszystkie tego rodzaju rzeczy, jak „zeskanowane mózgi”, „pośmiertne awatary” i „wirtualni twórcy”, są dziś bytami na krawędzi rzeczywistości i futurologicznej fantastyki. Ich status jest przez to podwójnie widmowy, co tym bardziej osłabia naszą zdolność traktowania ich poważnie. Tymczasem mówimy o realnych możliwościach SI, a gdy chodzi o przełamywanie bariery mózg-komputer, to choć do „skanowania” daleko, technologia odczytywania fonetyzowanych myśli (tzw. mowy wewnętrznej) już działa i wspiera osoby sparaliżowane, niezdolne do mówienia. Najwyższy czas zastanowić się nad światem, w którym muzyka i literatura tworzone będą maszynowo, choćby i na zamówienie i wedle preferencji odbiorcy, cielesna obecność drugiego człowieka nie będzie silnym i dominującym wzorcem komunikacji, a mit niepodrabialnego „ludzkiego geniuszu” oraz „autentycznych emocji” będzie zabytkiem kulturowym, o którego znaczenie będzie można zapytać „model językowy”.

Nas interesuje jednakże tylko etyczna strona tego zagadnienia. Czy ten świat w ogóle będzie jeszcze rozpoznawać dobro i zło w sensie moralnym? Czy będzie w nim jeszcze honor, wspaniałomyślność i dobroć, a choćby tylko obowiązkowość i uczciwość?

Zapewne o ludzkie cnoty możemy być spokojni, bo nigdy przecież nie brakowało dobrych ludzi i niezliczonych aktów dobroci, dzięki którym udało nam się przetrwać. Świat postludzki i wyemancypowany od presji fizycznej realności, świat, w którym inteligencja bynajmniej nie będzie monopolistycznym przywilejem żyjących tu i teraz osób, wyposażonych w biologiczne ciała, a zwłaszcza mózgi, będzie zupełnie nową i odmienną od znanej nam dzisiaj przestrzenią moralną. Komfort emocjonalny, godność, bezpieczeństwo, zaufanie i przyjemności, a więc to wszystko, co jest stawką stosunków moralnych i co w życiu społecznym podlega szczególnej ochronie, może stracić na znaczeniu lub zmienić znaczenie.

Wyobraźmy sobie życie publiczne, którego aktorzy dzielą się na kilka wielkich grup: ludzie korzystający z algorytmów i urządzeń, lecz niezintegrowani z nimi, ludzie, których ciała (mózgi) stale połączone są z siecią i korzystają z algorytmów bez pośrednictwa zewnętrznych urządzeń, inteligentne podmioty cyfrowe wcielone w dające się zidentyfikować fizyczne struktury, takie jak ciała biologiczne, roboty, inteligentne budynki itp., oraz inteligentne podmioty rozproszone, bez wyraźnie ukonstytuowanej cielesności i chwiejnej tożsamości. Czym mogą być moralne zobowiązania między tak różnymi od siebie istotami, mającymi odmienne i być może całkiem niewspółmierne interesy oraz cele? Nie wiemy tego.

Nie wiemy nawet, czy różne od nas podmioty/istoty będą tak jak my dążyć do maksymalnego przedłużania swego życia, bać się śmierci, odróżniać tak dobrze jak my rzeczy przyjemne od nieprzyjemnych i rozpoznawać swoje interesy. Być może wręcz nie będą miały tak sprecyzowanych interesów i pragnień, aby w ogóle interesować się rozróżnieniami, na których ufundowana jest moralność, takimi jak działanie egoistyczne i altruistyczne, wypełnianie obowiązków pomimo przeszkód i uciążliwości versus działanie ad hoc, niezwiązane przez umowy i zobowiązania albo pomaganie innym versus krzywdzenie innych.

Boimy się, i słusznie, że w epoce, u progu której dziś się znaleźliśmy, staniemy się mało ważni, a nawet niepotrzebni. My, czyli istoty należące do pierwszej z wymienionych kategorii. Całkiem możliwe, że już za kilka dekad rozpocznie się nasz masowy żywot w cieniu wirtualnej oraz robotycznej elity. Czy będziemy toczyć z nią walkę o godność, o emancypację, a może o supremację, taką, jakiej socjaliści żądali dla proletariatu w jego stosunkach z dawnymi klasami wyższymi? A może będziemy ubiegać się o to, aby doskonalsze, postludzkie istoty dbały o „analogowych” ludzi w podobny sposób, w jaki my troszczymy się o najstarszych i najsłabszych spośród nas? A może tylko w podobny sposób, w jaki my troszczymy się o nasze zwierzęta domowe?

Nie da się tego przewidzieć, jakkolwiek jedno wydaje się pewne: moralność świata postludzkiego, czyli, chcąc nie chcąc, również zdehumanizowanego, będzie radykalnie odmienna od znanej nam moralności (prywatnej i publicznej). Przebudowie ulegnie zapewne cała sfera normatywna, a więc nie tylko moralność, lecz również obyczaje i prawo. Będzie to inne życie, w którym zapewne jednostkowe trwanie i dobrostan myślącego i czującego ciała/osoby ani nawet kolektywu takich ciał/osób nie będzie już dobrem fundamentalnym i ostatecznym, któremu wszystko w życiu społecznym i instytucjonalnym powinno służyć. Być może będzie to w jakimś sensie społeczeństwo faszystowskie, ale i ta analogia może być daleka i złudna. A jeśli z tego powodu nazwiemy je „postfaszystowskim”, to i tak niczego więcej się przez to nie dowiemy. W każdym razie to już nie będzie nasz świat. Świat „po moralności”, w którym miary dobra i zła będą inne, a może po prostu mniej istotne dla żyjących w nim istot.