Dbałość o przyszłość jest cnotą. To dzięki niej zaczęliśmy poprawiać jakość życia na Ziemi. Odkładanie gratyfikacji jest fundamentem rozwoju. Młody człowiek rezygnuje z zabawy, by przyłożyć się do nauki, dzięki czemu w przyszłości – być może – będzie mógł czerpać korzyści ze swego wykształcenia. Społeczeństwo, zamiast trwonić na bieżąco swoje zasoby, decyduje się na inwestycje finansowane ze wspólnej kasy. Orientowanie się ku przyszłości ma na celu osiągnięcie większego dobra za jakiś czas, kosztem pewnych wyrzeczeń teraz.
Każda idea, nawet najpiękniejsza, może jednak zostać wykoślawiona. Człowiek jest tak pomysłowy, a zarazem niezbyt mądry, że nawet z dbałości o przyszłość może stworzyć ideologię groźną dla niego samego. Historia ma dla nas w zanadrzu niemałą liczbę przykładów tego typu. Znajdziemy je także w teraźniejszości. Jednym z nich jest filozofia tak zwanego longtermismu.
Nieistniejące jeszcze miliardy
Longtermism (ang. długoterminowość) to koncepcja filozoficzna, która ostatnimi czasy robi zawrotną karierę na anglojęzycznych uniwersytetach i wśród anglosaskiej elity biznesowej. Bywa nazywana „najbardziej wpływową filozofią, o której istnieniu nie macie pojęcia”. Faktycznie, zaczyna ona oddziaływać coraz silniej na rzeczywistość, chociaż większość ludzi nigdy o niej nie słyszała. Jej czołowych teoretyków znajdziemy między innymi na Uniwersytecie w Oksfordzie. Jednym z nich jest profesor filozofii William MacAskill. W tekście Czym jest longtermism na łamach „BBC Future” streścił podstawy wyznawanej i promowanej przez siebie doktryny.
MacAskill na wstępie zwraca uwagę, że najprawdopodobniej zdecydowana większość ludzi wciąż się jeszcze nie urodziła. Według szacunków dotychczas na Ziemi żyło ok. 118 miliardów ludzi, jednak w dalekiej przyszłości ta skumulowana liczba wzrośnie może nawet tysiąc razy. Tymczasem o interesach tej milczącej, bo nieistniejącej jeszcze, większości mało kto mówi i równie niewielu ich broni. Odpowiedzialność nakazuje, by jak najszybciej zacząć dbać o przyszłość naszego gatunku, także tę bardzo odległą.Fundamentem tych działań powinno być zmniejszenie ryzyka wyginięcia człowieka. W ostatnich latach przekonaliśmy się, że ryzyko egzystencjalne wcale nie jest tylko teoretyczne. Przyszłe pandemie mogą być znacznie gorsze niż COVID-19, gdyż wciąż ingerujemy w naturalne siedliska innych gatunków, co może sprzyjać powstawaniu nowych patogenów. Należy więc podejmować kroki, by na bieżąco monitorować powstawanie nowych chorób, chociażby poprzez śledzenie zawartości ścieków, ale też pracować nad tanimi szczepionkami oraz innymi rozwiązaniami chroniącymi nas przed chorobami – na przykład sterylizującym światłem UVC.
Trzeba też na bieżąco monitorować efekty postępu. MacAskill całkiem słusznie przypomina, że człowiek niejednokrotnie zaprowadził samego siebie w ślepą uliczkę. „W XX wieku reżimy totalitarne wyłoniły się z demokracji, a jeśli historia się powtórzy, wolność i równość, które zdobyliśmy w ciągu ostatniego stulecia, mogą zostać zaprzepaszczone” – pisze MacAskill. Obecnie największym źródłem ryzyka jest sztuczna inteligencja, która może nam pomóc rozwiązywać przeróżne problemy, ale nieprawidłowo skonstruowana równie dobrze może zamienić Ziemię w więzienie.
MacAskill zaznacza, że orientacja na przyszłe pokolenia nie oznacza zaniedbywania żyjących. Po prostu należy inaczej postawić akcenty. Obecnie dbałość o przyszłą egzystencję człowieka jest traktowana po macoszemu. Budżet organizacji chroniącej przed rozprzestrzenianiem broni biologicznej jest niższy od budżetu restauracji McDonald’s.
A przecież wysiłki na rzecz przyszłych warunków życia mogą poprawić także te obecne. Czego przykładem walka ze zmianami klimatu, która przy okazji często poprawia jakość powietrza.
Lepiej zadbać o bogatych
Po lekturze tekstu MacAskilla można dojść do wniosku, że filozofia longtermismu nie jest szczególnie groźna. Jednak MacAskill sprawnie pominął niektóre kontrowersyjne poglądy swojego nurtu. Przedstawił je za to były longtermista Emille Torres z Uniwersytetu Leibniza w Hanowerze w tekście Przeciw longtermismowi na łamach pisma „Aeon”.
Torres wskazuje, że longtermism zakłada przede wszystkim dbałość o długookresowy potencjał ludzkości, traktując ją niczym kolektywną jednostkę. W ten sposób traci z oczu faktycznie istniejące osoby ludzkie i bagatelizuje obecne zagrożenia, które na niego czyhają. Teoretyk longtermismu Szwed Nick Bostrom nazywa je wręcz „małym wypadkiem w historii ludzkości”. Wedle tego stanowiska ryzyka egzystencjalne, które nie grożą potencjałowi naszego gatunku, są niewarte większej uwagi. Torres daje przykład małych narodów wyspiarskich, które tracą obecnie przestrzeń do życia z powodu wzrostu poziomu mórz. One i tak zwykle są mało innowacyjne i nisko zaawansowane technologicznie, więc ich zniknięcie teoretycznie nie osłabi potencjału ludzkości. Warto zauważyć, że longtermiści często bagatelizują kwestię zmian klimatu. Zdecydowanie ważniejsze są dla nich tematy transhumanizmu, sztucznej inteligencji czy podboju kosmosu. Według nich dopiero one rozszerzą możliwości człowieka.
Longtermiści są też radykalnymi utylitarystami, czyli stawiają na piedestał ogólną maksymalizację dobra (czy też użyteczności), bez oglądania się na to, jak to dobro jest rozłożone. To prowadzi ich do bardzo kontrowersyjnych wniosków. Na przykład takich, że lepiej jest pomagać rozwiniętym obszarom świata, a nie tym najbiedniejszym, ponieważ te pierwsze mają większy potencjał prorozwojowy. Postęp technologiczny w Afryce zapewne nie przybliży nas do wysłania kolonii na Marsa, za to postęp w Kalifornii owszem.
Tacy filozofowie jak Bostrom czy MacAskill nie są zaintereswani biedą, ale raczej wysiłkami na rzecz przekraczania możliwości człowieka. Chodzi na przykład o nabycie umiejętności znanych niektórym zwierzętom. Gdyby posiadała je tak inteligentna istota jak człowiek, mogłaby z nich zrobić lepszy użytek. Chodzi więc o stworzenie, jak pisze Torres, „nowej rasy mądrych i odpowiedzialnych postludzi” – co jest nie tylko nieprawdopodobne, ale też bardzo ryzykowne. „To wygląda jak przepis na katastrofę” – konkluduje autor krytyki longtermismu.
Cel uświęcający środki
Gdyby chodziło tylko o zabawy intelektualne grupki profesorów z dobrych uniwersytetów, to byłoby pół biedy. Problem w tym, że ideologię tę wyznają bardzo wpływowe i majętne osoby, które mają możliwości, by realizować swoją różnie pojmowaną misję. Longtermism wywodzi się wprost z koncepcji „efektywnego altruizmu”. Jej przedstawiciele promują gromadzenie bogactwa, by następnie wykorzystać je w najbardziej użyteczny dla ludzkości sposób. Niestety, dopuszczają przy tym działanie na zasadzie „cel uświęca środki”. Zwolennikiem „efektywnego altruizmu” jest np. Sam Bankman-Fried, założyciel giełdy kryptowalut FTX, która okazała się piramidą finansową. Bankman-Fried został już zatrzymany na Bahamach, gdzie się ukrywał.
Longtermism jest też kojarzony z gwiazdami sektora tak zwanych big-techów – Elonem Muskiem (właściciel m.in. Tesli) oraz twórcą Facebooka Markiem Zuckerbergiem. Musk już próbuje podbijać kosmos za pomocą swojej spółki SpaceX. Przekonany o własnej nieomylności rozpoczął też masowe zwolnienia w przejętym portalu społecznościowym Twitter, w wyniku czego zapanował tam zupełny chaos. Zuckerberg natomiast zamierza przenieść całą aktywność ludzi w internecie do tworzonej właśnie wirtualnej przestrzeni zwanej Metaverse. Niestety, jak na razie utopił w niej bez większych efektów miliardy dolarów, w wyniku czego będzie musiał zwolnić ze swojej spółki 13 proc. załogi, czyli ponad 10 tys. osób.
Owładnięci poczuciem misji longtermiści mogą więc lekką ręką wysyłać tysiące ludzi na bezrobocie lub oszukiwać na miliardy dolarów, byle tylko zbliżyć się do swoich „kosmicznych” celów. Być może dzięki temu sami poczują się nieco lepiej, jednak ludzkości w ten sposób na pewno się nie przysłużą.