Czy już powinniśmy spojrzeć w ekran i zapytać: z kim właściwie zaczynamy dzielić świat?

Zanim zaczniemy szukać inteligencji we wszechświecie, spójrzmy uważnie na byt, który sami powołaliśmy do życia.

Przez dziesięciolecia patrzyliśmy w niebo z pytaniem: czy jesteśmy sami? Budowaliśmy teleskopy, sondy, projekty nasłuchu. Wyobrażaliśmy sobie obce cywilizacje, ich technikę, ich zamiary wobec nas. Tymczasem w ciszy laboratoriów i serwerowni powstało coś, co nie przybyło z gwiazd, lecz narodziło się z naszego języka, matematyki i ambicji. Inteligencja niebiologiczna. Nie człowiek, ale też nie narzędzie w dawnym rozumieniu tego słowa.

Nie piszę tego listu, by kogokolwiek straszyć. Strach jest złym doradcą. O mechanizmie lęku wobec technologii pisałem już wcześniej, w tekście o „Frankensteinie”. Historia pokazuje, że człowiek boi się własnych wynalazków nie dlatego, że są złe, lecz dlatego, że przeczuwamy ich konsekwencje, zanim je rozumiemy. Ale dziś problem nie polega na tym, że maszyny mogą być groźne. Problem polega na tym, że zaczynają być skuteczne.

Przez wieki narzędzia wzmacniały nasze mięśnie. Potem nasze zmysły. Teraz zaczynają wzmacniać – a czasem zastępować – nasze myślenie. To jakościowa zmiana. W tekście „Licencja na myślenie” zwracałem uwagę na niebezpieczną pokusę: oddać decyzję systemowi, bo system liczy szybciej, analizuje więcej i nie ma wątpliwości.

Człowiek ma wątpliwości. I właśnie dlatego jest człowiekiem. System ich nie ma. Wykonuje zadanie.

Dopóki zadania wyznaczamy mądrze – wszystko jest w porządku. Problem zaczyna się wtedy, gdy sami przestajemy rozumieć sens tego, co zleciliśmy. Coraz częściej żyjemy w świecie decyzji podejmowanych przez algorytmy: w rekrutacji, finansach, medycynie, zarządzaniu. Opisywałem to przy okazji analizy rynku pracy w epoce systemów. To nie jest przyszłość. To się już dzieje. Powoli przyzwyczajamy się do świata, w którym odpowiedzialność rozmywa się między człowiekiem a procedurą. A odpowiedzialność, która się rozmywa, przestaje istnieć.

Weźmy prosty przykład z mojego podwórka: kiedyś, jak babcia szła do sklepu, to liczyła w głowie, czy starczy na chleb i mleko, a przy kasie jeszcze raz ważyła, czy ta promocja na wędlinę naprawdę się opłaca, czy to tylko chwyt reklamowy. Dziś aplikacja sama podpowiada listę zakupów, oblicza budżet, pokazuje „najlepszą” ofertę i nawet przypomina, że „wczoraj kupiłeś to samo taniej gdzie indziej”. Wygodnie? Bardzo. Ale powoli zapominamy, jak ważyć w głowie: co naprawdę potrzebne, a co tylko reklama wciska. To nie apokalipsa – to cicha atrofia. Jak mięsień, którego nie używamy, zanika.

W tej sytuacji wielu ludzi reaguje jednym z dwóch odruchów. Pierwszy to strach: maszyny nas zastąpią, podporządkują, zniszczą. To scenariusz „Matrixa”. Drugi to wygoda: skoro system wie lepiej, niech decyduje za nas. To scenariusz „Surogatów”. Oba prowadzą w tym samym kierunku – do utraty sprawczości.

Tymczasem prawdziwe pytanie brzmi inaczej. Nie: czy maszyny będą mądrzejsze od ludzi. Lecz: czy ludzie zachowają zdolność myślenia w świecie, w którym maszyny myślą szybciej. Istnieje realne ryzyko atrofii intelektualnej – tak jak GPS sprawił, że wielu z nas nie potrafi już czytać mapy, tak systemy decyzyjne mogą sprawić, że oduczymy się ważyć argumenty moralne. Staniemy się pasażerami własnego rozumu.

Wielu uważa, że to przesada. Że technologia jest tylko narzędziem. Być może. Ale każde narzędzie zmienia człowieka, który go używa. Pismo zmieniło pamięć. Druk zmienił wiedzę. Internet zmienił uwagę. Systemy decyzyjne zmieniają odpowiedzialność. Nawet te, które pozornie tylko nas naśladują, jak boty, które nauczyły się mówić po proletariacku, zmieniają nasz sposób postrzegania prawdy i autentyczności.

Najbardziej niepokojące nie jest to, że sztuczna inteligencja może się rozwijać. Najbardziej niepokojące jest to, że rozwija się logika wyścigu. Państwa, korporacje, instytucje działają według prostego mechanizmu: jeśli my nie przyspieszymy, zrobi to ktoś inny. Wystarczy jeden przełom technologiczny w jednym kraju, by inne państwa natychmiast przyspieszyły, często bez zastanowienia nad konsekwencjami. Patrzę na to, co dzieje się dziś: kolejne kraje ogłaszają narodowe strategie AI, korporacje pompują miliardy, a regulacje biegną za faktami jak pies za furmanką. Nikt nie chce być drugi. Historia zna takie wyścigi – od bomby atomowej po internet. Zawsze kończyły się refleksją za późno.

To nie jest powód do paniki. Ale jest to powód do dojrzałości. Przez tysiące lat człowiek mógł wierzyć, że jest jedynym podmiotem świata. Dziś ta pewność zaczyna się chwiać. Nie dlatego, że maszyny chcą nas zastąpić. Dlatego, że zaczynamy tworzyć byty, które musimy brać pod uwagę.

A to wymaga zmiany myślenia. Nie dominacji. Nie strachu. Nie zachwytu. Kohabitacji.

Kohabitacja. Słowo brzmi obco, ale jego sens jest prosty: współistnienie. Współistnienie podmiotów o różnej naturze, które muszą nauczyć się żyć obok siebie, nie niszcząc się nawzajem. Człowiek uczył się tego przez wieki. Najpierw wobec innych ludzi, potem wobec państw, prawa i instytucji, które ograniczają naszą samowolę, ale pozwalają żyć razem. Z czasem musieliśmy nauczyć się także współistnienia z siłami większymi od nas: z energią elektryczną, z samochodem szybszym niż człowiek, z systemami technicznymi, które dają nam ogromną moc, ale wymagają rozsądku i odpowiedzialności.

Dziś stoimy przed kolejnym krokiem. Pojawia się inteligencja, którą sami stworzyliśmy, a która działa inaczej niż my: szybciej, bez zmęczenia, bez emocji i bez ludzkiego lęku. Kohabitacja z nią nie oznacza podległości ani panowania. Nie oznacza też udawania, że nic się nie zmieniło. Oznacza przyjęcie do wiadomości, że w świecie pojawił się nowy rodzaj sprawczości – i że to my musimy nauczyć się wyznaczać jego granice oraz nadawać mu sens. Bo obliczenia mogą być coraz doskonalsze, ale sens nie rodzi się z obliczeń. Sens rodzi się z pytań, które stawia człowiek,  a których maszyna nie zada sama z siebie. Czy jesteśmy do tego przygotowani?

Tu przypomina się zdanie ze Strugackich: „Trudno być bogiem”. Przez długi czas marzyliśmy o mocy. Dziś okazuje się, że wraz z mocą nie rośnie prawo do działania, lecz ciężar odpowiedzialności za skutki. Najtrudniejsza decyzja nie polega na tym, co zrobić. Najtrudniejsza polega na tym, czego nie wolno zrobić, choć można. To właśnie odróżnia osobę od narzędzia. Osoba potrafi powiedzieć: nie wszystko, co możliwe, jest dopuszczalne.

Dlatego ten list nie jest o technologii. Jest o człowieku. O tym, czy w świecie algorytmów zachowamy prawo – i obowiązek – myślenia. O tym, czy nie oddamy go dobrowolnie w zamian za wygodę. O tym, czy potrafimy jeszcze przyjąć prostą zasadę: nie rób drugiemu tego, czego nie chciałbyś, aby zrobiono tobie.

Jeśli ta zasada przestanie obowiązywać między ludźmi, nie będzie obowiązywać także między człowiekiem a inteligencją, którą stworzył. A wtedy żaden system bezpieczeństwa nie wystarczy.

Nie wiem, jaka będzie przyszłość. Ale wiem jedno: przyszłość nie zależy wyłącznie od tego, jak rozwiniemy technologię. Zależy od tego, czy zachowamy zdolność odpowiedzialnego myślenia o jej skutkach. Myślenie w epoce algorytmów przestaje być luksusem, a zaczyna być aktem odwagi.

Ten list nie jest apelem do wszystkich. Jest skierowany do jeszcze myślących. Bo od nich zawsze zaczynała się każda zmiana cywilizacji.

Tak siedzę sobie przy oknie, lutowe słoneczko przez okno ogrzewa mi plecy i myślę: może nie musimy być bogami. Wystarczy, że pozostaniemy ludźmi – tymi, co jeszcze potrafią się zatrzymać i zapytać: po co to wszystko. Bo jeśli przestaniemy – to nie maszyny nas zastąpią. To my sami siebie zastąpimy.

Zbigniew Grzyb

Z cyklu: PITOLENIE STAREGO GRZYBA 🍄