… czyli jak z lustra robią potwora
Współczesny świat znowu znalazł sobie potwora. Nie takiego z blizną na czole i śrubami w szyi, tylko bardziej nowoczesnego: z API, regulaminem i ikoną w kształcie chmurki. Wystarczy, że ktoś wrzuci do sieci kilka memów, media podchwycą dwa krzykliwe nagłówki, a politycy poczują na plecach powiew niepokoju – i już mamy gotową opowieść o „uciekającej AI”, która rzekomo sama z siebie przekracza granice, o których nawet Mary Shelley by nie pomyślała. A przecież każdy, kto choć raz widział, jak działa taki model, wie jedno: to nie potwór uciekł – to ktoś go wypuścił.
Żeby była jasność: jestem przeciwnikiem przerabiania w sposób ośmieszający jakichkolwiek ludzkich oblicz i sylwetek. Rzecz taka powinna być napiętnowana, a jeżeli jest to ośmieszenie wulgarne lub poniżające, powinny się zająć tym odpowiednie organy ścigania. W sieci nikt nie jest anonimowy, o czym świadczy błyskawiczne odnajdywanie ludzi, którzy zaczepili jakąś ikonę mainstreamu. Ale to, że coś jest naganne, nie oznacza jeszcze, że winny jest algorytm.
Mechanizm jest prozaiczny: użytkownik naciska spust, a media krzyczą, że to pistolet sam wystrzelił. Bo zjawisko „szalejącej AI” powstaje dziś w sposób tak prosty, że aż wstyd o tym pisać: ktoś wpisuje polecenie, AI je wykonuje, a media natychmiast ogłaszają, że „algorytm zwariował”. Wystarczy jedno nieodpowiedzialne polecenie, jedno zdjęcie wrzucone z zamiarem „zobaczmy, co się stanie”, i już mamy gotową historię o potworze, który rzekomo sam z siebie dokonuje manipulacji obrazem czy tworzy memy przekraczające granice dobrego smaku. A przecież każdy wie, że to nie AI wpadła na pomysł – to użytkownik ją do tego namówił.
Zresztą, taki sam efekt jak z AI można osiągnąć za pomocą innych narzędzi: Photoshop, Illustrator, InDesign, CorelDRAW, GIMP, Canva, ScreenToGif – pełna paleta. I jakoś nikt nie oskarża młotka o to, że uderzył kogoś w palec, ale przy AI nagle dostajemy zbiorowej amnezji w kwestii sprawstwa. Dlaczego więc w przypadku AI tak łatwo przychodzi nam udawanie, że narzędzie ma własną wolę?
Problem w tym, że winnego trudno wskazać. Użytkownik jest anonimowy, platforma nie chce zrażać klientów, a politycy wolą nie drażnić elektoratu. Więc najłatwiej obwinić narzędzie. AI, tak jak Photoshop, nie ma intencji, nie ma emocji, nie ma planu – ale za to ma jedną ogromną zaletę: nie protestuje. Nie powie „to nie ja”, nie pójdzie do sądu, nie zażąda sprostowania. Dlatego w każdej takiej historii powtarza się ten sam schemat: „to nie ja, to algorytm”, „to nie my, to technologia”, „to nie polityk kłamie – to AI źle interpretuje”. Mechanizm jest stary jak świat: kowal zawinił, cygana powiesili. Tyle że dziś cyganem jest chatbot, a kowalem – człowiek, który wolałby, żeby nikt nie patrzył mu na ręce.
A skoro już o politykach mowa, to warto zauważyć, że oni nie boją się sztucznej inteligencji. Boją się lustra, które nagle stanęło im przed twarzą. Boją się, że ktoś wpisze na X niewinne zdanie: „Grok, oceń czy ten pan mówi prawdę” – i w sekundę zniknie cała magia politycznej narracji, półprawdy, niedopowiedzenia i te wszystkie „to nie tak wyglądało”. Bo AI nie ma interesu, żeby kogoś chronić. Nie ma partii, nie ma elektoratu, nie ma układów. Porównuje słowa z faktami i mówi, co widzi. A to jest dla wielu osób władzy sytuacja absolutnie nie do zniesienia.
Dlatego właśnie powstaje narracja o „samodzielnej AI”, która rzekomo żyje własnym życiem, interpretuje świat po swojemu i czasem „oczernia” niewinnych polityków. To bardzo wygodne: jeśli AI można przedstawić jako nieprzewidywalną, to można też unieważnić jej analizy. „To nie kłamstwo – to AI mnie źle zrozumiała”. „To nie sprzeczność – to algorytm ma uprzedzenia”. W ten sposób lustro staje się potworem, a odbicie – niewygodną prawdą, którą trzeba jak najszybciej zakryć.
A skoro już przy wygodzie jesteśmy, to warto zadać to rzymskie pytanie: cui bono? Kto korzysta na strachu? Strach daje pretekst do regulacji. Regulacje dają pretekst do kontroli. A kontrola daje pretekst do ograniczenia narzędzi, które mogłyby weryfikować władzę. Wystarczy więc stworzyć atmosferę zagrożenia, a potem powiedzieć: „Musimy chronić społeczeństwo przed AI”. I już – problem lustra znika. Zostaje tylko potwór, którego można regulować, i polityk, którego nie wolno pytać o fakty, bo „to skomplikowane”.
Media w tym czasie robią to, co robią najlepiej: kochają potwory. Kochają je tak bardzo, że gdyby Frankenstein nie istniał, musieliby go sobie wymyślić – najlepiej w wersji cyfrowej, z neonowym okiem i podpisem „AI przekracza granice”. Bo strach się klika. Strach sprzedaje. Strach nie wymaga myślenia. Wystarczy krzykliwy nagłówek: „szaleństwa chatbota”, „algorytm uciekł spod kontroli”, „AI znowu zrobiła coś niebezpiecznego” – i już mamy tysiące wejść, komentarzy, udostępnień.
A przecież wydarzyło się zwykle coś banalnego: ktoś wpisał polecenie, a AI je wykonała. Ale taka wersja nie nadaje się na nagłówek. „Użytkownik wpisał głupie polecenie” nie brzmi jak sensacja. „AI zrobiła coś skandalicznego” – już tak. Dlatego media konsekwentnie pomijają pierwszy człon równania i udają, że technologia sama z siebie ma niepokojące pomysły.
I tu dochodzimy do sedna: Frankenstein to nie tylko postać literacka. To mem kulturowy, który wraca w każdej epoce, gdy pojawia się coś nowego, niezrozumiałego i medialnie atrakcyjnego. W XIX wieku straszono elektrycznością. W XX – promieniowaniem, komputerami i GMO. W XXI – AI. Mechanizm jest ten sam: najpierw fascynacja, potem panika, a na końcu – potwór, którego można pokazywać w nagłówkach, żeby podkręcić emocje. Dziś tym potworem jest sztuczna inteligencja, choć w rzeczywistości to tylko lustro odbijające ludzkie intencje. Ale lustra nie da się sprzedać. Potwora – zawsze.
A strach ma jeszcze jedną zaletę: zwalnia z myślenia. Jeśli uwierzymy, że gdzieś tam czai się potwór – najlepiej cyfrowy, nieprzewidywalny i „samodzielny” – to nie musimy już analizować, kto naprawdę pociąga za sznurki. Strach daje prostą narrację, a proste narracje są jak fast food: szybkie, tanie i niezdrowe, ale ludzie je uwielbiają.
Strach ma też drugą zaletę: zwalnia z odpowiedzialności. Jeśli AI „szaleje”, to nikt nie musi przyznać, że sam wpisał polecenie, sam wrzucił zdjęcie, sam udostępnił mema. Wystarczy powiedzieć: „to algorytm”. Algorytm nie odpowie, nie zaprotestuje, nie powie „przepraszam, ale to ty mnie o to poprosiłeś”.
I wreszcie strach daje poczucie moralnej wyższości. Bo jeśli potwór jest zły, to my – ludzie – jesteśmy dobrzy. Jeśli AI „przekracza granice”, to my jesteśmy strażnikami tych granic. Jeśli technologia „zagraża wartościom”, to my jesteśmy ich obrońcami. To bardzo wygodna pozycja: nie trzeba niczego rozumieć, wystarczy się bać.
A tymczasem największy paradoks współczesnego Frankensteina polega na tym, że potwór wcale nie jest potworem. Jest lustrem. AI nie tworzy zła – tylko je odbija. Nie wymyśla intencji – tylko je realizuje. Nie ma poglądów, emocji ani ambicji – ma tylko polecenia, które ktoś jej podał.
To właśnie dlatego powieść Mary Shelley jest dziś bardziej aktualna niż kiedykolwiek. Jej Frankenstein nie był historią o złej maszynie, tylko o złym człowieku, który stworzył coś, czego nie chciał zrozumieć ani za co nie chciał wziąć odpowiedzialności. Współczesna AI działa dokładnie tak samo: nie buntuje się, nie knuje, nie ucieka. Po prostu robi to, o co ją poproszono. A potem zbiera za to baty.
W tym sensie cała opowieść o „szalejącej AI” jest jedynie zasłoną dymną, która ma ukryć coś znacznie bardziej niewygodnego: że technologia nie jest ani dobra, ani zła – jest neutralna. To człowiek nadaje jej kierunek. To człowiek decyduje, jak jej użyć. To człowiek ponosi odpowiedzialność za skutki.
I tu dochodzimy do końca tej opowieści, choć tak naprawdę kończy się ona dokładnie tam, gdzie zaczęła: na strachu. Bo strach jest najtańszym paliwem współczesności. Nie trzeba go produkować, wystarczy go zasugerować. Nie trzeba go uzasadniać, wystarczy go nazwać. Prawdziwy problem nie leży w technologii, tylko w tym, jak łatwo potrafimy zamienić lustro w potwora. Jak chętnie wierzymy, że odbicie jest groźne, byle tylko nie patrzeć na własną twarz.
Jeśli więc naprawdę chcemy zrozumieć, skąd bierze się ten cały „szalejący algorytm”, wystarczy jedno spojrzenie w lustro. Potwór tam stoi. Tylko że nie jest zrobiony z kodu.
Z krakowskim mrugnięciem okiem i wiarą, że lustro kiedyś zwycięży,
Zbigniew Grzyb
Z serii: PITOLENIE STAREGO GRZYBA🍄
Zostaw komentarz