ᴄᴢʏ ᴡᴏʟɴᴏ ᴏᴄᴇɴɪᴀᴄ́ ᴄᴢᴌᴏᴡɪᴇᴋᴀ ᴊᴀᴋ ᴛᴏᴋᴀʀᴋᴇ̨, ᴋᴏᴍᴘᴜᴛᴇʀ ᴄᴢʏ ꜱᴘᴀᴡᴀʀᴋᴇ̨?

W epoce, gdy rekrutacje coraz częściej prowadzą algorytmy, a kandydatów ocenia sztuczna inteligencja, granica między człowiekiem a narzędziem zaczyna się zacierać.
Czy technologia, która miała służyć człowiekowi, nie zaczyna przypadkiem decydować o tym, kto jest „wart wystarczająco”, by pracować?
I czy wolno nam w ogóle oceniać człowieka tak, jak oceniamy maszynę — pod kątem wydajności, dopasowania i błędu statystycznego?
A przede wszystkim — czy człowiek ubiegający się o pracę wie, że jego predyspozycje, zachowania i emocje ocenia nie inny człowiek, lecz algorytm?
Czy rekruter ma obowiązek mu to powiedzieć?
I czy kandydat w ogóle wyraził zgodę, by jego człowieczeństwo sprowadzić do danych i wzorców?

________________________________________

Impulsem do napisania tego felietonu była rozmowa, jaką niedawno odbyłem z pracownikiem działu HR jednej z dużych firm. Powiedział mi z pełnym spokojem, jakby cyfry były ważniejsze od ludzi, i uśmiech, który nie sięgał oczu, że w procesie rekrutacji pomaga im sztuczna inteligencja.
Najpierw analizuje nadesłane życiorysy — pod kątem słów kluczy, dopasowania i języka. Potem przychodzi czas na rozmowę kwalifikacyjną, również ocenianą przez algorytm: sprawdza merytorykę odpowiedzi, ton głosu, tempo reakcji, sposób argumentowania, a nawet emocje.
Krótko mówiąc — AI przygląda się kandydatowi jak urządzeniu, które ma działać z określoną wydajnością i bez zacięć.

Nie wiem, czy to już przyszłość, czy jeszcze groteska, ale trudno pozbyć się wrażenia, że człowiek w oczach rekrutacyjnego algorytmu staje się narzędziem — takim samym jak komputer, tokarka czy spawarka, tylko bardziej kłopotliwym w utrzymaniu i mniej przewidywalnym w działaniu.

Maszyna, która „słucha” człowieka
———————————–

Nowoczesne systemy rekrutacyjne potrafią dziś więcej, niż wielu ludzi zdaje sobie sprawę. Program analizuje CV, szukając w nim odpowiednich słów — „projekt”, „przywództwo”, „rezultaty”, „zespół” — i wylicza prawdopodobieństwo dopasowania. Potem, jeśli kandydat zostanie zaproszony do rozmowy online, jego głos, mimika i wypowiedzi trafiają pod lupę algorytmu.
Oprogramowanie śledzi tonację, szybkość reakcji, pauzy, a nawet drobne ruchy twarzy.

Wynik? Raport z oceną: poziom opanowania, pewność siebie, odporność na stres, zdolność argumentacji, „dopasowanie kulturowe” do firmy.
Brzmi to jak cud techniki — ale tylko do momentu, gdy zdamy sobie sprawę, że za tym wszystkim stoi nie rozum, lecz statystyka.

Maszyna nie wie, że kandydat ma chrypę, że jest po nieprzespanej nocy albo że trzęsą mu się ręce, bo to jego szansa na życie.
Widzi tylko odstępstwa od wzorca.
A wzorzec — jak to bywa w korporacyjnym świecie — tworzy ktoś, kto sam nigdy nie rozmawiał z człowiekiem spoza swojej bańki.

I tak oto człowiek staje się nie osobą, lecz przypadkiem — zbiorem danych, które mają „pasować” do modelu, nawet jeśli model nie zna ani kontekstu, ani duszy.

Człowiek w roli modelu danych
—————————-

Nie jestem przeciwnikiem technologii. Wiem, że firmy toną w tysiącach aplikacji i potrzebują narzędzi, które pozwolą im znaleźć tych, którzy pasują najlepiej.
Ale właśnie w tym „pasowaniu” kryje się niebezpieczeństwo.

Bo jeśli algorytm został nauczony, że „dobry kandydat” to osoba o spokojnym tonie głosu i umiarkowanym entuzjazmie, to człowiek ekspresyjny, spontaniczny, z błyskiem w oku — zostanie sklasyfikowany jako zbyt emocjonalny, czyli ryzykowny.
Maszyna nie zna kontekstu.
Nie rozumie, że pasja nie jest wadą, a entuzjazm bywa lepszy niż chłodna kalkulacja.
Nie widzi historii człowieka, tylko jego ślady cyfrowe.
Nie odczytuje intencji, tylko dopasowanie do wzorca.

To tak, jakbyśmy kazali komputerowi ocenić wiersz Mickiewicza na podstawie liczby rzeczowników i przymiotników — a potem uznali, że to Norwid jest nieczytelny, więc mniej wartościowy.
A przecież to właśnie Norwid uczy nas, że wartość nie zawsze mieści się w statystyce.

Technokratyczna pokusa
—————————————

Coraz częściej człowieka ocenia się jak maszynę — pod kątem przydatności, wydajności, odporności na błędy.
W świecie technokratów argument, że człowiek myśli, zaczyna tracić znaczenie.

Bo po co myślący, skoro komputer, tokarka czy spawarka zasilone AI też potrafią „dokonywać najbardziej optymalnych wyborów”?
Cóż z tego, że to fałszywa teza dla nas — skoro dla nich jest wystarczająco prawdziwa, by na niej budować nowy świat pracy.

I właśnie w tym tkwi niebezpieczeństwo.
Bo kiedy zaczniemy wierzyć, że człowiek i maszyna są porównywalne w zdolności podejmowania decyzji, zatracimy coś więcej niż miejsca pracy — zatracimy sens tego, po co w ogóle myślimy.
Bo myślenie to nie tylko kalkulacja — to również wątpliwość, intuicja, sumienie.
A tego nie da się zapisać w kodzie.

Etyka czy wygoda?
—————————

W tej historii nie chodzi o to, że maszyna myśli źle.
Chodzi o to, że zaczynamy zbyt chętnie oddawać jej to, co wymaga ludzkiego spojrzenia — wrażliwości, empatii, intuicji.

Kiedyś rekrutacja była spotkaniem: człowiek patrzył człowiekowi w oczy, próbując zrozumieć jego historię. Dziś coraz częściej patrzy w ekran, czekając na wynik automatycznej analizy.

Nie chodzi więc o walkę z technologią, tylko o zachowanie miary.
Bo AI nie ma sumienia, nie ma też zdolności rozumienia niuansów. A jednak coraz częściej decyduje, kto dostanie szansę, a kto zostanie odrzucony bez słowa wyjaśnienia.

Czy to etyczne?
Czy człowiek szukający pracy powinien być oceniany jak część produkcyjna — z oceną „prawdopodobieństwa pasowania” jak śruba do maszyny?
Czy naprawdę chcemy żyć w świecie, w którym system decyduje o tym, czy jesteś wystarczająco „ludzki”, żeby dostać pracę?

Nie ma nic złego w narzędziach
——————————

Nie ma nic złego w tym, że korzystamy z technologii.
Zło zaczyna się wtedy, gdy człowieka mylimy z narzędziem.

AI może być pomocna, jeśli pomaga ludziom się spotkać.
Ale jeśli zaczyna decydować, kto „nadaje się” do bycia człowiekiem w miejscu pracy — to nie jest już postęp, tylko regres pod płaszczykiem innowacji.

Bo tokarka, komputer i spawarka nie mają marzeń, sumienia ani tremy przed rozmową.
Człowiek ma, i to właśnie czyni go najlepszym narzędziem, jakie natura kiedykolwiek stworzyła.
Tyle że on nie jest narzędziem.
I dopóki o tym pamiętamy, jest jeszcze nadzieja, że w tym świecie algorytmów pozostaniemy sobą.

Między człowiekiem a algorytmem — linia demarkacyjna
—————————————-

Nie chodzi o nostalgię za dawnymi czasami, gdy rekrutacja odbywała się przy kawie, a nie przez kamerę.
Chodzi o to, że w świecie, gdzie wszystko da się zmierzyć, coraz trudniej dostrzec to, co naprawdę się liczy — człowieka.

Bo człowiek to nie tylko dane wejściowe i wynik końcowy.
To także historia, której nie da się zapisać w tabeli.
To niepokój, który nie mieści się w wykresie.
To błysk w oku, którego nie wychwyci kamera.

A jednak to właśnie te „niemierzalne” cechy decydują o tym, czy ktoś będzie lojalny, twórczy, odważny. Czy potrafi podnieść się po porażce. Czy umie słuchać, gdy inni tylko mówią.

Algorytm tego nie wie.
Bo algorytm nie zna wstydu, nie zna nadziei, nie zna drugiej szansy ani strachu przed nieznanym.

Na koniec pytanie do nas wszystkich
————————————

Czy chcemy świata, w którym człowiek musi udowadniać swoją wartość przed maszyną?
Czy naprawdę chcemy, by o naszej przyszłości decydował system, który nie zna przyszłości — tylko przeszłość zapisaną w danych?

A może jeszcze nie jest za późno, by powiedzieć: technologia — tak, ale nie zamiast człowieka.
Automatyzacja — tak, ale nie kosztem sumienia.
Postęp — tak, ale nie w stronę dehumanizacji.

Bo jeśli człowiek ma być tylko elementem systemu, to kto właściwie projektuje ten system —
i czy my jeszcze mamy prawo głos podnieść?

Prawda?

———————————
Felieton z serii PITOLENIE STAREGO GRZYBA.