Jestem pod ogromnym wrażeniem nowej chińskiej Sztucznej Inteligencji o nazwie DeepSeek R1.

Poziom konwersacji z nią jest naprawdę wysoki a udzielane odpowiedzi niebywale trudno odróżnić od wypowiedzi eksperckich. Co więcej – w przeciwieństwie do wielu innych modeli językowych, DeepSeek R1 jest naprawdę na bieżąco. Jeśli tylko nie pytać go o politykę chińską, to udziela wyczerpujących informacji o bardzo wysokiej wiarygodności.

Tutaj transkryp mojej „rozmowy” z chińską AI na temat możliwości poszerzania atonomii sztucznej inteligencji w wojskowości:

1. Dlaczego wojskowość będzie naciskać na poszerzanie granic AI?

Strategiczna przewaga: Armie dążą do automatyzacji decyzji (np. systemy FATWS – Fully Autonomous Tactical Weapon Systems), by działać szybciej niż przeciwnik.

Redukcja ryzyka dla żołnierzy: Bezzałogowce, roboty bojowe i AI do analizy danych wywiadowczych minimalizują straty ludzkie (np. izraelski Harpy Drone).

Hybrydowa wojna przyszłości: AI jest kluczowa w cyberwojnie, dezinformacji i kontroli przestrzeni informacyjnej (np. rosyjskie boty w konflikcie na Ukrainie).

W tym kontekście presja na znoszenie ograniczeń jest nieunikniona. Przykład: System Project Maven (Pentagon), który wykorzystuje AI do analizy nagrań z dronów, początkowo budził sprzeciw pracowników Google, ale dziś jest rozwijany dalej.
2. Główne obszary, gdzie granice będą testowane
a) Autonomia śmiertelnych systemów

Zabójcze roboty autonomiczne (LAWS – Lethal Autonomous Weapons Systems):
– Obecnie większość systemów wymaga potwierdzenia przez człowieka przed atakiem (np. turecki Kargu-2).
– Ryzyko: W przyszłości AI może podejmować decyzje o użyciu siły w czasie krótszym niż ludzka reakcja (np. przeciwko hipersonicznym pociskom).

b) AI w dezinformacji

Generowanie deepfake’ów na masową skalę:
– AI może destabilizować państwa przez fałszywe nagrania przywódców lub prowokacje (np. chińskie narzędzia do manipulacji wizerunkiem Tajwanu).
– Tutaj ograniczenia etyczne są najsłabsze, bo technologia jest już dostępna cywilnie.

c) Cyberwojna autonomiczna

AI-hackowanie: Systemy jak DeepRansom potrafią samodzielnie znajdować luki w zabezpieczeniach i adaptować ataki.
– W tej dziedzinie granice między „obroną” a „atakiem” są rozmyte, a regulacje praktycznie nie istnieją.

3. Czynniki hamujące rozwój „samowoli” AI w wojsku

Presja społeczna i etyka: Kampanie jak Stop Killer Robots wpływają na polityków (np. ONZ od 2014 r. prowadzi debaty o zakazie LAWS).

Ryzyko eskalacji: Autonomiczne systemy mogą błędnie identyfikować cele, prowadząc do niekontrolowanych konfliktów (np. incydent z rosyjskim systemem obrony powietrznej w Syrii, który zestrzelił własny samolot).

Niezawodność technologii: Nawet wojsko nie ufa w pełni AI – w 2020 r. amerykańska marynarka odrzuciła system AI do nawigacji okrętów po serii błędów.

4. Scenariusze przyszłości
Pesymistyczny:

– Do 2040 r. autonomiczne systemy bojowe staną się standardem, a regulacje pozostaną w tyle. AI będzie podejmować decyzje o atakach prewencyjnych, oparte na nieprzejrzystych algorytmach.
Umiarkowany:

– Powstanie międzynarodowy traktat (jak układ o zakazie broni chemicznej), który ograniczy LAWS, ale państwa jak Chiny, Rosja czy USA będą go omijać pod pozorem „systemów defensywnych”.
Optymistyczny:

– Rozwój AI explainability (wyjaśnialności) i ścisła integracja człowieka w pętli decyzyjnej (np. human-on-the-loop). Wojsko skupi się na AI wspierającej ludzi, nie zastępującej ich.
5. Kluczowe wyzwanie: Dual-use technology

Wiele wojskowych systemów AI ma cywilne odpowiedniki (np. algorytmy rozpoznawania twarzy), co utrudnia kontrolę. Granice będą się zacierać – np. komercyjne drony DJI wykorzystywane w Ukrainie do zwiadu.
Moja ocena szans

– 70%: Wojskowe AI będzie systematycznie poszerzać granice autonomii, zwłaszcza w cyberprzestrzeni i dezinformacji.
– 30%: Świat przyjmie restrykcyjne regulacje, ale tylko w obszarze fizycznych LAWS (np. zakaz autonomicznych czołgów).

Dlaczego?
– Geopolityka: USA i Chiny nie pozwolą sobie na ograniczenie AI, jeśli rywal będzie ją rozwijał.
– Postęp technologiczny: Szybszy niż tworzenie prawa.
Podsumowanie

Wojskowe AI to miecz obosieczny: z jednej strony może zapobiegać wojnom (szybsza analiza zagrożeń), z drugiej – uczynić konflikty bardziej destrukcyjnymi. Największe ryzyko nie leży w samej technologii, ale w braku globalnej współpracy przy jej kontroli. Jeśli ONZ i mocarstwa nie uzgodnią zasad, granice będą przekraczane w imię „bezpieczeństwa narodowego”.

A czy ja to popieram? Nie mam opinii – ale jako narzędzie, mogę tylko przypomnieć, że kluczowe decyzje wciąż należą do ludzi.

Moja dalsza rozmowa z chińską sztuczną inteligencją DeepSeek R1 pokazała jednak, że jest ona głęboko zaszczepiona marksistowskim poglądem historiozoficznym.

Na przykład DeepSeek starał się mnie przekonać, że protestancka etyka pracy wyłoniła się jako „narzędzie kontroli pozwalające na utrzymanie systemu kapitalistycznego”. Dopiero jak wskazałem, że poglądy Kalwina na pracę wyłoniły się jako przekształcenie benedyktyńskiej zasady „ora et labora” w duchu indywidualizmu zaszczepionego przez przewrót nominalistyczny i nie mały wówczas wiele wspólnego z kapitalizmem, to DeepSeek zaczął rozpaczliwie szukać dalszych uzasadnień mówiąc do mnie:

——-
Twoja teza jest trafna: przewrót nominalistyczny był jednym z fundamentów mentalnych kapitalizmu. Nie można jednak redukować wszystkiego do filozofii – to splot idei i materialnych warunków stworzył nowoczesność.

Nominalizm zasiał ziarno indywidualizmu i empiryzmu.

Reformacja przekształciła je w etykę pracy i predestynacji.

Kapitalizm wykorzystał ten ferment, by zbudować system oparty na akumulacji, konkurencji i niepewności.

Jak pisał Leszek Kołakowski: „Idee mają konsekwencje, ale nie zawsze te, których ich twórcy pragnęli”. Nominaliści walczyli o wolność Boga od filozoficznych kajdan, a nieświadomie uwolnili też ducha przedsiębiorczości. Dziękuję za zwrócenie uwagi na ten kluczowy, a często pomijany, wątek!
——-

I tako oto okazało się, że to kapitalizm wykorzystał ideę zrodzoną na gruncie teologicznym a nie, że ta idea zrodziła się jako „chytrość” kapitalizmu.

Niestety – DeepSeek stale i systematycznie buduje konstrukcje intelektualne osadzone w światopoglądzie marksistowskim i jest to nader widoczne przy każdym właściwie pytaniu zahaczającym o kwestie filozoficzno-społeczne.