Ja się z tym zgadzam. Nie wiem czy wiecie ale „regulacje UE” których to rzekomo tak nam zazdrości świat, jak to powiedział Hołownia, zakładają z góry wykluczenie AI z wielu dziedzin, między innymi z sądownictwa. Nawet jeśli strony by chciały żeby sądził je sędzia AI, to tak nie będzie. Dzięki wspaniałym regulacjom UE, będziemy czekać LATAMI na wyroki, po to żeby sędziowie mogli zarobić swoje pieniądze, bez zbytniego przepracowania się, wydając często wyroki wołające o pomstę do nieba. Ale będzie nas sądził „obiektywy i sprawiedliwy” sąd który za wyrwanie torby w tęczę skazał dziewczynę na kilka lat więzienia, ale np pobicie przez babie Kasię policjanta, okazało się nie godne kary.

Ale Systemy AI nie mogą być stosowane :

w rekrutacji i zatrudnieniu – np. analiza CV, rozmowy kwalifikacyjne prowadzone przez AI.

w sektorze finansowym – np. scoring kredytowy, który może prowadzić do dyskryminacji.

w medycynie – diagnostyka medyczna i urządzenia medyczne wspomagane przez AI muszą spełniać wysokie standardy bezpieczeństwa.

w edukacji – systemy oceniające uczniów i studentów muszą być przejrzyste i nie mogą prowadzić do dyskryminacji.

Wg KE człowiek te rzeczy robi lepiej, co jest niezgodne nawet z samą opinią UE, np w rekrutacji tworzy się szereg przepisów mających zapobiegać „dyskryminacji”, ale jakoś się to nie udaje, czyli nawet mimo przepisów, człowiek mimo wszystko często „dyskryminuje”. co jest powodem bólu głowy urzędników.

W sektorze finansowym każdy kto brał kredyt wie jak „bezstronnie” rozpatrywane są wnioski jaka jest równość stron itd.

W medycynie każdy wie jakimi to świetnymi diagnostami są ludzie, mimo że badania pokazują jednoznacznie że AI robi to znacznie znacznie lepiej, szybciej i taniej.

W edukacji uczniowie są przecież oceniani „bezstronnie i obiektywnie” widać to po tym jak np uczniowie z jednych podstawówek ze świetnymi stopniami nie radzą sobie w lepszych liceach, a inni z innych podstawówek mimo gorszych ocen radzą sobie znacznie lepiej. Widać to na egzaminach komisyjnych gdzie uczniowie często są oceniani znacznie wyżej niż to wynika z ocen ich nauczycieli.

AI jest bardzo dobrym narzędziem, jest tylko jeden problem, jeśli kryteria oceny wg których AI będzie musiała działać, będą wadliwe, to i działania będą nieskuteczne, albo wręcz szkodliwe. A te kryteria wyznacza człowiek, (popatrzcie na posłów) często kompletny idiota.

Tak więc AI rzeczywiście może okazać się zabójcza, ale nie z powodu swojej niedoskonałości, tylko z powodu głupoty ludzi którzy określają zasady jej użycia.