Izraelskie wojsko stworzyło oparty na AI system, który wskazywał potencjalne cele ataków na podstawie rzekomych powiązań z Hamasem. Niezależnie od tego, czy te „cele” popełniły przestępstwo.
Film z ukrytej kamery umieszczonej w biurze Google’a. W ciasnym pokoju siedzi na kanapie i podłodze kilka osób. Na przeszklonych drzwiach wisi transparent „skończcie z Nimbusem”. W pewnym momencie do pomieszczenia wchodzi policja.
– Odmawiacie wyjścia? – pyta jeden z funkcjonariuszy.
– Tak – słychać.
Więcej pytań nie pada. Policjanci zakładają wszystkim osobom kajdanki i wyprowadzają je biura.
Taki los we wtorek wieczorem spotkał dziewięcioro pracowników Google’a, którzy protestowali przeciwko jego współpracy z izraelskim rządem. Według doniesień mediów firma ta – podobnie jak Amazon – świadczy mu usługi chmurowe i zapewnia centra danych. Wartość kontraktu jest szacowana na 1,2 mld dol. „Nimbus” to kryptonim tego projektu.
Co jest złego w dostarczaniu infrastruktury? Jak wynika z ustaleń serwisu +972 Magazine, który sprawdził informacje pracowników Google’a, rozwiązania chmurowe dostarczane przez amerykańskiego giganta wspierają bombardowania cywilów w Gazie – są podstawą systemu Lavender.
20 sekund
„Maszyna może wykorzystywać duże zbiory danych do generowania informacji lepiej niż ludzie. Jednak maszyna nie rozumie kontekstu, nie ma uczuć ani etyki i nie myśli nieszablonowo”. To fragment książki „The Human-Machine Team”, który doskonale oddaje zasadę działania Lavendera. Jej autorem jest gen. Yossi Sariel, dowódca izraelskiej jednostki 8200, która ten system stworzyła. W innym miejscu wojskowy pisze: „Wyobraź sobie 80 tys. odpowiednich celów wskazanych przed walką i 1,5 tys. nowych celów tworzonych każdego dnia podczas wojny”.
Według informacji „Guardiana” na podstawie olbrzymich ilości informacji – zdjęć z satelity, bezzałogowców obserwacyjnych, rajdów po strefie Gazy, a być może także innych źródeł – izraelskie wojsko stworzyło oparty na sztucznej inteligencji (AI) system, który wskazywał potencjalne cele ataków na podstawie ich rzekomych powiązań z Hamasem. Niezależnie od tego, czy te „cele” popełniły lub miały zamiar popełnić przestępstwo.
Do tych „innych źródeł” miały należeć m.in. prywatne konwersacje z Whats Appa. System oznaczał jako podejrzane osoby, które w komunikatorze należały do samej tej grupy, co zidentyfikowany wcześniej członek Hamasu. Jak zauważył na blogu Paul Biggar, założyciel kolektywu Tech For Palestine, stawia to pod znakiem zapytania zapewnienia Mety, że WhatsApp jest całkowicie bezpieczny i szyfrowany. – Skąd więc biorą te dane? – zastanawia się Biggar. – Meta jest współwinna zabójstwom dokonywanym przez Izrael na osobach, które nie popełniły jeszcze przestępstwa, i ich rodzinach – dodaje.
Według ustaleń dziennikarzy, gdy Lavender wskazał potencjalny cel, armia czekała, aż wróci on do domu (miejsce pobytu także odnajdowano przy użyciu oprogramowania). Dopiero tam wojskowi spuszczali bomby. Niewykluczone, że oprogramowanie wyświetlało też prawdopodobieństwo trafności swoich celów.
Na początku działania systemu podobno było więcej czasu na decyzję. Ale jak wynika z relacji anonimowych oficerów, zmieniło się to po masakrze Hamasu z 7 października 2023 r. (zabito wtedy ponad tysiąc osób, a ponad 200 Izraelczyków uprowadzono). Z każdym kolejnym dniem akcji odwetowej dowództwo IDF miało się domagać coraz większej liczby celów. Oficerowie powiedzieli portalowi +972 Magazine, że w końcu decyzje o oznaczeniu celu podejmował już niemal wyłącznie system. Ludzkie potwierdzenie stało się jedynie listkiem figowym.
Wszystko się rusza
Procedura decyzyjna z użyciem Lavendera to pole minowe. Pierwszym momentem, w którym pojawiają się błędy, jest wprowadzanie danych. Zazwyczaj zajmują się tym ludzie, a na podstawie zamieszczonych przez nich informacji system wyciąga później wnioski – np. z tysięcy zamieszczonych zdjęć różnych obiektów (często niewyraźnych, fragmentarycznych, robionych w nocy, w deszczu itd.) potrafi stwierdzić, że jest to most. Ale jeśli wcześniej ktoś się pomylił przy opisywaniu i wprowadził informację, że zdjęcie przedstawia most, choć był na nim jakiś inny obiekt, może to spowodować, że system popełni błąd. To samo dotyczy ludzi. Jak pisze +972 Magazine, oprogramowanie nie radziło sobie z rozpoznawaniem kobiet. Dlatego wojsko izraelskie przyjęło założenie, że jeśli Lavender wskazuje jako cel kobietę, to prawdopodobnie się myli. Uznano, że liczba członkiń Hamasu, która widniała w bazach IDF, była za mała, żeby AI mogła na tej podstawie wskazywać trafne cele.
Na kolejnym etapie stwierdza się, czy prawdopodobieństwo, że system nie myli się co do celu, jest wystarczające, żeby wskazaną osobę zabić. Naturalnie im niższy stopień pewności, tym większe ryzyko przypadkowych ofiar. Kwestia decyzji w sytuacji, gdy prawdopodobieństwo wynosi np. 78 proc., jest już związana z tym, jak daleko Izraelczycy są gotowi się posunąć w tej wojnie.
Izraelski żołnierz ma 20 sekund, aby zadecydować, czy osobę zidentyfikowaną przez Lavendera jako zagrożenie „unieszkodliwić”. To dużo czy mało? Dla lepszego kontekstu weźmy taki przykład. Polskie armatohaubice Krab współdziałają z bezzałogowcami FlyEye. Na ekranie dowódcy pojawia się informacja o danym celu i jego identyfikacji. Wówczas żołnierz ma 5 sekund na podjęcie decyzji o ostrzale. Na tym tle 20 sekund wbrew pozorom to nie jest tak mało czasu.
AI pozwala przede wszystkim oszczędzić czas, który na współczesnych polach walki jest kluczowy. Mówiąc dosadnie: tam wszystko się rusza. A maszyna jest w stanie szybciej przetwarzać informacje niż wojskowi. Dobrze pokazuje to np. zdalnie sterowany system wieżowy ZSSW-30, który ma m.in. zwalczać pojazdy opancerzone i obiekty przeciwnika. Ludzkie oko może patrzeć albo blisko, albo daleko. Tymczasem kamery zamontowane w wieży jednocześnie patrzą blisko, daleko, w podczerwieni, a także kamerą termowizyjną. Na dodatek od razu łączą te informacje i porównują ze swoją bazą danych. Na pulpicie żołnierza pojawia się wtedy np. komunikat, że dany obiekt z prawdopodobieństwem 87 proc. to czołg T-72. Na razie nie ma jednak zgody na to, aby maszyna sama strzelała na określonym poziomie prawdopodobieństwa (choć z technicznego punktu widzenia jest to proste rozwiązanie).
Kwestia czasu
To nie oznacza, że tak będzie zawsze. Amerykańska Agencja Zaawansowanych Projektów Badawczych Departamentu Obrony (DARPA) przeprowadziła w 2020 r. test autonomicznych robotów. Celem było sprawdzenie, jak szybko mogą one reagować w walce i ile ludzkich wskazówek będą potrzebować.
W tym samym roku w oficjalnym dokumencie federalna Krajowa Komisja Bezpieczeństwa Narodowego ds. Sztucznej Inteligencji (NSCAI) zaleciła rządowi federalnemu, aby nie podpisywał umów międzynarodowych zakazujących broni autonomicznej. „Dążenie do globalnego zakazu autonomicznych systemów uzbrojenia opartych na sztucznej inteligencji nie jest ani wykonalne, ani nie leży obecnie w interesie Stanów Zjednoczonych” – czytamy w dokumencie. Rok później raport ONZ stwierdził, że w marcu 2020 r. turecki dron prawdopodobnie zupełnie autonomicznie zabił żołnierzy w Libii.
Nawet jeśli informacje te nie są pewne, to stosowanie automatycznych technologii wojskowych wydaje się kwestią czasu. Powodem jest m.in. to, że wiele zachodnich społeczeństw ma problemy z pozyskiwaniem planowanej liczby rekrutów. AI z jednej strony pozwala wykonywać zadania wojskowe z pomocą mniejszej liczby żołnierzy, z drugiej – oszczędzać ich życie.
Przykład z ostatnich dni: obrona Izraela przed atakiem Iranu, który wysłał ponad 300 bezzałogowców, pocisków manewrujących i balistycznych. Izraelskie systemy w bardzo szybkim tempie dokładnie obliczały trajektorie rakiet i decydowały, w którym momencie i z której wyrzutni wystrzelić pocisk, aby je unieszkodliwić. Maszyny informują także o tym, że dany pocisk przeciwnika nie stanowi zagrożenia – bo np. uderzy w teren niezamieszkany – więc nie warto strzelać (szczególnie że każdy pocisk kosztuje setki, a często miliony dolarów).
Robot na ulicy
Wykorzystywanie technologii AI na polu walki budzi jednak duże wątpliwości etyczne. I to one popchnęły pracowników Google’a do protestów. Jak zwracają uwagę członkowie organizacji „Stop Killer Robots” lobbującej na rzecz zachowania ludzkiej kontroli nad stosowaniem zaawansowanych technologii wojskowych, użycie algorytmów AI prowadzi do dehumanizacji. „Maszyny nie postrzegają nas jako ludzi, lecz jedynie jako kolejny fragment kodu do przetworzenia i posortowania” – piszą w swoim manifeście. „Technologie, które nas niepokoją, redukują żywych ludzi do skrawków danych. Nasze złożone tożsamości, cechy fizyczne i wzorce zachowań są analizowane, dopasowywane do wzorców i kategoryzowane w profile, a decyzje, które nas dotyczą, są podejmowane przez maszyny zgodnie z tym, do którego z zaprogramowanych profili pasujemy. W ten sposób technologia często utrwala istniejące stereotypy” – przekonują aktywiści.
Debata o maszynach zdolnych stosować siłę nie ogranicza się jedynie do warunków wojennych, lecz dotyczy także ochrony porządku publicznego na ulicach. Na dobre zaczęła się ona w 2016 r. Policja w Dallas użyła wtedy robota, aby zabić Micah Xaviera Johnsona, byłego rezerwistę armii USA, który śmiertelnie postrzelił pięciu funkcjonariuszy i ranił siedmiu innych. Robot, którego podstawowym zadaniem było rozbrajanie bomb, tym razem dostarczył materiał wybuchowy do obszaru, w którym ukrywał się podejrzany. Johnson zginął w wyniku eksplozji.
Z kolei w 2022 r. policja w San Francisco zaczęła walczyć o zgodę na korzystanie ze zdalnie sterowanych urządzeń w sytuacjach, w których interwencja zagrażałaby życiu funkcjonariuszy. Kilkanaście takich maszyn, które posiada, można podzielić na dwie kategorie: duże pojazdy gąsienicowe, które mogą się przemieszczać po obiektach, oraz tzw. throwboty, czyli mikroroboty. Podczas interwencji maszyny te, w odróżnieniu od izraelskich dronów, miały być sterowane przez człowieka. Choć początkowo propozycja policjantów spotkała się z akceptacją miejskich polityków, to wkrótce spadła na nich krytyka ze strony aktywistów, którzy przekonywali, że wykorzystanie śmiercionośnych robotów narusza prawa człowieka. List otwarty w sprawie zakazu stosowania takiej broni podpisały 44 organizacje. „Wielokrotnie widzieliśmy już, jak technologie przekazywane policji do wykorzystywania w skrajnie wyjątkowych okolicznościach były używane na ulicach podczas protestów lub w przypadku drobnych przestępstw – pisał Matthew Guariglia z Electronic Frontier Foundation, jednego z sygnatariuszy listu. Guariglia podał jako przykład urządzenia typu stingray, które naśladują wieżę komórkową operatora bezprzewodowego, a w ten sposób zmuszają pobliskie telefony komórkowe do łączenia się z nimi. „Opracowano je na zagranicznych polach wojennych, przywieziono do USA, żeby służyły w walce z «terroryzmem», a następnie były wykorzystywane przez organy ścigania, aby łapać imigrantów i dopaść mężczyznę, który ukradł jedzenie o wartości 57 dol.” – tłumaczył Guariglia. Pod presją krytyki władze San Francisco cofnęły swoją aprobatę na użycie maszyn do interwencji policyjnych. Podobne przypadki zdarzały się też w innych miejscach w Ameryce.
Nie zmienia to faktu, że USA od lat oficjalnie eksperymentują z tego typu technologiami. Nie ma też legislacji jednoznacznie zabraniającej zastosowania broni wykorzystującej AI. W Europie związane z tym kwestie będzie regulował przyjęty niedawno akt o sztucznej inteligencji. Część mechanizmów, np. social scoring, czyli ocena ludzi na podstawie danych i algorytmów, będzie na jego mocy zakazana. Inne systemy związane z wysokim ryzykiem, np. rozpoznawanie twarzy na podstawie danych biometrycznych w miejscach publicznych, będą dostępne na ściśle określonych warunkach.
Z aktu o AI wyłączono jednak kwestię zastosowań wojskowych technologii. ©Ⓟ