Czy możemy mieć pewność, że autonomiczna broń, która samodzielnie obiera cele ataku, zauważy różnicę między pojazdem wojskowym a rodziną jadącą samochodem na wycieczkę?

Autonomiczne śmiercionośne systemy uzbrojenia (lethal autonomous weapons – LAWS) to temat, który od wielu lat spędza sen z powiek ekspertom i strategom wojskowym. Definicje są różne, ale można powiedzieć, że systemy te są zdolne samodzielnie decydować o celach ataku i stosować wobec nich siłę bez interwencji człowieka. Siłę niszczącą i zabójczą.

Autonomiczne systemy uzbrojenia

Prace nad rozwiązaniami technicznymi, które potencjalnie stworzą takie możliwości, są prowadzone na całym świecie, choć do ich finału jeszcze nie dotarliśmy. Mowa tu o pełnych automatach: dronach, systemach rakietowych, automatycznych wieżyczkach strzelniczych itd. – nie zaś np. o dronach sterowanych zdalnie przez człowieka, znanych z filmików z wojny w Ukrainie. Kwestie humanitarne związane ze stosowaniem takich narzędzi rodzą dylematy polityczne, prawne i moralne.

Na szczeblu międzynarodowym istnieje dziś zgoda polityczna, że takie systemy nigdy nie powinny działać samodzielnie. Oznacza to, że zawsze powinno być w nich miejsce na decyzję człowieka. Czy taki standard zostanie utrzymany?

Jest w tej kwestii coraz więcej wątpliwości z uwagi na fakt, że wymóg uwzględnienia czynnika ludzkiego w pętli decyzyjnej może zmniejszyć prędkość działania śmiercionośnej broni. To zaś rodzi pokusę, by rolę człowieka ograniczać. W 2021 r. raport ONZ opisał zdarzenie, do którego doszło rok wcześniej w Libii: nadlatująca amunicja krążąca (STM Kargu-2) została nieruchomo zawieszona w miejscu, w którym system jakoby sam rozpoznał cel i zdecydował o przeprowadzeniu ataku. Była to lampka ostrzegawcza.

Gdy wybuchła wojna w Ukrainie, niektórzy odsunęli obawy na bok z uwagi na politykę czy bezpieczeństwo, a rozwój technologii przyspieszył. Niektóre rodzaje tzw. amunicji krążącej projektuje się tak, żeby były zdolne wykrywać czujnikami cele. Choć dziś wymagana jest w takim przypadku ludzka decyzja, to czy z technicznego punktu widzenia zawieszenie lub wyłączenie takiego wymogu nie byłoby zbyt łatwe?

Ludzka decyzja

Istnieją trzy główne koncepcje dotyczące udziału człowieka. Pierwsza to tzw. human-in-the-loop, kiedy automat nie mógłby sam podjąć decyzji bez interwencji ludzkiej. Druga to tzw. human-on-the-loop, kiedy to człowiek monitoruje działanie systemu autonomicznego i w razie czego może w decyzje automatu ingerować. Trzecia to pełna autonomia bez bezpośredniego zaangażowania ludzkiego.

Wymóg uwzględnienia czynnika ludzkiego w pętli decyzyjnej może zmniejszyć prędkość działania śmiercionośnej broni. To zaś rodzi pokusę, by rolę człowieka ograniczać

Międzynarodowy Komitet Czerwonego Krzyża podkreśla, że zasady humanitaryzmu i etyki wymagają, żeby człowiek zawsze był obecny. W październiku wraz z sekretarzem generalnym ONZ wydał on apel wzywający do opracowania wiążącego traktatu ograniczającego ryzyka, a także zakazującego określonych sposobów wykorzystania systemów autonomicznych oraz sztucznej inteligencji (AI).

Sygnatariusze zwrócili uwagę m.in. na zagrożenie dla ludzkości i wzrost niestabilności na świecie. Przekonanie, że straty w ludziach (żołnierze, cywile) będą mniejsze dzięki stosowaniu automatów, może wpływać na decyzje państw o rozpoczynaniu kolejnych dużych wojen. Rzecz w tym, że istnieje ryzyko niefortunnej pomyłki, jak to się działo w przypadku wybuchu I wojny światowej, która miała być łatwa i krótka.

Obawy te podziela wiele krajów zaangażowanych w obrady ekspertów komisji międzyrządowej przy ONZ. Polska powinna wesprzeć te działania. USA wydały też własną odezwę, w której podkreślają, że rozwiązania technologiczne muszą być analizowane pod kątem ich zgodności z prawem międzynarodowym. Taki wymóg nakłada np. konwencja genewska.

Obawy przywódców państw

Stawka jest wysoka. Czy możemy być pewni, że autonomiczny system poprawnie rozpozna, kto jest żołnierzem, a kto jest cywilem? Czy zauważy różnicę między pojazdem wojskowym a rodziną jadącą samochodem na wycieczkę za miasto? Ludność cywilna, która nie uczestniczy w działaniach bojowych, nie może być celem ataków – naruszenie tego zakazu to zbrodnia wojenna. Co jednak z systemami, które wskażą cel wojskowy np. z 70-proc. prawdopodobieństwem, ale po odpaleniu rakiety okaże się, że był to jednak cel cywilny?

Odpowiedzialność spadłaby na człowieka (dowódcę) oraz państwo, które postanowiło taki system wdrożyć. Nie można w takiej sytuacji zrzucić winy na działania sztucznej inteligencji, próbując w ten sposób uwolnić się od odpowiedzialności. Dlatego Międzynarodowy Komitet Czerwonego Krzyża traktuje systemy, których efekty są „nieprzewidywalne”, jako niedopuszczalne i zaleca ich zakazanie. Tylko jak w przypadku AI ustalić, co może doprowadzić do „nieprzewidzianych efektów”? Szczegółów działania niektórych systemów, np. głębokich sieci neuronowych i ich procesów decyzyjnych właściwie nikt dokładnie nie rozumie. Wygląda więc na to, że pewne systemy i tryby działania muszą zostać zabronione. Osobnym problemem będzie zdefiniowanie oraz przestrzeganie i egzekwowanie zakazu.

AI w domenie wojskowej

Tak zwanemu odpowiedzialnemu wykorzystaniu AI w domenie wojskowej poświęcono odezwę z lutego 2023 r., pod którą podpisali się reprezentanci 56 krajów, w tym Polski. Napisano w niej m.in. o potrzebie ograniczenia ryzyka dla ludności cywilnej oraz zagrożeniach związanych z wywołaniem przypadkowych szkód, gdyby coś wymknęło się spod kontroli. Podkreśla się konieczność pozostawienia odpowiedzialności człowieka, a także opracowania strategii państwowych dla odpowiedzialnego rozwoju AI w technice wojskowej. To także zadanie dla przyszłego rządu.

Trudno przewidzieć konsekwencje rozwoju sztucznej inteligencji. Parafrazując prof. Andrzeja Dragana, jak możemy ufać firmom rozwijającym AI, że poprawnie oszacują związane z nią ryzyko, skoro nie potrafią nawet przewidzieć konsekwencji swoich działań w kolejnych trzech dniach? To oczywiście aluzja do perypetii w radzie nadzorczej OpenAI, która zwolniła Sama Altmana, po czym zmieniła zdanie, gdy setki pracowników zagroziły odejściem, o ile dotychczasowy CEO nie wróci do firmy. Altman przeszedł na chwilę do Microsoftu, żeby zaraz znowu przejąć stery w OpenAI.

Tymczasem niektórych szefów firm i ich planistów biznesowo-politycznych wciąż zajmuje potencjalne wyzwanie stwarzane przez duże modele językowe (LLM) open source (o otwartym źródle), udostępniane publicznie. Chętni mogą je np. modyfikować lub przerabiać na modele specjalistyczne. Niektórzy politycy w Europie i w USA podchwycili temat, obawiając się, że otwarte udostępnianie modeli zwiększy ryzyko, że „niebezpieczne narzędzia” wymkną się spod kontroli. Te absurdalne, niczym niepoparte zarzuty przypominają dawne debaty o tym, czy należy zezwalać na otwarte publikowanie informacji o podatnościach bezpieczeństwa systemów i oprogramowania. W rzeczywistości poprawia to stan światowego cyberbezpieczeństwa, a w niektórych sytuacjach wręcz wymusza na firmach wzmacnianie ochrony. Eksperci wiedzą, że nie ma alternatywy dla otwartości.

Otwarte modele AI

Meta, właściciel Facebooka, opublikowała modele LLAMA i LLAMA2, którymi bawią się teraz programiści i entuzjaści, rozwijając ich sposoby użycia. Jedna z takich zabaw doprowadziła do połączenia tych dwóch modeli w jeden (Goliat) o 140 mld parametrów. W niektórych testach wydajności scalony model dorównywał nawet zamkniętemu GPT4 od OpenAI. Goliata stworzył… anonimowy programista, przedstawiający się awatarem w stylu japońskiego anime. Scalenia dwóch modeli to sukces, którego zupełnie nie oczekiwali eksperci. Przychodzi ktoś szerzej nieznany i robi coś, co do tej pory uważano za niemożliwe. Na dodatek to działa i da się uruchomić na komputerze – nawet na takim w domu, a nie w ogromnym centrum obliczeniowym prywatnej firmy.

Otwarte modele mogą być już używane w praktyce na wiele sposobów. Przykładowo GitHub oferuje produkt Copilot, który automatycznie generuje kod programistyczny. Subskrypcja jest płatna, a model zamknięty. Odpowiednik „otwarty” również istnieje – można z niego korzystać lokalnie na komputerze, a nie z wykorzystaniem zdalnego serwera. Ma to swoje zalety: nie ma ryzyka wycieków danych, działania są prywatne, zarówno w kwestii celów, jak i wyników. System Code Llama w najsilniejszej wersji wymaga jedynie 32 GB pamięci RAM.

Standard w typowej, dobrej jakości stacji roboczej ma dziś więcej. Co więcej, tego kota nie można z powrotem schować do pudełka — rozwój jest ciągły i nieprzerwany. Przykładowo, pod koniec listopada Mozilla wypuściła rozwiązanie llamafile, które pozwala zamienić model AI/LLM w plik wykonywalny możliwy do uruchomienia na komputerze. Na różnych mikroarchitekturach (AMD64, ARM64) i na różnych systemach operacyjnych (np. Linux, Windows, macOS, NetBSD).

Czy ma więc sens blokowanie takich rozwiązań programistycznych? Nie. Chyba że ktoś chciałby to zrobić, aby utrudnić postęp w Chinach. Byłby to pierwszy przypadek, gdy realia geopolityczne wpływają na systemy o otwartych źródłach, a nawet na rozwój technik programistycznych. Groźne pomysły polityczne na blokady rozwoju nie powstrzymały Google przed wypuszczeniem największego w historii modelu LLM o 1600 mld parametrów. Uruchomienie go w warunkach domowych może być jednak trudne – odpowiedniego sprzętu nie da się kupić w sklepie, potrzebne jest do tego centrum obliczeniowe.

Na marginesie – w to, że AI jest jakąś superinteligencją, być może nie wierzą nawet duże firmy technologiczne, takie jak Microsoft, Google czy OpenAI. Amerykański Urząd Ochrony Praw Autorskich, jak wiele innych regulatorów, przygląda się wpływowi AI/LLM na rzeczywistość. Prosił więc o zgłaszanie opinii interesariuszy: spółki, obywateli, organizacje pozarządowe.

Według analiz prawników dużych firm LLM/AI to raczej urządzenie z tej samej kategorii co sprzęt audio-video czy nawet kserokopiarka. Co więcej, ich zdaniem, jeśli model generuje treść chronioną prawem – tekst, muzykę, film – odpowiedzialność powinna leżeć po stronie użytkownika – to on w końcu wpisał, co ma zostać wygenerowane. Logiczne, można temu ufać, w końcu to robota prawników. ©Ⓟ