Piszesz na smartfonie, a tam wyskakuje okienko: „Hej! Czy na pewno chcesz to robić? Przepraszam, ale nie mogę na to pozwolić, usuwam te treści. Dla Twojego dobra informuję Państwową Komisję Prawomyślności, inspektora bhp, Państwową Inspekcję Pracy, Straż Pożarną, policję i Poradnię Zdrowia Psychicznego, gdzie masz wizytę na jutro o 8:00, przyjdź na czczo”. Model AI wykrył, że podejmowane działania mogą być nie do przyjęcia wobec uznanych przez kogoś standardów. Może były złe, nienawistne, dezinformujące. A może tylko dotyczyły rzeczy, o których ktoś uznał, że nie należy w taki sposób mówić. Asystent sztucznej inteligencji uratował dzień – nie doszło do propagacji nieprawomyślnych treści przez tego konkretnego obywatela.

To szczęśliwie scenariusz fikcyjny, ale Google wprowadza system oparty na modelu AI zaprojektowany do ostrzegania użytkowników Androida przed oszustwami telefonicznymi. Działający lokalnie na urządzeniu model analizuje rozmowy, aby wykryć podejrzane schematy językowe. To jednoznacznie dobre – pomoże uchronić ludzi przed oszustwami. W dodatku zachowana jest prywatność – dane pozostają na smartfonie użytkownika, nie są nigdzie przesyłane. Ta wspaniała innowacja ma na celu poprawę bezpieczeństwa. Ale rodzi również pytania o potencjalne zagrożenia związane z ingerencją AI w codzienne życie. W miarę jak modele AI są integrowane z oprogramowaniem i systemami operacyjnymi naszych smartfonów i komputerów, takich pytań będzie więcej. Wkrótce swoje propozycje integracji AI z oprogramowaniem prezentuje Microsoft i Apple. Z moich informacji wynika, że będą bardzo znaczące.

Wyobraźmy sobie przyszłość, w której AI monitoruje nie tylko rozmowy telefoniczne, lecz także nasze wiadomości tekstowe, e-maile i posty w mediach społecznościowych. Technologia taka mogłaby wykrywać i blokować treści uznane za szkodliwe, nielegalne lub nieprawomyślne. Wyobraźmy sobie, że system taki wdrożono, ponieważ światli reprezentanci narodów Ameryki i państw europejskich, głosujący w wyborach w 2024 r., uchwalili prawo wymagające od firm technologicznych modulacji zachowań społecznych. Precedens już jest – w tej kadencji Komisji Europejskiej opracowano prawo wymagające skanowania tego, co wysyłamy za pomocą komunikatorów, w poszukiwaniu treści nielegalnych i wykorzystujących dzieci, zatem dla ich dobra. Budowa takiej infrastruktury i praw jest jednak zawsze ryzykowna. Gdy to raz zostanie znormalizowane, zbudowane, wdrożone, wymagane prawnie – powstanie pokusa, by te działania poszerzać. Widzieliśmy w tej kadencji KE, jak w cudowny sposób rozmnożyły się regulacje dotyczące Zielonego Ładu, a nikt nie zapowiadał tego w poprzedniej kampanii wyborczej do Parlamentu Europejskiego.

AI to wielkie dobro. Technologia ta może usprawnić nasze życie. Premiera nowej funkcji od Google’a jasno to pokazuje. Zwiększy się bezpieczeństwo i odporność wobec ataków socjotechnicznych, kiedy ludzie są zwyczajnie oszukiwani. Dzięki asystentowi AI człowiek taki dostanie szansę, by zastanowić się, co się dzieje, i być może uchroni swoje oszczędności. Na naiwności i pośpiechu żerują cyberprzestępcy, protez – tak określiłem takie rozwiązania w „Filozofii cyberbezpieczeństwa” – za pomocą AI może wbudować niezbędny bezpiecznik.

Technoautorytaryzm to system, w którym rządy lub korporacje wykorzystują zaawansowane technologie do kontroli ludzi. Jego zbrojnym ramieniem mógłby być wspomniany już technofaszyzm. Jak się obronić? Technologiami, regulacjami oraz kartką i długopisem w czasie wyborów. Celowo mówię: kartką i długopisem, bo system techniczny przejmujący kontrolę nad urządzeniem mógłby nawet oddać za kogoś głos w wyborach przez internet. Apeluję do polskich polityków: nie idźmy tą drogą.

Badam ten obszar od ponad 15 lat, już po wyjściu ze specyficznego światka akademickiego napisałem publikację naukową na temat wartości i ich wpływu na standardy technologiczne. Projektowanie technologii z uwzględnieniem wartości – europejskich, praw człowieka, a nawet socjalistycznych – jest możliwe. By to robić, trzeba jednak rozumieć potrzebę i wiedzieć jak. Teoretycznie w Europie np. RODO ma skłaniać niektóre technologie do respektowania wartości europejskich, ale pewnie prawie nikt o tym nie wie. Może nie musi, bo w praktyce ważniejsze od teoretycznych rozważań na tak wysokim poziomie abstrakcji są konkrety. Aby rozumieć i robić i jedno, i drugie, trzeba jednak zaangażować kadry z odpowiednimi kompetencjami. W obszarze przełożenia wartości europejskich na standardy technologii UE ma wiele do nadrobienia. Szczególny problem mamy w Polsce, gdzie takich tematów ujętych z sensem ze świecą szukać w programach studiów nauk społecznych, inżynieryjnych, technicznych. Musimy mieć świadomość tego, jak bardzo wbudowujemy technologie w nasze życia. I w jaki sposób działanie technologii podporządkowywane jest priorytetom korporacyjnym lub politycznym. Wobec tego niezbędne są adekwatne regulacje i mechanizmy nadzoru. W Polsce powstanie komisja ds. sztucznej inteligencji i będzie działała na podstawie uchwalonego unijnego aktu o sztucznej inteligencji. Wątpliwe, by takie urzędy sprostały tym zadaniom. To za mało, gdy chodzi o ochronę naszych wartości w świecie przyspieszających technologii. Jednocześnie prawo nie może krępować rozwoju technologii, nauki i biznesu, a w tej mierze polityka technologiczna Unii Europejskiej niestety niedomaga, co widać po tym, jak wygląda akt o AI. Tam, gdzie powinien być skuteczny, jest ogólnikowy. Tam, gdzie w praktyce wymogi będą pozbawionym jakiegokolwiek sensu prawnym odhaczaniem zadań z listy – tylko stawia idiotyczne blokady innowacjom.

Rozwoju technologii nie da się zatrzymać. UE i Polska powinny wprowadzić przepisy chroniące podstawowe prawa i wolności. Potrzeba rozszerzyć RODO i akt o AI w stronę bardziej ogólną – w coś w rodzaju konstytucji dla rozwoju technologii. Tylko wtedy AI będzie mogła rzeczywiście służyć dobru publicznemu, a nie stać się narzędziem kontroli wymierzonej w nas. ©℗

* LL.M., niezależny badacz i konsultant, autor książek „Filozofia cyberbezpieczeństwa” (PWN, Warszawa 2022), i „Propaganda” (PWN, Warszawa 2024)