Jednym z najważniejszych trendów ubiegłego roku była sztuczna inteligencja. Po tym jak OpenAI wypuściło do powszechnego użytku ChatGPT, technologia trafiła pod strzechy przeciętnych użytkowników internetu. Ten ruch zmusił wszystkie firmy, które do tej pory pracowały nad AI do wyłożenia kart na stół. Dlatego niemal każdy tydzień 2023 przynosił informacje o przełomowych produktach.

A także kolejne obawy - AI miało odebrać ludziom pracę, a nawet zniszczyć ludzkość. Nic takiego się jednak nie stało, a nawet Sam Altman ze spółki OpenAI zaczął w końcówce roku studzić oczekiwania, twierdząc że w 2024 nie ma co spodziewać się kolejnych przełomów. W kolejny rok wchodzimy z powszechnym dostępem do sprawnych i relatywnie tanich narzędzi wykorzystujących sztuczną inteligencję. To czas na urealnienie oczekiwań z nimi związanych i powszechne bezpieczne wdrożenia.

Jednym z najważniejszych globalnych trendów będzie w 2024 personalizacja – reklamy, wiadomości, słuchana muzyka, a nawet znajomości. Algorytmy zadbają, by użytkownicy kontaktowali się z najlepiej dobranymi partnerami, a jeśli takich nie znajdą – nic straconego. Będą mogli wejść w związek z aplikacją (Replika AI, Intimate czy Frever Voices, a docelowo pewnie także konwersacyjny bot na Facebooku).

Jednocześnie będzie trwała dalsza walka o kompensację za wykorzystywanie danych do uczenia algorytmów. Już dziś w USA pozwy o to złożyli pisarze, fotografowie i graficy, a w ostatnich dniach roku także dziennikarze. „The New York Times” będzie procesować się z Microsoftem i OpenAI.

Dziś mało się o tym mówi, ale ta moneta będzie miała też rewers – jak czyli konieczność zadbania o to, by w AI znalazły się odpowiednie dane na przykład odnoszące się do polskiej kultury. Przykład? Dziś, kiedy poprosić ChatGPT o zaproponowanie kilku obrazów przedstawiających Boże Narodzenie, można uzyskać obszerną informację, ale w większości o płótnach, które są w amerykańskich zbiorach. Danych z tamtejszych galerii użyto bowiem do treningu modelu.

Walka o dane będzie zresztą jednym z kluczowych tematów. W UE trwają dyskusje o Europejskiej przestrzeni danych zdrowotnych (EHDS), która pozwoli na obrót danymi na terenie UE. Gra toczyć się będzie o to kto i jak będzie je mógł wykorzystywać. To ważne zwłaszcza w Polsce, gdzie zaufanie do państwa jako brokera danych spadło na łeb na szyję choćby po aferze Adama Niedzielskiego (jako minister zdrowia udostępnił na X dane o recepcie, którą wypisał sobie krytykujący go lekarz). Dziś większe zaufanie mamy do prywatnych firm, które mogą je wykorzystać uzyskując dostęp do ogromnych zbiorów danych, trenując na nich swoje rozwiązania, a później sprzedając je społeczeństwu, które użyczyło tych cennych informacji. Warto zadać sobie pytanie o konsekwencje.

W nadchodzącym roku będzie trwała również dyskusja o tym, by Europa nie tylko była mistrzem świata regulacji przestrzeni cyfrowej (w 2023 i 2024 wprowadzone zostanie co najmniej kilka dużych regulacji tej sfery, m.in. Akt o sztucznej inteligencji) ale zaczęła liczyc się też w przemyśle AI. Tu liderką jest póki co Francja, która inwestuje miliardy w fundusze dla startupów. Podobne rozwiązanie zapowiedział też w wywiadzie dla DGP wicepremier i minister cyfryzacji Krzysztof Gawkowski. Już dziś pod egidą MC trwają prace nad polskim wielkim modelem językowym – PLLuM.

W Polsce jednym z najważniejszych wątków będzie nie rozwijanie technologii konsumenckich, a próby wprowadzenia sztucznej inteligencji do sektora publicznego. AI już jest używane powszechnie w Spółkach Skarbu Państwa. Grupa Azoty na przykład wykorzystuje technologię w obszarze rolnictwa precyzyjnego. Dzięki danym satelitarnym opracowano w niej system wsparcia gospodarstw, który pozwala zoptymalizować wykorzystanie przez nie nawozów.

Najważniejsze jednak dopiero przed nami – to te miejsca, gdzie technologia będzie służyła państwu w bezpośrednim styku z obywatelami. Taka koncepcja może kojarzyć się z „Raportem mniejszości”. To dystopijna wizja przyszłości, w której system wskazywał i zamykał w izolacji morderców zanim popełnią zbrodnię. Co prawda pozwolił pozbyć się problemu przestępczości, ale za to rażąco naruszał prawa człowieka. Choć może wydawać się przesadzona, w Holandii w 2019 media ujawniły, że organy podatkowe używały AI do tworzenia profili ryzyka w celu wykrycia wyłudzania zasiłków, a władze karały rodziny już za samo to, że system je oflagował.

Wypośrodkowanie skuteczności i ochrony praw obywateli wydaje się więc największym wyzwaniem stojącym przed politykami, którzy chcieliby wprowadzać sztuczną inteligencję w administrację publiczną. Pomocne może być z jednej strony stopniowe wprowadzanie rozwiązań. Z drugiej – pełna, ludzka kontrola nad ich stosowaniem. Choć mało kto o tym wie, już dziś jest tak w Zakładzie Ubezpieczeń Społecznych. Kluczowe problemy, na które musi odpowiedzieć instytucja to: duża ilość danych (samych zwolnień lekarskich wpływa tam 2 mln miesięcznie) oraz zbyt mała liczba pracowników zdolnych te dane obsłużyć. ZUS angażuje więc algorytmy do wykrywania nieprawidłowości. W ubiegłym roku pilotaż rozszerzono także na typowanie firm do kontroli pod kątem opłacania składek. Jak zapewniał mnie wiceprezes ZUS, to nadal tylko pomoc, a faktyczne naruszenia są stwierdzane po kontrolach prowadzonych przez żywych pracowników.

W budowie zaufania do AI pomocna będzie tu z pewnością współpraca z obywatelskimi organizacjami i transparentność. Tej zabrakło w poprzedniej kadencji resortowi pracy. W odpowiedzi na jedną z interpelacji poselskich znalazła się informacja, że ministerstwo stosuje AI w jednostkach organizacyjnych pomocy społecznej. To z mocy ustawy m.in. ośrodki pomocy społecznej czy ośrodki interwencji kryzysowej. Od września staram się ustalić kto konkretnie korzysta ze sztucznej inteligencji, w jakich sprawach AI pomaga urzędnikom, co to za systemy i kto sprawuje nad nimi nadzór. Nie otrzymałam jednak odpowiedzi.

Ministerstwo Sprawiedliwości pod rządami Zbigniewa Ziobry zaczęło badać możliwości wprowadzenia systemów AI w sądownictwie. W ubiegłym roku resort powołał nawet zespół wdrożeń nowoczesnych technologii, a kwietniu zorganizował dwudniową konferencję dotyczącą wprowadzania AI w pracę prawników. Ma za sobą także uruchomienie pierwszego pilotażu monitoringu wizyjnego w zakładzie karnym w Chełmie. W maju działania MS podsumuje sejmowa komisja cyfryzacji.

Wyzwań będzie sporo, ale najważniejsze to walkę o postawienie człowieka w centrum rozwoju technologii. Tak, by to on kontrolował AI, a nie odwrotnie.