Twórca ChatGPT spotyka się z europejskimi politykami, by rozmawiać o ramach prawnych dla rozwoju AI. W UE trwają właśnie prace nad ich ostatecznym kształtem.

Rozwój sztucznej inteligencji, jej wpływ na gospodarkę i społeczeństwo oraz kwestie związane z regulacjami prawnymi dotyczącymi wykorzystania AI – to tematy, o których Sam Altman, dyrektor zarządzający OpenAI, rozmawiał wczoraj z premierem Mateuszem Morawieckim i Pawłem Lewandowskim, wiceministrem cyfryzacji. Spotkanie było częścią objazdu Altmana po Europie. Twórca ChatGPT ma na liście m.in. Lizbonę, Madryt, Brukselę, Paryż, Londyn i Monachium. Co ciekawe, Warszawy początkowo nie było w planach – decyzja o tym, że Sam Altman odwiedzi nasz kraj, zapadła niecały tydzień temu.

– To była świetna dyskusja o szansach dotyczących AI oraz zagrożeniach. Rozmawialiśmy też o tym, co Polska może zrobić, by zostać dużym graczem tego rynku – powiedział po spotkaniu Altman. Agendę potwierdził rzecznik rządu Piotr Müller.

W każdym odwiedzanym kraju założyciel OpenAI ma podobny scenariusz, w którym na pierwszy plan wysuwa się rozmowa o regulacjach. I nic dziwnego – w Unii Europejskiej trwają właśnie prace nad pierwszym kompleksowym aktem prawnym dotyczącym AI. Tekst tzw. AI Act został zaproponowany przez Komisję Europejską, później pracowały nad nim komisje Parlamentu Europejskiego oraz Rada Europejska. Na połowę czerwca zaplanowano natomiast głosowanie na posiedzeniu plenarnym PE.

Ostateczny kształt dokumentu zostanie wypracowany w trilogu, czyli nieformalnych negocjacjach przedstawicieli trzech unijnych instytucji. To kluczowy moment: z analizy prof. Konstantego Adama Wojtaszczyka, politologa z UW, wynika, że 96 proc. wynegocjowanych tam aktów prawnych jest przyjmowanych bez poprawek w PE i Radzie. Na przebieg trilogu znaczący wpływ mają reprezentacje rządów krajów UE.

Jakie rozwiązania dla AI widzi Altman? W ubiegłym tygodniu szef OpenAI był przesłuchiwany przed amerykańskim Kongresem. Mówił wówczas o agencji wydającej licencje na prace nad dużymi modelami językowymi. Tuż przed jego przylotem do Polski OpenAI opublikowała natomiast oświadczenie, w którym domaga się ogólnoświatowej agencji ds. AI na wzór Międzynarodowej Agencji Energii Atomowej, a także jakiejś formy kolektywnej kontroli nad systemami AI, w której obywatele świata mieliby głos. Na Twitterze Altman zaznaczył jednak: „ważne jest, aby wszelkie takie regulacje nie ograniczały sztucznej inteligencji poniżej wysokiego progu zdolności”.

I to zdanie może być kluczem do zrozumienia jego podejścia do regulacji. Altmanowi chodzi o silną czy inaczej generalną sztuczną inteligencję (AGI), czyli system tak zaawansowany, że przewyższający zdolnościami człowieka. Naukowcy są zgodni: na razie takiej AI jeszcze nie ma, a dyskusje o tym, czy kiedykolwiek maszyny osiągną takie zdolności, trwają. Nawet współzałożyciel OpenAI, Polak Wojciech Zaremba, przyznaje, że mowa o perspektywie 10 lat. Mimo to na wielu spotkaniach Altman zdradza, że z powodu AGI obawia się o przyszłość ludzkości.

– To celowe odsuwanie uwagi od głównego problemu – uważa Filip Konopczyński, prawnik z Fundacji Panoptykon, który na bieżąco przygląda się pracom nad europejskimi regulacjami. Mają one objąć nawet proste systemy AI. Takie, które wspomagają nas już dziś. – Tu i teraz OpenAI zbiera szable, które w trilogu poprą propozycje Microsoftu. Te dwie firmy należy traktować jak jeden organizm – mówi i przypomina, że technologiczny gigant jest głównym inwestorem OpenAI i obecnie wdraża zaprojektowane tam rozwiązania do większości swoich usług.

– Na finiszu prac w PE dosłownie z dnia na dzień pojawiały się kolejne wersje projektu, zawierające rozwiązania, o których nie mówiono wcześniej ani w Komisji, ani w Radzie. W ostatniej chwili wprowadzono tam choćby kategorię „modeli podstawowych”, obejmującą duże modele językowe. Firmy, które będą je oferować, będą mogły się liczyć z karami do 2 proc. przychodu za naruszanie przepisów AI Act. To obecnie najniższa wartość w całym dokumencie – punktuje Konopczyński.

Mali przedsiębiorcy zajmujący się rozwojem sztucznej inteligencji zwracają z kolei uwagę, że jeśli poprawki się utrzymają, ograniczą one konkurencję, ponieważ nakładają nawet na najmniejsze start-upy takie same obowiązki (informacyjne, techniczne, jakości danych itp.), z jakimi będą mierzyły się ogromne korporacje. ©℗