Twórca ChatGPT upomina się o regulacje sztucznej inteligencji. Byle na jego warunkach.

Trzy godziny trwało przesłuchanie Sama Altmana przed amerykańskim Kongresem. Twórca ChatGPT zeznawał razem z Christiną Montgomery z IBM oraz z prof. Garym Marcusem, badaczem sztucznej inteligencji. Kongresmeni wypytywali ich o kluczowe problemy związane z rozwojem technologii i opinie dotyczące planów uregulowania sektora.

Przesłuchania to standardowa procedura w Kongresie. Choć mają na celu poszerzenie wiedzy senatorów, przybierają czasem charakter politycznego show (są zwykle transmitowane na żywo i spotykają się z podobnym zainteresowaniem jak polskie sejmowe komisje śledcze). Tym razem senatorowie byli jednak konkretni i skupieni na temacie. I nic dziwnego, bo – jak w czasie przesłuchania kilkakrotnie padało na sali – AI to być może najważniejsza z dotychczas wynalezionych przez ludzkość technologii.

Kiedy przed kongresmenami stają menedżerowie firm technologicznych, zwykle muszą oni się mierzyć z oskarżeniami dotyczącymi nieuczciwych praktyk. Tym razem świadkowie byli raczej głosem doradczym – w USA, podobnie jak w Europie, trwa dyskusja o tym, czy i jak regulować rozwijającą się technologię. Senatorowie chcieli się przekonać, w jakim kierunku powinno zmierzać tworzone prawo.

Sam Altman już w wystąpieniu wstępnym zaznaczył, że opowiada się za regulacją AI. Jego zdaniem w USA powinna zostać powołana specjalna rządowa agencja, której zadaniem byłoby licencjonowanie wielkich modeli językowych (na tej technologii opiera się m.in. ChatGPT) i cofanie takiej licencji, jeśli nie spełniłyby one określonych przez rząd standardów.

Altman zaproponował także stworzenie zestawu standardów bezpieczeństwa dla modeli sztucznej inteligencji, w tym oceny ich niebezpiecznych możliwości. Zgodnie z pomysłem twórcy OpenAI modele musiałyby przejść określone testy bezpieczeństwa, które obejmowałyby m.in. ich zdolność do działania na własną rękę. Trzecim punktem jego planu byłoby wdrożenie niezależnych audytów.

Wdrożenie pewnych regulacji poparła też Christina Montgomery z IBM. Jej pomysł różnił się jednak od forsowanego przez Altmana. – To czas, by uregulować szczególne przypadki użycia AI, ale nie samą technologię – zaznaczyła i dodała, że jej zdaniem powinno się szacować ryzyko związane z użyciem systemów opartych na sztucznej inteligencji i regulować ich wykorzystanie. Mniej więcej taki pomysł jest w grze w Unii Europejskiej. 11 maja komisje rynku wewnętrznego i handlu Parlamentu Europejskiego przyjęły tekst AIAct. Prawdopodobnie jeszcze w czerwcu odbędzie się nad nim głosowanie plenarne.

Takie podejście wzbudziło jednak sceptycyzm wśród senatorów. Republikański kongresmen Lindsey Graham bardzo szczegółowo dopytywał, dlaczego IBM jest przeciwko utworzeniu specjalnej agencji ds. AI, a menedżerka odpowiadała jedynie, że jej zdaniem dotychczasowe narzędzia kontroli wystarczą.

To zresztą powtarza się w wypowiedziach również przedstawicieli innych technologicznych korporacji. Na początku maja w czasie panelu dyskusyjnego na World Economic Forum Michael Schwarz z Microsoftu argumentował, że „AI nie powinno się regulować, dopóki nie zobaczymy, że wyrządza komuś krzywdę”.

Senator Marsha Blackburn (republikanie) chciała wiedzieć, jak założyciel OpenAI zamierza kompensować artystom to, że jego narzędzia były trenowane na pracach objętych prawami autorskimi. Amy Klobuchar (demokraci) dodała do tego zbioru także prasę. To był zdecydowanie najsłabszy punkt wystąpienia Altmana. Zapewnił co prawda, że twórcy powinni być beneficjentami technologii, ale pytany o konkrety migał się od odpowiedzi.

Senatorowie próbowali też zbadać, jaki potencjalnie wpływ AI może mieć na wyniki nadchodzących wyborów prezydenckich. Profesor Marcuse przewidywał, że sztuczna inteligencja doprowadzi do sytuacji, w której reklamy będą „hiperdokładnie targetowane”. Ostrzegał też, że należy patrzeć na ręce twórcom takich narzędzi, bo „ci, którzy wybiorą dane (służące do trenowania algorytmów – red.), zyskają wpływ na kształt społeczeństwa”.

Choć Altman potwierdził, że obawia się dezinformacji, przypomniał, że generatywna sztuczna inteligencja dostarcza jedynie narzędzi, ale treści są rozsiewane za pomocą social mediów. I to one – razem z nieprzejrzystymi algorytmami rekomendacji treści – nadal są nierozwiązanym przez kongres problemem. ©℗

AI to być może najważniejsza z wynalezionych przez ludzkość technologii