Nie wiem, czy w najbliższych latach komputery staną się świadome, ale jest bardzo prawdopodobne, że jeszcze w tym roku będziemy mogli samodzielnie zainstalować na komputerze lub komórce otwarty system sztucznej inteligencji.

Ponad 1 tys. badaczy i ekspertów od sztucznej inteligencji wystosowało do laboratoriów prowadzonych przez największe firmy – takie jak finansowany przez Microsoft OpenAI, Facebook czy Google – list otwarty wzywający do wstrzymania prac nad systemami sztucznej inteligencji. W przypadku braku reakcji ze strony tych firm sygnatariusze oczekują wprowadzenia moratorium przez rządy.

Wroga technologia czy złe korporacje

Sprawa jest paląca – uważają autorzy listu – bo ledwo co upubliczniono system GPT-4, potężne narzędzie, które potrafi produkować teksty przypominające te pisane przez ludzi, a już powstają kolejne, jeszcze doskonalsze rozwiązania. Ich zdaniem grozi nam więc powstanie „potężnych cyfrowych umysłów, których nikt nie zrozumie i których nikt nie będzie w stanie skontrolować”.

Odpowiedź przyszła szybko, jednak nie ze strony rządów, a tym bardziej firm, do których skierowany był list. Odezwała się druga, równie silna grupa ekspertów, według których autorzy alarmistycznego listu nieodpowiedzialnie szafują wizjami niesamowitych maszyn. Brną w futurystyczne wizje i wieszczą egzystencjalne ryzyka dla całej ludzkości, zamiast przyjrzeć się problemom ze sztuczną inteligencją tu i teraz. A te – ujmując sprawę skrótowo – dotyczą nie samej technologii, tylko kwestii władzy nad nią i jej koncentracji w rękach kilku potężnych korporacji.

Obie strony tej debaty zgadzają się co do jednego: pilnej potrzeby wypracowania reguł działania tych systemów, co raczej nie wydarzy się bez interwencji państwowej. A kluczowe mechanizmy, które należy wprowadzić, to różne formy otwartości i przejrzystości tych systemów – pozwalające je lepiej zrozumieć, nadzorować, a według niektórych również upowszechniać. I mniejsza z tym, jak wpłynie to na psychikę rodzących się być może cyfrowych umysłów. Chodzi bardziej o okiełznanie ich twórców i właścicieli.

W rozwoju sztucznej inteligencji pobrzmiewają więc tony futurystyczne, gdzieś w oddali widać wizje Lema, zagładę z rąk robotów z filmów o Terminatorze, ale też uroczą sztuczną osobowość z filmu „Ona” w reż. Spike’a Jonze’a. Lecz jest także historią bardzo wpisaną w rozwój internetu w ostatnich dekadach.

Od lat 90. XX w. jawił się on jako technologia wolności. Sieć, która w tym czasie rozwijała się gwałtowanie również w Polsce, faktycznie stworzyła nowe możliwości dla powszechnej komunikacji i twórczości, a próg wprowadzania innowacji był w niej bardzo niski. Jej symbolami stali się publikujący samodzielnie bloger oraz start-upowiec rozwijający firmę w garażu.

W stronę zysków

Ekonomistka prof. Carlota Perez dowiodła, że wszystkie rewolucje technologiczne przechodzą podobne fazy, dochodząc do momentu dojrzałości, gdy zazwyczaj następuje kolejna technologiczna eksplozja. Faktycznie, w pierwszej dekadzie XXI w. dojrzały internet zaczął się przekształcać. Na bazie otwartej formuły wyłoniły się pierwsze platformy: komercyjne serwisy – takie jak Twitter czy Facebook – odgrywające coraz bardziej dominującą rolę w pozornie zdemokratyzowanej sieci, w której każdy może być nadawcą, a nie tylko odbiorcą. W 2007 r. pojawił się pierwszy iPhone i rozpoczął rewolucję mobilną. Zajęła ona dekadę i pchnęła użytkowników w objęcia garstki komercyjnych aplikacji i sieciowej ekonomii opartej na pozyskiwaniu – w skali hurtowej i planetarnej – danych o użytkownikach.

Coraz bardziej popularna staje się diagnoza opisująca internet jako coraz bardziej schorowaną sieć, w której dotychczas swobodny obieg informacji został wyparty przez korporacje dyktujące warunki coraz większym rzeszom użytkowników. Okazało się, że otwarty internet jest świetną przestrzenią do rozwoju monopolistycznych gigantów, których wzrost jest jak samospełniająca się przepowiednia. Sieć pomyślana jako przestrzeń pełna niezależnych serwisów i amatorskich stron w ciągu kilku lat zmieniła całkowicie charakter. Twórcy stron stali się klientami komercyjnych serwisów, a użytkownicy z najmłodszych pokoleń nawet nie zawsze wiedzą, że istnieje internet poza granicami aplikacji takich jak TikTok.

Tu, w Europie, mogliśmy w ostatnich latach mieć poczucie, że jako społeczeństwa wreszcie porozumieliśmy się i znaleźliśmy sposoby na regulację działań gigantów. W zeszłym roku w Brukseli przyjęto dwa przełomowe akty ograniczające ich potęgę: akt o usługach cyfrowych i akt o rynkach cyfrowych. Tuż po ustanowieniu nowego prawa pojawił się jednak ChatGPT. System ten nie podlega tym przepisom, a rodzi podobne wyzwania wynikające z korporacyjnej kontroli nad kluczowymi środkami komunikacji.

Europa wprawdzie debatuje od kilku lat również nad aktem o sztucznej inteligencji, są to jednak projekty skupione na innych narzędziach niż ChatGPT: rozwiązaniach wysokiego ryzyka. Na przykład na wykorzystywanych dla skuteczniejszego nadzoru nad obywatelami systemach rozpoznawania twarzy oraz na pracach nad obszarami życia, w których decyzje podejmowane automatycznie przez systemy mogą być szczególnie zagrażające – w zdrowiu, edukacji czy w kwestiach dotyczących zatrudnienia. Może to brzmieć paradoksalnie, ale w ogóle nie wzięto pod uwagę sztucznej inteligencji w postaci pola tekstowego generującego wypowiedzi łudząco podobne do ludzkich. Czy generatora obrazków, który pomaga tworzyć memy o papieżu w puchówce od Balenciagi.

Niedawne eksperymenty pokazały, że generatory obrazów poproszone o zdjęcie radosnych osób przyklejają wszystkim amerykańskie uśmiechy. Czy jest to wielkie ryzyko dla ludzkości? Nie. A czy takie skrzywienie – że generowane zdjęcia profesorów pokazują przeważnie mężczyzn – jest problemem wymagającym zaadresowania? Zdecydowanie tak. Podobnie jak mnożące się pytania o automatyzację wielu zawodów (pisząc ten tekst, korzystałem z darmowego, automatycznego translatora i być może nigdy już nie zapłacę ani złotówki ludzkiemu tłumaczowi). Albo o wpływ na edukację – znam dzieci, które już piszą nudne rozprawki, przez ich sztampowy charakter idealnie nadające się do automatyzacji, z pomocą ChatGPT. Czy o problemy z dezinformacją, których ilustracją były zdjęcia schwytanego przez policję Donalda Trumpa na dwa tygodnie przed jego niedawnym procesem sądowym (w rzeczywistości nie doszło do jego ujęcia przez funkcjonariuszy).

Skala i rozpiętość tych wyzwań jest ogromna, jednak widać wspólny mianownik wielu pomysłów na ich rozwiązanie. Kluczem są zadawane od dekad w odniesieniu do internetu pytania o otwartość technologii. Może się wydawać, że sztuczna inteligencja to kolejna rewolucja technologiczna centralizująca cyfrową władzę – kontrrewolucja wobec wcześniejszych dekad, w których rozwijał się otwarty internet. Rozwój systemów sztucznej inteligencji pod jednym względem różni się jednak od losów wcześniejszych technologii cyfrowych. Szybko okazało się, że skończył się mit garażowego start-upu, cyfrowej wersji „od pucybuta do milionera”, która trafnie opisywała rozwój wszystkich przyszłych gigantów: Apple’a, Microsoftu, Google’a czy Facebooka. Rozwiązania sztucznej inteligencji nie powstają w garażach, lecz w wyspecjalizowanych jednostkach badawczych tychże firm, z wielomiliardowymi budżetami badawczymi i dostępem do potężnej infrastruktury zapewniającej „compute”, czyli moc obliczeniową.

Symboliczne znaczenie ma opisana na tych łamach w tekście „Nerd certyfikowany” (DGP nr 69/2023 z 7–10 kwietnia 2023 r.) historia firmy OpenAI, która stworzyła ChatGPT. Początkowo była to fundacja, która w misję miała wpisana upowszechnianie technologii sztucznej inteligencji przez otwarte dzielenie się swoimi rozwiązaniami (stąd nazwa). Idylla nie trwała długo. Już w 2019 r. NGO stał się firmą. Jej kierownictwo twierdzi, że tylko w tej formule możliwe było pozyskanie środków niezbędnych, by prowadzić prace badawcze. W tym samym roku 1 mld dol. zainwestował w firmę Microsoft, a OpenAI ogłosiło powstanie GPT-2, pierwszego z rodziny systemów zdolnych generować teksty porównywalne z pisanymi przez ludzi. Nie został on udostępniony ogółowi, tylko wąskiemu gronu tytułów prasowych. Kierownictwo OpenAI twierdziło, że system jest zbyt niebezpieczny, by go upublicznić, umożliwia bowiem automatyzację dezinformacji. Niektórzy widzieli w tym jedynie marketingowy popis, eksperci nie byli zgodni, na ile technologia jest faktycznie ryzykowna. Po wewnętrznym audycie kod GPT-2 uznano za niegroźny i został publicznie udostępniony po niecałym roku. Sytuacja ma się inaczej w przypadku kolejnych wersji systemu – GPT-3 i GPT-4. Te są dostępne jedynie poprzez tzw. API, rodzaj ściśle kontrolowanej bramki, która pozwala zarówno innym firmom, jak i zwykłym użytkownikom korzystać z systemu pod ścisłą kontrolą OpenAI. Twórcy, kierownicy i właściciele firmy zarzekają się, że kieruje nimi nie tylko logika rynkowej konkurencji, lecz także zasady odpowiedzialnego rozwoju sztucznej inteligencji. Upublicznienie ryzykownych – a może nawet groźnych – technologii byłoby krokiem nierozważnym. OpenAI pozycjonuje więc siebie nie jako rynkowego monopolistę, tylko jako gwaranta rozwoju technologii, której nie należy wypuszczać na wolność.

Kontratak cyfrowych Dawidów

Tu historia dotychczasowego rozwoju sztucznej inteligencji mogłaby się zamknąć zgrabną klamrą – sygnatariusze listu otwartego żądają bowiem nie tylko wstrzymania prac, lecz także daleko posuniętej przejrzystości i otwartości systemów takich jak ChatGPT.

W połowie 2022 r. nastąpił jednak jeszcze jeden zwrot akcji. Okazało się, że systemy AI mogą być tworzone może nie w garażu, ale jednak przez podmioty będące niczym Dawid wobec internetowych Goliatów. Francuska firma Hugging Face ogłosiła stworzenie BLOOM, systemu generującego tekst podobnie jak ChatGPT. Nie tak skutecznego w naśladowaniu ludzi, ale stworzonego wspólnymi siłami przez ponad 1 tys. naukowców pracujących w modelu zbliżonym do Wikipedii. I tak jak wikipedyści gotowych na koniec podzielić się z ludzkością swoim systemem w sposób otwarty. Kilka tygodni później start-up Stability AI udostępnił system generujący obrazy Stable Diffusion.

Otwartościowy model tworzenia technologii i dzielenia się nią po raz kolejny rzucił wyzwanie dominującym na rynku podmiotom – tak jak wcześniej zrobiły to przeglądarka Firefox czy oprogramowanie dla serwerów Apache. Firma Hugging Face, podobnie jak OpenAI, mówi dużo o odpowiedzialnym rozwoju, ale też o demokratyzacji sztucznej inteligencji, która powinna trafić pod strzechy jako technologia otwarta i niepodlegająca korporacyjnej kontroli. Z kolei Stability AI zachowuje się jak sztampowy start-up wierzący w swobodną konkurencję i innowacyjność umożliwianą przez pozbawione ograniczeń technologie.

Rok temu wydawało się przesądzone, że nowe systemy sztucznej inteligencji przyczynią się do centralizacji władzy technologicznej i dominacji garstki firm nad naszymi społeczeństwami. Nadal może tak być. Wciąż będziemy toczyć też debatę, czy prawdziwym ryzykiem nie jest jednak powstanie potężnej, nieludzkiej inteligencji. Natomiast istnienie otwartych rozwiązań diametralnie zmienia dynamikę rozwoju sztucznej inteligencji. Nie wiem, czy w najbliższych latach komputery staną się świadome. Ale jest bardzo prawdopodobne, że jeszcze w tym roku będziemy mogli samodzielnie zainstalować na komputerze lub komórce system sztucznej inteligencji, który będzie otwarty i zdemokratyzuje zyski płynące z tych technologii. ©℗