Zawirowania w OpenAI pokazują, że stawka w grze o rozwój sztucznej inteligencji jest naprawdę wysoka.
Sam Altman i ponad 500 pracowników OpenAI mieli przejść do Microsoftu, a start-up, który rok temu wypuścił ChatGPT, był o krok od upadku – tak wyglądała sytuacja po trzęsieniu ziemi, jakie w ubiegły weekend przetoczyło się przez tę technologiczną firmę. Co je wywołało? Część teorii wskazuje na pałacowy przewrót we władzach spółki, inne na strategię biznesową Microsoftu. Są i tacy, którzy tłumaczą przetasowania próbą ograniczenia ryzyka dla ludzkości, jakie stwarzało rozwijanie sztucznej inteligencji przez Altmana i jego współpracowników.
OpenAI to specyficzna firma technologiczna. Początkowo przypominała bardziej stworzone przez ekscentrycznych miliarderów laboratorium. Wśród założycieli znaleźli się Elon Musk (właściciel m.in. SpaceX i Tesli), Peter Thiel (przedsiębiorca i inwestor, który dorobił się na wspólnym z Muskiem projekcie PayPal) czy właśnie Sam Altman – wówczas prezes inkubatora startupowego Y Combinator. Ogłosili, że będą pracować nad rozwojem sztucznej inteligencji sprzyjającej ludzkości, w odróżnieniu od nastawionych na zysk gigantów, takich jak Google. Stery w OpenAI przejął Altman.
Wystarczyły jednak dwa lata, by wizja okazała się utopijna, a do realizacji celów konieczne stały się większe pieniądze. OpenAI zwolniło część załogi, z projektu usunął się Musk, a Altman, który zawsze był bardziej lobbystą niż inżynierem, wyruszył na poszukiwanie finansowania. Znalazł je w Microsofcie – ponoć Altman i dyrektor generalny korporacji Satya Nadella spotkali się przypadkowo na konferencji biznesowej i szybko dobili targu.
Jak uważają analitycy, w zawartej wówczas umowie Microsoft miał zapewnić zastrzyk gotówki i miejsce w chmurze obliczeniowej, natomiast OpenAI – wyłączne prawo do licencjonowania swojej technologii dla przyszłych produktów. – W kilka lat OpenAI stało się de facto zewnętrznym centrum badawczym Microsoftu – uważa Filip Konopczyński, zajmujący się rozwojem sztucznej inteligencji analityk fundacji Panoptykon.
W firmie pojawiły się naciski na jak najszybszy rozwój technologii. Poważny konflikt towarzyszył choćby premierze ChatGPT w listopadzie 2022 r. – początkowo miał on zadebiutować dopiero w marcu 2023 r.
Choć związki z Microsoftem były coraz mocniejsze, struktura OpenAI pozostawała rodem ze start-upu – nadzór stanowi „rada dyrektorów”, czyli ciało łączące zarząd i radę nadzorczą w europejskim rozumieniu. W radzie OpenAI zasiadały jednak nie wybrane przez akcjonariuszy białe kołnierzyki, ale: Greg Brockman (de facto to on odpowiadał za technologiczną stronę OpenAI), Ilija Sutskever (główny naukowiec), Sam Altman (dyrektor zarządzający) i trzy osoby, które nie były pracownikami spółki. Tasha McCauley jest inżynierem robotyki i dyrektorem generalnym GeoSim Systems, firmy tworzącej oprogramowanie dla branży robotyki. Prywatnie – żoną amerykańskiego aktora Josepha Gordona-Levitta. Helen Toner to australijska badaczka technologii – jest szefową strategii w Center for Security and Emerging Technology (CSET) uniwersytetu w Georgetown. Miejsce w radzie zajmowała dwa lata. Kiedy zapraszano ją do tego ciała, OpenAI przekonywał, że docenia jej działania na rzecz transparentności w rozwoju AI.
Czytaj także: ChatGPT napisał prawo w Brazylii. Rozwiązanie problemu zajęło mu 15 sekund
Adam D’Angelo to współzałożyciel i dyrektor generalny Quora (w którego starcie pomógł prowadzony przez Altmana Y Combinator). Zaczynał w Facebooku, gdzie pełnił funkcję dyrektora ds. technologii. Dołączył do zarządu w 2018 r. i deklarował, że chodzi mu o bezpieczeństwo rozwoju sztucznej inteligencji.
Wyraźnie widać więc, że w radzie ścierały się dwie siły – idealiści przekonani o tym, że AI to niebezpieczna technologia, którą należy ostrożnie ulepszać, i biznesmani, którzy – choć deklarowali ten sam zestaw wartości – na koniec dnia musieli dowozić finansowe wyniki i dbać o przetrwanie start-upu.
Wubiegły piątek na stronie OpenAI pojawiło się oświadczenie rady o tym, że Sama Altmana usunięto z funkcji dyrektora zarządzającego. Był to wstrząs dla pracowników spółki, jak i technologicznego światka w Dolinie Krzemowej. Jak donoszą amerykańskie serwisy informacyjne, Altman dowiedział się o wszystkim pół godziny przed publikacją komunikatu. Greg Brockman, którego przymuszono do rezygnacji z funkcji prezesa zarządu, miał poznać jego treść pięć minut przed upublicznieniem. Pracownicy zapoznali się z sytuacją równocześnie z internautami.
Oficjalny powód? „Zarząd nie ma już zaufania do jego zdolności dalszego kierowania OpenAI” – można było przeczytać w komunikacie. Dalej znalazło się oświadczenie, że „odejście pana Altmana jest następstwem przemyślanego procesu oceny przez radę, która doszła do wniosku, że nie był on konsekwentnie szczery w komunikacji”. Zaznaczono również, że istnieje rozbieżność między misją spółki a kierunkiem, w którym prowadzi ją Altman. Na stanowisku miała zastąpić go Mira Murati, dotychczasowa dyrektor ds. technologii.
W sobotę na X (dawniej Twitter) rozpoczęła się akcja poparcia dla Altmana (sam serwis jeszcze kilka razy stanie się dla pracowników użyteczną platformą komunikacji i skutecznym narzędziem wpływu). Wpis założyciela, który ogłosił, że kocha OpenAI, podawany był dalej z komentarzem w postaci symbolu serca. Jak się okazało, każdorazowo oznaczało to deklarację poparcia i zobowiązanie do odejścia z firmy wraz z Altmanem. Do łańcuszka przyłączyła się nawet Mira Murati, a papierami rzucili członkowie „polskiego korpusu” w firmie: szef GPT4 i dyrektor ds. badań Jakub Pachocki, zarządzający ryzykiem AI prof. Aleksander Mądry, programista odpowiedzialny za open source Szymon Sidor.
Pojawiły się plotki, że cała ekipa odchodząca z Open AI otworzy nowy start-up. Ale na tym sprawa się nie skończyła – wśród śledzących temat gruchnęła wieść, że Altman był gotów powalczyć o powrót: wyznaczył radzie czas do niedzielnego popołudnia, by przywrócić go na stanowisko. Altman nakręcał też atmosferę poprzez publikację statusów na X: kiedy pojawił się w siedzibie OpenAI, zrobił zdjęcie z groźną miną i plakietką „gość”. Zamieścił przy tym komentarz, że nosi ją pierwszy i ostatni raz.
Mediatorem między radą a Altmanem był Satya Nadella. I choć wydawało się, że spór zostanie zażegnany, porozumienie nie zostało osiągnięte. Altmana zastąpił go Emmett Shear, twórca Twitcha, który to serwis – o, ironio – wystartował dzięki Y Combinator.
W reakcji na decyzję władz spółki Satya Nadella ogłosił, że ma dla jej założyciela propozycję dołączenia do Microsoftu, a pracownicy OpenAI lojalni wobec Altmana zaczęli na X skoordynowaną akcję. Tym razem pisali „OpenAI bez ludzi nie istnieje”. A Nadella i związani z Microsoftem pracownicy składali publiczne oświadczenia, że dla rozbitków z okrętu OpenAI zawsze znajdzie się u nich miejsce. 505 z 700 pracowników OpenAI podpisało list otwarty, deklarując, że odejdą, jeśli Altman nie wróci do spółki.
Wydawało się, że sprawa na tym się zakończy, Altman i większość załogi zostanie de facto przejęta przez Microsoft, a rada będzie w zasadzie zarządzać masą upadłościową. Tymczasem we wtorek na stronie OpenAI pojawiło się oświadczenie, że Altman wraca do firmy jako dyrektor zarządzający. Zmienia się natomiast rada spółki. W jej skład mają teraz wejść: Bret Taylor (start-uper, który pracował m.in. w Google’u i Facebooku, a do końca 2022 r. związany z Salesforce), Larry Summers (były sekretarz skarbu USA) i Adam D’Angelo (członek jej wcześniejszego składu). Misja nowego zarządu, jak twierdzi serwis The Verge, to uspokojenie sytuacji. Docelowo rada ma liczyć dziewięć osób, a znaleźć się w niej mają m.in. Altman oraz przedstawiciel Microsoftu. Jak pisał Bloomberg, firma ma naciskać też, by zarząd był bardziej profesjonalny, w domyśle: lepiej nastawiony do biznesowej strony OpenAI. Rada nie wyjaśniła dotąd, co stało za decyzją o zwolnieniu Altmana. Władze spółki zarzekają się teraz na X, że powołają niezależnego audytora, który to zbada. Pozostają domysły.
Pierwsza hipoteza zakłada, że zwolnienie Altmana ma związek z błędami w zarządzaniu. Na początku listopada odbyła się pierwsza konferencja dla deweloperów DevDay. Altman obiecał na niej m.in., że każdy będzie mógł programować swoich asystentów w stylu ChatGPT. Zainteresowanie przerosło jednak możliwości OpenAI – firma wstrzymała zapisy na swój plan subskrypcji premium, ChatGPT Plus. Chodzi o moc obliczeniową – modele generatywnej sztucznej inteligencji potrzebują jej ogromne ilości i nawet korzystnie z zasobów Microsoftu może okazać się niewystarczające. Dlatego OpenAI nie obejdzie się bez własnej infrastruktury.
Być może zarządowi nie podobało się, że Altman poszukuje finansowania m.in. na Bliskim Wschodzie. Za pieniądze szejków chciał stworzyć firmę, która budowałaby półprzewodniki zwiększające możliwości obliczeniowe OpenAI. Jak mówią nam obserwatorzy rynku, wizja tej współpracy to mogło być dla rady zbyt wiele. Co innego brać pieniądze od wielkich korporacji, a co innego – od autorytarnego reżimu.
Inni analitycy podają, że chodziło o sprawy personalne. „New York Times” napisał, że powodem perturbacji był konflikt Altmana z głównym naukowcem, współzałożycielem firmy i członkiem zarządu, Iliją Sutskeverem (który nie znalazł się w nowej radzie). Sutsvekera, który wcześniej pracował dla Google’a, ściągnął do Open AI Elon Musk. Ostatnio zaś awansowali w firmie ludzie związani z Altmanem, między innymi wspomniany już Pachocki. – Sutskever reprezentuje grupę, która wolałaby widzieć OpenAI jako kolektyw badawczy: wspierany przez miliarderów, ale samodzielnie decydujący o kierunku czy stylu pracy. Altman stawiał na logikę opartej na marketingu biznesowej konkurencji, czym skutecznie pozyskiwał nowych inwestorów. Trudno to pogodzić ze sposobem działania w nauce, gdzie celem powinno być szukanie prawdy, a nie zysku – uważa Konopczyński. Za hipotezą o tym, że sednem konfliktu była wizja rozwoju firmy przemawia nominacja chwilowego następcy Altmana. Emmet Shear należy do tzw. AI doomers, którzy przestrzegają przed zagrożeniami wynikającymi z prac nad sztuczną inteligencją. Jak podał „The New York Times”, zasiadająca w radzie Helen Toner była współautorką artykułu naukowego, który krytykuje OpenAI za zbyt szybkie udostępnienie ChatGPT. Miało to doprowadzić do paniki w innych firmach rozwijających AI i „przyspieszenia lub obejścia wewnętrznych procesów kontroli bezpieczeństwa i etyki”. Ponoć dyskutowała z Altmanem na temat tego artykułu kilka dni przed jego wyrzuceniem.
Nic też dziwnego, że wśród komentarzy w social mediach pojawiły się teorie spiskowe dotyczące rozwoju tzw. silnej sztucznej inteligencji, której zdolności pozwoliłyby na samodzielne, niezależne od człowieka działanie, a jej możliwości przewyższały ludzki intelekt. Część komentatorów twierdziła, że Altmanowi udało się stworzyć produkt tak zaawansowany, że rada musiała go powstrzymać przed jego upublicznieniem.
Tę teorię w czwartek rano podgrzała Agencja Reutera. Według jej doniesień w dniach poprzedzających wyrzucenie Altmana kilku pracowników naukowych napisało list do rady. Ostrzegali w nim przed odkryciem, które według nich może zagrozić ludzkości. List dotyczył projektu pod kryptonimem Q* (czyt. Q-Star). Czy o to poszło? Reuters przypomina też, że dzień przed zwolnieniem Altman miał wystąpienie na szczycie Asia-Pacific Economic Cooperation. Powiedział wtedy, że cztery razy w historii OpenAI miał okazję być świadkiem przełomu. Ostatnio w ciągu kilku minionych tygodni.
Jak przekonuje Jan Oleszczuk-Zygmuntowski, ekonomista z Akademii Leona Koźmińskiego, straszenie rozwojem AI dzieje się od lat i ma zupełnie inne cele niż ograniczenie jej rozwoju. – To zasłona dymna dla prawdziwych problemów – mówi i wylicza: – Łamanie prawa autorskiego, kradzież własności intelektualnej do szkolenia modeli, korzystanie z danych osobowych, brak regulacji czy próby budowania monopoli.
– Jeśli badacze uważają, że pracują nad sztuczną inteligencją, która jest niebezpieczna, to powinni sami jako branża uregulować się kodeksami etycznymi, a nie czekać na ustawy czy rozporządzeni a – ironizuje Konopczyński. Takie próby były: petycję o wstrzymanie na pół roku prac nad wielkimi modelami językowymi (jak ChatGPT) popierał w ubiegłym roku Elon Musk. W międzyczasie przejął jednak programistów z zależnego od Google Deep Mind i uruchomił własny startup X.AI.
– Na zamieszaniu w OpenAI najbardziej korzysta konkurencja – nie ma wątpliwości jeden z topowych badaczy sztucznej inteligencji, z którym rozmawiamy. – Nie mówię tu tylko o Google’u czy Meta, ale przede wszystkim o Anthropic – dodaje.
To start-up technologiczny założony w 2021 r. Przez – a jakże – uciekinierów z OpenAI. Daniela i Dario Amodei krytykowali bliski związek OpenAI z Microsoftem. Chcieli rozwijać sztuczną inteligencję nie dla zysku. Tymczasem w lipcu 2023 r. zyskali 1,5 mld dol. finansowania. We wrześniu ogłoszono, że Amazon dołożył kolejne 4 mld, a w październiku Google obiecał im 2 mld dol. Choć firma jest młoda, zasiada przy stoliku z największymi graczami – od lipca bierze udział w rozmowach z administracją Joego Bidena w sprawie regulacji AI.
Jednocześnie zawirowania w Open AI, które umocniły pozycję Altmana, przysłużyły się też Microsoftowi, który dzięki przewrotowi w spółce praktycznie przejął nad nią kontrolę. ©Ⓟ