Sam Altman chciał rozwinąć technologię potężnej sztucznej inteligencji tak bardzo, że zaprzedał duszę ChatGPT wielkiej korporacji.
Bluza z kapturem, dżinsy, adidasy – tak mógłby zaczynać się prawie każdy tekst o założycielach firm technologicznych – od Billa Gatesa – założyciela Microsoftu, przez Marka Zuckerberga, który wymyślił Facebooka, po Sama Bankmana-Frieda – CEO kryptowalutowej giełdy FTX. Sam Altman, 37-latek, który właśnie zaprowadził pod strzechy sztuczną inteligencję (AI), wyróżnia się z tego tłumu. Pod kamuflażem komputerowego nerda kryje się człowiek, który marzy, by w przyszłości tworzyć świadome maszyny, obalić kapitalizm i wydawać certyfikaty ludzkiego pochodzenia.
W spektrum
Zawodowa historia Sama Altmana zaczęła się, kiedy w wieku 19 lat z kolegami założył Loopt – aplikację, która pozwalała udostępniać w czasie rzeczywistym własną lokalizację. Prosty pomysł chwycił na tyle, że po kilku latach firma została sprzedana Green Dot Corporation za 43,4 mln dol. Altman, już z pokaźnym majątkiem, wziął się więc do inwestowania. W lutym 2014 r. został prezesem Y Combinator – instytucji, która wspierała innowatorów w uruchamianiu start-upów. Spod jej skrzydeł wyszły m.in. Dropbox, Airbnb, Reddit czy Twitch.
Razem z m.in. Elonem Muskiem (szefem Tesli i SpaceX), Peterem Thielem (współzałożycielem PayPala) i Jessicą Living stone (również pracowała w Y Combinator) w 2015 r. założył OpenAI – laboratorium rozwoju sztucznej inteligencji przyjaznej ludzkości. Miała to być odpowiedź na prace prowadzone w tajemnicy przez wielkie korporacje, takie jak Google. Podstawą projektu stały się miliard dolarów finansowania i przekonanie, że to niebezpieczne, gdy zyski są głównym motorem rozwoju potężnych modeli AI. OpenAI miało więc być organizacją non profit – także dla samego Altmana, który deklarował, że zarobił w przeszłości więcej, niż będzie potrzebował kiedykolwiek w przyszłości.
Pieniądze to dla niego tylko skutek uboczny na drodze do celu. „Jego pracowitość początkowo mnie zaniepokoiła, a potem stopniowo stała się ujmująca. Kiedy (…) zauważyłem, że nigdy nie chodzi do męskiej toalety, powiedział: będę ćwiczył częstsze chodzenie do łazienki, żebyście wy, ludzie, nie zorientowali się, że jestem A.I.” – napisał w 2016 r. Tad Friend z „The New Yorker”, który spędził z Altmanem kilka dni. Kiedyś CEO OpenAI miał usłyszeć od blogera pytanie: „Jak radzisz sobie z prowadzeniem firmy jako autysta?”. Najpierw się zirytował, ale potem przyznał, że w zasadzie rozumie, dlaczego ktoś mógł uznać, że jest „w spektrum”.
Choć pieniądze nie są ważne osobiście dla Altmana, z powodu ich braku niemal wywrócił się cały projekt OpenAI. Po dwóch latach działalności organizacja musiała rozstać się z częścią zespołu z powodu niespinającego się budżetu. OpenAI bardziej niż programistów potrzebowało mocy obliczeniowej, której wymagało przetwarzanie niewyobrażalnie dużych zbiorów danych niezbędnych do wytrenowania modelu językowego. Mówiąc prościej: maszyny, która będzie komunikowała się jak człowiek. Altman gorączkowo szukał finansowania. Jak podaje „The Wall Street Journal”, chciał nawet uruchomić własną kryptowalutę. Nie wyszło.
Napięcia pojawiły się także w zespole, z którego ostatecznie odszedł Elon Musk. Miliarder miał być tak sfrustrowany brakiem postępów, że stwierdził, iż szybciej sztuczną inteligencję wytrenują inżynierowie z Tesli. Odszedł ponoć w swoim stylu: obrażając pracowników, którzy pytali, czy ma świadomość kwestii związanych z bezpieczeństwem. Jeden ze stażystów usłyszał, że „jest dupkiem”. Być może to zniewaga, która będzie kosztowała Muska najwięcej w życiu.
Rok 2018 okazał się kluczowy dla OpenAI. Altman, szukając możliwości rozwoju, doprowadził do wydzielenia się z organizacji non profit spółki OpenAI LP działającej już dla zysku. To do reszty poróżniło ich z Muskiem, który już po sukcesie ChatGPT napisze na Twitterze: „Open AI została powołana do tworzenia otwartego oprogramowania (…) Firma non profit, która miała służyć jako przeciwwaga dla Google. Teraz stała się zamkniętą, maksymalnie skupioną na zysku spółką, skutecznie kontrolowaną przez Microsoft”. Problemy faktycznie zbliżyły Altmana z technologicznym gigantem.
Satya Nadella to szef Microsoftu. Pięć lat temu miał niełatwe zadanie – jego firma przeżywała fazę stagnacji. Zapewniała co prawda system operacyjny do większości komputerów na świecie, była liderem w sprzedaży pakietów biurowych i rozwijała usługi chmurowe, ale z kretesem przegrywała z Google'em na rynku przeglądarek i wyszukiwarek internetowych. W dodatku jej projektom brakowało iskry, nie budziły szczególnych emocji. Wśród użytkowników portali krążył żart, że zainstalowanej w Windowsie przeglądarki Edge używa się tylko raz – by pobrać i uruchomić inną.
Latem 2018 r. Nadella brał udział w konferencji w Sun Valley w Idaho. Tam wpadł na niego Altman, który krótko opowiedział mu o swoim projekcie. To właśnie tak miał się narodzić pakt, który zdecyduje prawdopodobnie o przyszłości obu firm.
Główną zaletą nowego partnera były nie tyle pieniądze (choć miliard dolarów, który na początku współpracy wpompowała w sztuczną inteligencję spółka Nadelli, nie był bez znaczenia), ile moc obliczeniowa, jaką mógł zapewnić. Serwery Microsoftu i dostarczane przez nie usługi chmurowe Azure były dokładnie tym, czego trzeba do trenowania dużych modeli językowych. Ceną za nowe możliwości była jednak dusza projektu. Jak dowiedział się WSJ, OpenAI zgodziła się dać gigantowi wyłączne prawo do licencjonowania jej technologii dla przyszłych produktów.
Wyścig po strumień danych
W listopadzie 2022 r. OpenAI wypuściło swój najważniejszy w historii produkt: ChatGPT. Prosty interfejs, który umożliwiał użytkownikom interakcję z maszyną, okazał się strzałem w dziesiątkę. Wystarczyło kilka dni, by skorzystało z niego milion użytkowników. Po dwóch miesiącach było to już 100 mln, co uczyniło z ChatGPT najszybciej rosnącą aplikację w historii internetu. – OpenAI to underdog, a ludzie kochają tego typu podmioty. Dlatego tak dużo im wybaczają. Gdyby to Microsoft wypuścił duży model językowy, na pewno spotkałby się z dużo większą dozą sceptycyzmu – przekonuje Jan Zygmuntowski, ekonomista z Akademii Leona Koźmińskiego. Nie bezpodstawnie. Szybko okazało się, że narzędzie stworzone przez OpenAI przeinacza lub wymyśla fakty, może być co najmniej nieprzyjemne dla użytkownika. Nawet Altman zamieścił na Twitterze komentarz, że model tylko na pierwszy rzut oka wydaje się dobry, bo tak naprawdę sporo mu brakuje.
Niedługo po premierze pojawiły się doniesienia, że jej data wzbudziła kontrowersje w 400-osobowym już zespole OpenAI. Początkowo miała ona przypaść na marzec 2023 r. – wówczas planowano dopracować model GPT-4. Altman naciskał jednak na wcześniejsze wdrożenie. „Po prostu spróbujmy. Spróbujmy i zobaczmy, co się stanie” – mówił programistom. Do publiczności trafiła więc hybryda, model nazywany GPT-3.5.
Mówi się, że ogromne tempo pracy po stronie Microsoftu narzuca Satya Nadella. Jak poinformował prowadzony przez amerykańskich dziennikarzy technologicznych serwis Platformer, Nadella wywiera na pracowników presję, by AI było wdrażane do kolejnych produktów jak najszybciej. W lutym chatbot od OpenAI trafił do wyśmiewanej przeglądarki Edge i wyszukiwarki Bing. Efekt? Jej udział w rynku wzrósł tak, jak nie udało się przez całe lata – z 1 proc. do 4 proc. W półtora miesiąca.
W marcu ogłoszono, że Microsoft wprowadzi wirtualnego asystenta również do pakietu biurowego. Komentując to w wywiadzie dla kanału NextBigWhat na YouTubie, Nadella uśmiechnął się do kamery i zwrócił się do Google'a: – Wyjdź i pokaż, że potrafisz tańczyć.
Na parkiecie wyszło jednak nieco niezgrabnie. Kiedy Google udostępnił chatbot Bard zasilany przez jego model LaMDA, okazało się, że nawet w prezentacji produktu popełnia on fundamentalne błędy. Zresztą nie tylko Google przyłączył się do przyjęcia. Po tym, jak OpenAI wypuściło ChatGPT, wszystkie firmy, które do tej pory pracowały nad AI w zaciszu laboratoriów, pośpiesznie prezentowały swoje produkty. Meta pokazała model LLaMA, a Uniwersytet Stanforda – Alpaca. Bloomberg z kolei odsłonił model skalibrowany pod analitykę finansową – BloombergGPT. Nic dziwnego – ten wyścig nie jest jedynie honorowym pojedynkiem o pierwszeństwo. Kto zdobędzie serca i kliki użytkowników, zapewni sobie dostęp do strumienia danych, na których będzie można trenować kolejne, jeszcze większe i dokładniejsze modele sztucznej inteligencji. OpenAI już zapowiedziało na grudzień premierę modelu GPT-5. Do jego szkolenia będą używane prawdopodobnie także obecne konwersacje użytkowników z narzędziami firmy. Każdy z nich wyraża na to zgodę – jest zapisana w warunkach użytkowania usługi.
Czerwone dostają wszyscy
Altman z jednej strony wydaje się podekscytowany możliwościami technologii, które tworzy. Z drugiej przyznaje, że przygotowuje się też na apokalipsę, którą mogą wywołać. W pewnym sensie przewidział pandemię – po tym, jak duńskie laboratorium zmodyfikowało wirusa H5N1, w 2016 r. przekonywał, że szanse na utratę kontroli nad jakąś chorobą w ciągu 20 lat są „niezerowe”. Cztery lata później ludzie w chińskim Wuhan zaczęli zapadać na dziwne zapalenie płuc.
Inny scenariusz, jaki rozważał Altman, przewiduje, że sztuczna inteligencja uzyska świadomość i niczym w serii o RoboCopie zaatakuje ludzkość. Jak przyznał w „The New Yorker”, ma na wypadek katastrofy broń, złoto, jodek potasu, antybiotyki, baterie, wodę, maski gazowe od Sił Obronnych Izraela. „I duży skrawek ziemi w Big Sur, na który mogę polecieć” – przyznał. Nic dziwnego – jego głównym celem jest rozwinięcie AGI, silnej sztucznej inteligencji, która będzie posiadała zdolności umysłowe na poziomie człowieka lub wyższe. – Jest siłą, która napędza wszystkie moje działania – mówił w rozmowie z magazynem „Forbes”.
Altman uważa, że kiedy AI wejdzie na poziom podobny do ludzkiego, stosunki społeczne zmienią się nie do poznania i nadejdzie koniec kapitalizmu. „Kocham kapitalizm. Ze wszystkich złych systemów, jakie ma świat, jest on najlepszym – lub najmniej złym, jaki do tej pory znaleźliśmy. Mam jednak nadzieję, że w przyszłości uda nam się stworzyć coś o wiele lepszego. I myślę, że jeśli uda nam się uruchomić AGI, zniszczy ona kapitalizm” – przekonywał w wywiadzie dla „Forbesa”.
Zdaniem Altmana AGI nie powinna być własnością jednej firmy. „To, jak dzielone są zyski z AGI, jak dzielony jest dostęp do nich i jak rozdzielane jest zarządzanie, to trzy pytania, które będą wymagały nowego myślenia” – tłumaczył. W dłuższej perspektywie chciałby zbudować globalną strukturę zarządzania, która nadzorowałaby decyzje dotyczące przyszłości AI i stopniowo zmniejszała władzę zespołu wykonawczego OpenAI nad jego technologią.
Altman uznaje za swoją misję stworzenie nowego porządku, w którym maszyny uwalniają ludzi do bardziej kreatywnej pracy. W jego wizji powszechny dochód podstawowy – koncepcja stypendium pieniężnego dla każdego, bez żadnych ograniczeń – pomaga zrekompensować miejsca pracy zastąpione przez AI.
Koncepcja ta, zwłaszcza w ustach osoby, która trzyma dostęp do przełomowej technologii, brzmi jak cytat z książki „Limes inferior” Janusza Zajdla. W wymyślonym przez niego dystopijnym Argolandzie panuje ustrój technokratyczny, który opiera się na podziale społeczeństwa na klasy w zależności od wyniku testów na inteligencję. Walutą są w nim żetony – czerwone dostają wszyscy. Zielone i żółte przysługują ludziom w zależności od zasług. Przechowywane są w „kluczu”, który jest mieszaniną dowodu osobistego, karty kredytowej i certyfikatu klasy. Dostęp do dóbr nie jest limitowany ceną, lecz rodzajem waluty – pewne produkty można kupić tylko za zielone i żółte żetony.
Paszport na człowieczeństwo
ChatGPT spowodował wiele problemów – m.in. z weryfikacją tożsamości. Przy dokładności narzędzi wykorzystujących sztuczną inteligencję już dziś trudno jest rozpoznać fałszywe zdjęcia czy teksty napisane przez robota. Maszyny potrafią rozwiązywać najtrudniejsze egzaminy i przechodzą test Turinga, czyli potrafią przekonać badacza, że są ludźmi. W związku z tym nie ma wiarygodnej metody weryfikacji człowieczeństwa w sieci. Ale Altman ma na to gotową odpowiedź. Jest także założycielem projektu Worldcoin, który oferuje cyfrowe poświadczenie ludzkiej tożsamości. Upraszczając – to ogólnoświatowy dowód osobisty. World ID. O co chodzi? Altman chce spopularyzować urządzenie, które będzie pobierać i analizować nasze dane biometryczne niczym dzisiejszy urząd paszportowy, a potem na ich podstawie wydawać poświadczenie o ludzkim pochodzeniu. „Obecny stan technologii sugeruje, że to podejście jest jedynym skalowalnym, odpornym na oszustwa i integracyjnym mechanizmem ustanowienia globalnego poświadczenia” – podkreśla Worldcoin na firmowym blogu. Gdzie są w tym państwa, dla których poświadczanie tożsamości było do tej pory monopolem? Przyglądają się.
Kij w szprychy
Na sprinterskie tempo, które w rozwoju sztucznej inteligencji narzuciło OpenAI, nie wszyscy patrzą z takim entuzjazmem jak Altman. „Wyobraź sobie, że kiedy wsiadasz do samolotu, połowa inżynierów, którzy go zbudowali, mówi ci, że jest 10 proc. szans, że samolot się rozbije, zabijając ciebie i wszystkich innych na pokładzie. Nadal wsiadłbyś?” – pytał w eseju dla „The New York Times” Yuval Noah Harari, izraelski historyk i autor bestsellerowych książek z pogranicza historii i filozofii. Jego zdaniem dokładnie takim samolotem jest sztuczna inteligencja. Jeśli jej nie opanujemy, ona może opanować nas i naszą kulturę.
W podobnym do Harariego tonie wypowiada się dziś Elon Musk, który razem z ekspertami w dziedzinie AI opublikował list wzywający do zawieszenia wyścigu zbrojeń na pół roku – by świat zdołał nadążyć z regulacjami. Zdaniem jego autorów sprawy zaszły za daleko, a igranie z maszynami, które potrafią oszukać nas, że są ludźmi, to „gigantyczny eksperyment”. Tekst wywołał lawinę oskarżeń, m.in. o to, że promują go osoby, które nie załapały się na wzbierającą falę AI.
Krótko po jego opublikowaniu kij w szprychy rozpędzającej się machiny włożyli Włosi. Garante per la Protezione dei Dati Personali, czyli lokalny odpowiednik Urzędu Ochrony Danych Osobowych, podejrzewa, że OpenAI łamie europejskie przepisy o ochronie danych osobowych (RODO), i wszczęła wobec spółki postępowanie wyjaśniające. OpenAI musiało w odpowiedzi czasowo wyłączyć czat na terenie Włoch. „Czy naprawdę wierzymy, że innowacje technologiczne, które mają przynieść nadzwyczajne korzyści i możliwości dla społeczności, powinny (…) być domyślnie upoważnione do działania nawet z naruszeniem obowiązujących przepisów, ze względu na korzyści, jakie mogą przynieść i przyniosą?” – zastanawiał się Guido Scorza, członek rady Garante w artykule opublikowanym dzień po decyzji organu.
Altman wydaje się jednak nie rozumieć istoty sprawy. We wpisie na Twitterze potwierdził, że firma wyłączyła ChatGPT we Włoszech i dodał: „ale uważamy, że przestrzegamy wszystkich przepisów dotyczących prywatności”. Tymczasem RODO może podważać samą istotę działania modeli językowych – w zbiorze danych, na których są one szkolone, znajdują się również dane osobowe. Na mocy europejskiego prawa ci, których dotyczą te informacje, powinni o tym wiedzieć, a także mieć prawo do ich usunięcia ze zbioru. – Nie powinniśmy zakazywać tych rozwiązań, ale popieram postulat, by na jakiś czas zatrzymać ich rozwój. Trzeba przeanalizować to, co już mamy, bo na razie sami twórcy zdają się nie do końca rozumieć, jak działają duże modele językowe – zwraca uwagę Gabriela Bar, specjalizująca się w AI radczyni prawna z kancelarii Szostek_Bar i Partnerzy. – Powinniśmy domagać się pewnego minimum transparentności działania tych systemów. W tę stronę idą zresztą przygotowywane w Unii Europejskiej regulacje.
Mowa o AI Act. Jego treść jest obecnie przedmiotem dyskusji na forum Parlamentu Europejskiego. Według planów ma on zostać przyjęty jeszcze w tym roku, a zacząć obowiązywać w 2025 r.
Lista instytucji, które domagają się wglądu w sposób działania ChatGPT, wydłuża się z każdym dniem. Francja, Niemcy i Irlandia, za pośrednictwem swoich organów ochrony danych, również rozważają zakazanie używania platformy. Dochodzenie analogiczne do włoskiego rozpoczęła też Kanada. Do Federalnej Komisji Handlu w USA trafiła natomiast w tej sprawie skarga Center for AI and Digital Policy (CAIDP).
Choć jeszcze dwa miesiące temu Altman mógł czuć, że przehandlowanie duszy z Microsoftem było dobrą wymianą, dziś powinien się powstrzymać, by przedwcześnie nie krzyknąć: „Chwilo, trwaj!”. ©℗