W literaturze ekonomicznej jesień stoi pod znakiem sztucznej inteligencji. Czytając kolejną o niej książkę, mam wrażenie, że to nie AI pomaga człowiekowi w ich pisaniu – to ludzie zaczęli pisać książki zgodnie z interesem AI.

Tydzień temu recenzowałem rozmowę z ChatGPT autorstwa Reida Hoffmana. Dziś rzecz, w której specjaliści z Akademii Leona Koźmińskiego – Aleksandra Przegalińska i Dariusz Jemielniak – piszą o zastosowaniu AI w zarządzaniu. Autorzy tych obu książek chwalą się, że powstały one z pomocą ChatGPT. Cóż, było nie było, najnowszy boom na sztuczną inteligencję dotyczy właśnie dużych modeli językowych, które stosuje się dokładnie do takich celów: tworzenia tekstów, podsumowań i kompilacji.

ikona lupy />
Aleksandra Przegalińska, Dariusz Jemielniak, „AI w strategii. Rewolucja sztucznej inteligencji w zarządzaniu”, przeł. Wojciech Pędzich, MT Biznes, Warszawa 2023 / nieznane

Czytając „AI w strategii”, zrozumiałem, co mi w tych książkach o sztucznej inteligencji przeszkadza. One nie tylko są na temat AI, one nie tylko powstają z pomocą AI – one wyglądają tak, jakby były pisane zgodnie z interesem AI. W książce Przegalińskiej oraz Jemielniaka też dostrzegam ten trend: to brak krytycznego spojrzenia na rozwój AI. Oczywiście znajdziemy tu wiele retorycznych zabezpieczeń. Autorzy nieraz próbują usytuować samych siebie w debacie na pozycjach „pośrodku”, pomiędzy ekstremami technoentuzjastów i technofobów. W rzeczywistości to ich „pośrodku” znajduje się dużo bliżej jednej ze skrajności. Mówiąc wprost: Jemielniak i Przegalińska są obiema nogami po stronie technoentuzjastów – nawet jeśli się od tego odżegnują. AI to dla nich „nieuchronna przyszłość”, do której trzeba się przekonać, którą należy polubić i której – finalnie – warto się podporządkować.

Nie czepiam się ich pojedynczych diagnoz. Faktycznie zastosowania dużych modeli językowych będą w biznesie rozliczne. Głównie polegające na zastępowaniu ludzkiej pracy (dziennikarza, copywritera, akademika) algorytmem. Im prostsze i bardziej schematyczne teksty oraz zadania, tym szybciej to nastąpi. Ale brak u Przegalińskiej i Jemielniaka namysłu nad konsekwencjami. I nie mam na myśli tylko wyliczenia zagrożeń. Bo to może zrobić nawet sam ChatGPT, dorzucając przy okazji zdanie, że „te strachy nie muszą się ziścić”. A ja bym wolał, żeby ktoś – dla odmiany – wziął stronę człowieka. I rozważył jego racje. Mam nadzieję, że wiosną będzie wysyp właśnie takich książek. ©Ⓟ