Minął rok odkąd ChatGPT zagościł w naszych przeglądarkach i pozwolił choć trochę poczuć siłę algorytmów, nad którymi od lat pracują wielkie firmy technologiczne. Odkąd firma OpenAI udostępniła go użytkownikom, rozwój publicznie dostępnych narzędzi stał się tak szybki, że czasem trudno było nawet wynotować sobie kolejne przełomy, a co dopiero przeczytać czy przemyśleć, dokąd nas one prowadzą.

Skomplikowana materia i tempo zmian podszyte narracją rodem z filmów science fiction doprowadziły do tego, że AI zaczęła budzić lęk. Miało to odbicie w debacie publicznej, w której duża część tematów wyrażała egzystencjalne obawy – czy AI nas zastąpi? Czy AI odbierze nam pracę? Czy będziemy potrafili odnaleźć się w życiu urządzanym przez algorytmy? Czy AI to koniec demokracji przedstawicielskiej? Czy to koniec relacji społecznych? W ciągu ostatniego roku brałam udział w wielu dyskusjach i panelach, w których główna teza ustawiona była w ten sposób.

Podobne były także tematy dyskusji na OEES. Przykładem może być panel „Czy sztuczna inteligencja zabierze twórcom pracę?”, w którym miałam przyjemność dyskutować z Arturem Kurasińskim – obserwatorem rynku technologii i przedsiębiorcą, Wojtkiem Urbaniakiem z Dyspensa.AI, który na co dzień używa już AI do tworzenia muzyki, Stanisławem Trzcińskim, kulturoznawcą, autorem książki „Zarażeni dźwiękiem. Rynek muzyczny w czasach sztucznej inteligencji”, oraz Jerzym Łabudą i Anną Misiewicz z ZAiKS.

Dyskusja ta pokazała jednak, że formuła, w której stawiamy podszyte lękiem pytania, wyczerpała się. Po pierwsze dlatego, że niewiedzę i obawę zastąpiło doświadczenie – każdy z rozmówców miał za sobą pracę z narzędziami opartymi na zaawansowanych algorytmach. Część z nas, tak jak Urbaniak czy Kurasiński, przyznała w debacie, że wręcz trudno już wyobrazić sobie codzienne obowiązki bez takich programów. Po drugie, w ciągu ostatniego roku wzrosło zrozumienie, jak takie narzędzia działają – upowszechniło się przekonanie, że AI to tylko zaawansowana maszyna, której jeszcze daleko do osiągnięcia zdolności ludzkiego umysłu.

Po trzecie, pojawiły się pierwsze próby konfrontacji z rzeczywistością urządzaną przez AI. Artyści wizualni pozwali firmy, które oferowały generatory obrazów szkolone na ich pracach, to samo zrobili literaci względem m.in. OpenAI. Scenarzyści i aktorzy przystąpili do strajku po tym, kiedy studia produkcyjne chciały zastąpić ich cyfrowymi generatorami scenariuszy i awatarami. Joe Biden wydał rozporządzenie wykonawcze, które miało regulować AI, podobne prace trwają w Unii Europejskiej – do końca roku ma zostać wynegocjowany AI Act. Równocześnie mogliśmy obserwować lobbing przedstawicieli wielkich firm technologicznych w instytucjach odpowiedzialnych za te regulacje. Co pozwoliło zrozumieć, że jednocześnie powinien nastąpić lobbing strony społecznej.

Bogatsi o te doświadczenia powinniśmy zmienić sposób, w jaki stawiamy pytania w debacie publicznej. Skoro wiadomo już, że AI jest, działa, zostanie z nami i zmieni nasze życie, czas zacząć rozmawiać o tym, jaka powinna być nasza odpowiedź. Tematy, które dziś wydają się niezagospodarowane: Jak sprawić, by to społeczeństwa odnosiły korzyści z AI, a nie tylko wielkie korporacje? Jak uniknąć prywatyzacji AI? Jak budować zaufanie do tej technologii? Jakie my, jako społeczeństwo, stawiamy granice w wykorzystaniu AI? Gdzie się nie zgadzamy na użycie technologii? Jak potwierdzać tożsamość w świecie, gdzie wprowadzamy hiperrealistyczne cyfrowe awatary? Kto to powinien robić? Jak rozróżniać, co ogólnie jest prawdziwe? Kto powinien wziąć za to odpowiedzialność? Jak zachować odrębność kultury w świecie zdominowanym przez generatywną sztuczną inteligencję?

A to tylko niektóre z pomysłów, jak pójść w rozmowie dalej. Bardzo wierzę, że potrzebujemy już nowej jakości w rozmowach o AI, w której będziemy zaznaczać dodatkowo tło biznesowe, polityczne, gry interesów. Jeśli ktoś potrzebuje porady, dawajcie znać. Uważam, że poszerzanie tej debaty jest teraz naprawdę priorytetem. ©℗