Jeśli sztuczna inteligencja odbierze pracę ludziom, to takim, którzy nie będą umieli się nią posługiwać.

"Donald Trump aresztowany? Mroczna prawda wyszła na jaw” – krzyczał w ubiegłym tygodniu nagłówek serwisu o2.pl. Przy nim pojawił się obraz byłego prezydenta USA w więziennym uniformie. Po kliknięciu można było przeczytać, że aresztowanie Trumpa to tylko plotka, którą zresztą podgrzewa sam zainteresowany. Kto poprzestał na nagłówku, mógł się jednak nabrać.

Generowanie treści

Tytuł to łatwizna, ale skąd wziąć zdjęcie Trumpa z więzienia? Otóż dziś taki obraz może wygenerować każdy. Wystarczy wpisać odpowiedni opis w aplikacji wykorzystującej sztuczną inteligencję. Te dwa elementy plus umieszczenie w wiarygodnym miejscu, np. na portalu odwiedzanym miesięcznie przez 2,3 mln internautów (piąta pozycja w polskim internecie), to przepis na udaną dezinformację. Jeszcze nigdy jej przygotowanie nie było takie proste.

Wczoraj artykuł był wciąż dostępny, ale pod innym nagłówkiem. Portal umieścił w nim informację, że ilustracja została wytworzona przez robota. Warto jednak zapamiętać ten przypadek, bo to jaskółka zmian – ponieważ generowanie treści przez narzędzia oparte na SI jest bardzo tanie, wkrótce prawdopodobnie zaleją one internet.

Już dziś eksperymentują z nimi serwisy m.in. ze Stanów Zjednoczonych. Efekty są jednak dalekie od ideału. CNET, popularna strona ekonomiczna, przeprowadziła w listopadzie ubiegłego roku test. Pozwoliła SI pisać artykuły– łącznie powstało w ten sposób 77 tekstów. Historie były jednak pełne błędów i musiał je poprawiać dziennikarz. Testy przerwano w oczekiwaniu na ulepszenie narzędzi.

Redaktor naczelna strony Connie Guglielmo napisała w podsumowującym eksperyment artykule, że test wiele redakcję nauczył. Na przykład, że komputery popełniają błędy tak jak ludzie. Albo jak ważne jest poprawne oznaczanie treści przygotowanych z użyciem narzędzi SI i umieszczanie odnośników do źródeł podawanej informacji. Zapewniła, że CNET będzie to robił w swoich treściach.

Umowa z czytelnikami

Connie Guglielmo nie miała wyjścia – w eksperymencie ze sztuczną inteligencją CNET podważył własną wiarygodność. Aby ją odzyskać, medium musiało poinformować czytelników o zasadach, na jakich będzie działała strona. Prędzej czy później taka refleksja będzie zresztą konieczna w każdej redakcji, nawet w tych, które z SI nie mają na razie nic wspólnego. Z czytelnikami trzeba będzie zawrzeć umowę: dostarczamy wam informację, ale na określonych zasadach włączamy w jej przygotowanie narzędzia. Jakich zasadach? Nie ma dobrej odpowiedzi. Każda redakcja będzie musiała sama zbilansować ryzyka i szanse wprowadzenia SI na swoje łamy. Jeśli jednak nie poinformuje odbiorców, jak dokładnie zamierza to zrobić, to po prostu utraci status wiarygodnego źródła informacji. A ten w przyszłości zdominowanej przez SI będzie kluczowy. W świecie, w którym wszystko może się okazać nieprawdą, będą się liczyły sprawdzone źródła wiarygodnych informacji.

Dobrym przykładem jasnego komunikowania zasad jest magazyn „Wired”, który kilka tygodni temu opublikował długi wstępniak, a w nim wyjaśnienia polityki dotyczącej SI. „To jest „Wired”, więc chcemy być na pierwszej linii frontu nowych technologii, ale także być etyczni i odpowiednio ostrożni” – czytamy. Magazyn nie będzie więc w ogóle publikować artykułów zawierających tekst wygenerowany przez sztuczną inteligencję. Nawet jeśli miałoby to być kilka linijek wyjaśnienia, co to są komputery kwantowe. Dlaczego? Przede wszystkim z powodu błędów, które robi SI. Ale to nie koniec: „Uważamy, że ktoś, kto zarabia na życie pisaniem, musi nieustannie się zastanawiać nad najlepszym sposobem wyrażania złożonych idei własnymi słowami. Wreszcie, narzędzie SI może nieumyślnie splagiatować czyjeś słowa”. Jeśli okaże się, że autor złamał zasadę, redakcja potraktuje to na równi z plagiatem.

Z podobnych powodów „Wired” nie będzie używać SI do redagowania materiałów. Skracanie tekstu to w końcu także praca twórcza. W dodatku istnieje ryzyko, że taki ChatGPT mógłby zmienić znaczenie akapitów lub dodać treści wprowadzające czytelnika w błąd.

Podobne zasady „Wired” wprowadza, jeśli chodzi o generowane przy pomocy SI obrazy czy wideo. Już dziś twórcy Midjourney czy Stable Diffusion mierzą się z procesami wytaczanymi przez artystów, którzy zarzucają im naruszenie praw autorskich. Magazyn nie chce brać udziału w tych naruszeniach, przynajmniej dopóty, dopóki firmy dostarczające narzędzia SI nie znajdą sposobu, by zrekompensować artystom to, że modele były trenowane bez wiedzy i zgody na ich pracach.

Refleksja, którą podzielili się redaktorzy „Wired”, jest bardzo inspirująca także dla mnie jako dziennikarki. Ponieważ od kilku miesięcy eksperymentuję z narzędziami wykorzystującymi SI – podobnie jak oni – mogę już poczynić pewne zobowiązania wobec czytelników.

Czego nie zrobi za mnie sztuczna inteligencja

Po pierwsze, już wiem, że sztuczna inteligencja nie będzie pisać za mnie artykułów. Może i ChatGPT umie się wypowiedzieć przekonująco na każdy temat, ale to, co wystarczy do napisania rozprawki w liceum, zdecydowanie nie pozwala na stworzenie artykułu prasowego. Choć maszyna potrafi być przekonująca, w istocie model nie umie prowadzić wywodu popartego faktami opartymi na danych. Nie mówiąc już o ich wyszukiwaniu – narzędzie OpenAI nie zadzwoni do polityka z prośbą o komentarz. Nie jest nawet połączone z internetem, więc ma dostęp do ograniczonej wiedzy. Najprostszy test na wiarygodność? Spytanie o własną biografię.

SI nie będzie także robić za mnie researchu, a przynajmniej nie na poziomie bardziej zaawansowanym niż omawianie Wikipedii czy podrzucanie linków do stron internetowych. Kiedy pisałam o dużym przetargu, zapytałam Bing, czyli wyposażoną w chatbota wyszukiwarkę Microsoftu, o organizującego go urzędnika. Maszyna dostarczyła na jego temat laurkę opartą na jego mediach społecznościowych. Spytana o to, czy urzędnik miał problemy z prawem, zaprzeczyła. Tymczasem jego działalność wzbudzała tyle wątpliwości, że zajęła się nim Najwyższa Izba Kontroli. Kiedy wstukałam wyjaśnienie w okienko czatu, przeglądarka zaczęła mnie… obrażać. I uparła się, że ona jest Bing i wie wszystko.

Inny przykład: często przekopuję się przez opinie do różnych ustaw ze strony Rządowego Centrum Legislacji. Kiedy poprosiłam wyszukiwarkę, by użyła swoich mocy i znalazła tam coś za mnie, ta nie potrafiła nawet otworzyć strony (nie dziwię się, łatwość w obsłudze to nie jest główny przymiot tego serwisu). Jakieś – nieperfekcyjne – wyniki dało dopiero dostarczenie bezpośredniego linku. W istocie próba użycia maszyny dołożyła mi tylko pracy, bo musiałam sprawdzać każdy wynik.

Ze względów, które przytoczył „Wired”, nie będę też używać grafik wygenerowanych przez SI, również w swoich kanałach w social mediach. Wyjątkiem będą takie artykuły jak ten, w którym publikuję kilka fałszywek z polskimi politykami, by zachęcić ich do refleksji nad koniecznością uregulowania takich publikacji. Takie obrazy będę jednak wyraźnie oznaczać.

Choć SI bardzo łatwo poprosić o wyszukanie najpopularniejszych tematów rozmów ludzi, nie będę używać jej także do tego celu. To oczywiście samobójstwo z punktu widzenia popularności w social mediach czy walki o odsłony tekstów w internecie. Głęboko wierzę jednak, że rolą dziennikarzy jest naświetlenie właśnie tych tematów, o których nie mówi nikt.

Nie oznacza to, że jestem współczesną luddystką i będę dążyć do unicestwienia maszyn. Wręcz przeciwnie – już dziś korzystam z wielu narzędzi opierających się na uczeniu maszynowym i sądzę, że jeśli SI odbierze pracę ludziom, to takim, którzy nie będą umieli się nią posługiwać. Dokładnie w taki sam sposób, jak komputer odebrał pracę mojemu tacie. Kiedy przeciętni studenci architektury byli już biegli w AutoCadzie, on nadal rysunki techniczne robił rapidografem.

W moim przypadku pierwsza do odstrzału poszła transkrypcja wywiadów. Ich spisywanie to dziennikarskie tantalowe męki, kiedy więc okazało się, że narzędzia, które to umożliwiają, zyskały naprawdę imponujące możliwości, zrezygnowałam z robienia tego własnoręcznie i po każdej godzinie rozmowy oszczędzam trzy, które poświęciłabym na jej transkrypcję. Oczywiście to dopiero początek pracy z wywiadem – reszta jest już po mojej stronie. Tego, podobnie jak samego aktu pisania artykułu, nie oddam sztucznej inteligencji.

Pomocne w pracy są mi także narzędzia umożliwiające tłumaczenia. DeepL radzi sobie z przekładem znacznie lepiej niż popularny translator od Google'a – korzystam z niego codziennie, pracując z anglojęzycznymi dokumentami. ChatGPT okazał się natomiast niezłym korepetytorem z języka angielskiego. Pisząc wiadomość do zagranicznych instytucji, przerzucam ją przez to narzędzie z prośbą o poprawienie błędów (znów jednak: przy samym pisaniu nie wyręczam się chatbotem), a następnie wypunktowanie mi ich i wyjaśnienie reguł, które złamałam. Myślę, że dzięki temu zdecydowanie poprawiły się moje umiejętności językowe, zamiast na sztucznych przykładach w czasie kursów ćwiczę bowiem na żywo w mojej pracy.

Eksperyment ze sztuczną

Żyjemy w świecie, w którym liczba generowanych przez użytkowników internetu danych rośnie lawinowo i coraz więcej tematów wymaga analizy dużych zbiorów informacji. Dziś można skorzystać z ogromnej liczby narzędzi do analityki danych, ale dzięki SI każdy dziennikarz może zaprogramować też własne (bez wcześniejszej wiedzy o kodowaniu). Pierwsze takie próby mam za sobą, choć muszę przyznać, że jeszcze nie wiem, czy będę kontynuować – dokładnie z tych samych powodów, dla których nie chcę generować obrazów czy artykułów. Kod, na którym uczyły się duże modele językowe, musi mieć przecież autora.

Eksperyment ze sztuczną inteligencją pokazał mi, co jest najbardziej wartościowe w moim zawodzie: kontakt z informatorami, łączenie danych z różnych – często bardzo nieoczywistych i pozornie niepowiązanych – źródeł, selekcja informacji oraz osobiste doświadczenie. Reporter jest świadkiem, potwierdza, że był na miejscu, widział, dotknął dokumentów. Można go pociągnąć do odpowiedzialności. Duży model językowy nie wytrzymuje takiego porównania. Choć więc początkowo się przestraszyłam, że SI odbierze mi pracę, dziś jeszcze mocniej wierzę w treści tworzone – czy, jak się dziś mówi, generowane – przez człowieka. ©℗