Narzędzi takich jak ChatGPT lepiej w szkołach czy na uczelniach nie zakazywać, ale wprowadzać w sposób świadomy i celowy. Rozwój sztucznej inteligencji niesie za sobą szereg wyzwań, ale tkwi w niej ogromny potencjał - powiedziała PAP członkini Grupy Roboczej ds. Sztucznej Inteligencji w KPRM dr Dominika Kaczorowska-Spychalska.

Aplikację ChatGPT opracowała amerykańska firma OpenAI. Służy m.in. do tworzenia odpowiedzi na pytanie lub polecenia wprowadzane przez użytkownika. Potrafi też wykonać bardziej złożone zadania, na przykład napisać opowiadanie. Ostatnią wersję narzędzia udostępniono publicznie w listopadzie ub.r. Światowe media zwróciły uwagę na to, że ChatGPT ma duże możliwości i stał się popularny wśród użytkowników internetu. Tylko w ciągu pierwszych dni skorzystało z niego kilka milionów osób.

Chatbot działa w oparciu o sztuczną inteligencję (SI), dokładniej sieci neuronowe, które coraz częściej wspomagają pracę człowieka w m.in. diagnostyce medycznej, technicznej, automatycznych tłumaczeniach. Przez wiele lat uważano, że maszyny należy zaprogramować w pełni, a całą potrzebną wiedzę do ich działania zapisać w postaci reguł. Powstające ostatnio sztuczne sieci neuronowe działają jednak inaczej, bo podobnie do mózgu. Dzięki temu systemy oparte o nie mają zdolność do uczenia się na podanych przykładach.

ChatGPT był "szkolony" na olbrzymim zbiorze danych przy wykorzystaniu olbrzymiej sieci neuronowej — według informacji podawanych w mediach wykorzystano 175 miliardów parametrów i 570 gigabajtów danych pochodzących z tekstów dostępnych w internecie, w tym książek opublikowanych do 2021 r.

"ChatGPT działa w oparciu o głęboką sieć neuronową, czyli matematyczny odpowiednik mózgu" - powiedział PAP kierownik Laboratorium Inżynierii Lingwistycznej w Ośrodku Przetwarzania Informacji - Państwowym Instytucie Badawczym dr inż. Marek Kozłowski. Zwrócił jednak uwagę na to, że za jego sukcesem nie stoi tylko i wyłącznie doskonałe oprogramowanie, bo aby zadziałał on odpowiednio - należało do tego narzędzia wprowadzić mnóstwo danych zebranych "ręcznie".

"Twórcy chatu napisali kilkadziesiąt tysięcy konwersacji, dialogów i pytań ręcznie - w ten sposób zasymulowano działanie tego chatbota. Potem sieć neuronowa przystosowała się do prowadzenia konwersacji, ucząc się na tych danych" - dodał.

PAP zapytała dyrektorkę Centrum Inteligentnych Technologii na Uniwersytecie Łódzkim i członkinię Grupy Roboczej ds. Sztucznej Inteligencji w KPRM dr Dominikę Kaczorowską-Spychalską o to, jakie są zagrożenia związane z używaniem tego i podobnych narzędzi.

"Zarzuca im się, że za ich pomocą można generować na przykład złośliwe oprogramowanie czy teksty prowadzące do szerzenia dezinformacji. Uczniowie i studenci, korzystając z nich, mogą próbować oszukiwać, bo czat za nich napisze opracowanie lub esej. Wątpliwości budzą też kwestie etyczne" - zwróciła uwagę ekspertka.

Czy oznacza to, że należy zatem zakazać jego stosowania np. na uczelniach lub w szkołach? Według dr Kaczorowskiej-Spychalskiej, nie, choćby ze względu na brak realnych możliwości wyegzekwowania zakazu. Dodała, że od technologii w dzisiejszym świecie trudno byłoby uciec.

"I chociaż dalszy rozwój SI i jej demokratyzacja będą pociągały za sobą szereg nowych wyzwań, nie chciałabym, aby tematyka zagrożeń zdominowała dyskusję na temat ChatuGPT, czy szerzej - generatywnej SI" - zaznaczyła.

Jednak prestiżowy francuski Instytut Nauk Politycznych (Science Po) poinformował pod koniec stycznia br., że zakazuje studentom posługiwania się ChatemGPT, pod karą usunięcia z uniwersytetu lub zakazu podejmowania studiów na uczelniach wyższych. Korzystanie ze sztucznej inteligencji, o ile nie jest częścią procesu "pedagogicznego zainicjowanego przez wykładowcę", będzie uznawane za popełnianie plagiatu i zostaje "ściśle zabronione" - głosi list wysłany przez władze Science Po do wszystkich studentów i pracowników naukowych instytutu. Zakaz stosowania tego czatu wprowadziły też szkoły publiczne w Nowym Jorku.

Jakie porady ma dr Kaczorowska-Spychalska dla polskich nauczycieli? Wskazała na zasadność wprowadzania tego typu narzędzi do procesu kształcenia w sposób celowy i w oparciu o precyzyjnie określone zasady, np. w zakresie własności intelektualnej.

"Pracując z takimi narzędziami, mamy szansę nauczyć młodych ludzi, jak odpowiedzialnie wykorzystać potencjał tej technologii, tak, aby nas inspirowała, a nie zastępowała" - wskazała dr Kaczorowska-Spychalska. Zwróciła uwagę, że mamy już co prawda narzędzia wykrywające zastosowanie generatorów takich jak ChatGPT, ale nie zawsze ich skuteczność jest najlepsza.

Zapytana o to, czy ChatGPT to faktycznie nowa jakość, czy też raczej wiele hałasu o nic, podkreśliła, że w większości przypadków użytkownicy mówią o zachwycie, zwłaszcza początkowo.

"Zdarza się jednak, że czat nie jest nieomylny, popełnia błędy i miewa ograniczoną wiedzę w niektórych obszarach. Nie zmienia to jednak faktu, że ChatGPT jest niewątpliwie intrygującym rozwiązaniem, które przenosi nas na coraz wyższy poziom realnej współpracy między człowiekiem a SI, i to SI dostępnej dla każdego, kto chce z niej skorzystać" - podkreśliła.

Z kolei dr inż. Marek Kozłowski przyznał, że do końca nie zostało ujawnione przez twórców czatu, jak on działa. "Są pewne przesłanki, które zawarli w artykułach naukowych, ale opublikowano je już jakiś czas temu" - stwierdził. Rdzeniem jest - jak powiedział - model językowy GPT, który znany jest programistom na całym świecie, tyle, że został on zmodyfikowany w taki sposób, aby można było z nim skutecznie konwersować - i to jest zasługą firmy OpenAI.

Dr Kozłowski zwrócił uwagę, że ChatGPT nie gubi kontekstu w czasie dialogu i potrafi szerzej odpowiadać na pytania, bo jest to narzędzie oparte na modelu językowym. "ChatGPT nie odpowiada schematycznie, bo ma zdolność modyfikacji odpowiedzi w zależności od kontekstu. Nie byłoby to możliwe bez podania temu modelowi odpowiedniej liczby danych" - podkreślił.

Ekspert uważa, że wiele osób ulega iluzji dotyczącej wszechwiedzy ChatuGPT głównie dlatego, że potrafi z nami rozmawiać i odpowiadać w poprawnej językowo formie.

"ChatGPT nie jest w stanie samodzielnie tworzyć nowej wiedzy. Wyuczony na dużych zbiorach tekstów jest w stanie generować tekst podobny do ludzkiego na podstawie wzorców i struktur, których nauczył się na podstawie tych zgromadzonych danych. Jednak nie ma on własnych myśli, opinii i nie posiada zdolności rozumowania ani wyciągania logicznych wniosków w taki sam sposób, jak ludzie" - zakończył.(PAP)

Autor: Szymon Zdziebłowski

szz/ mir/