Do przygotowania raportu posłużyły badania ilościowe i jakościowe reprezentatywnej próby 995 nauczycieli klas 4-8 szkół podstawowych. Pokazały one, że na przełomie 2023 i 2024 roku zdecydowana większość nauczycieli – 75 proc. – nie wykorzystywała generatywnej sztucznej inteligencji (GSI) w pracy zawodowej. 25 proc. podjęło w tym okresie pierwsze próby, jednak tylko 6 proc. zrobiło to wielokrotnie, a 19 proc. – jeden lub kilka razy. Największą barierą pozostają obawy. Nauczyciele uważają, że tego rodzaju technologia może doprowadzić do radykalnej transformacji ich pracy, do której nie są odpowiednio przygotowani.
Czego obawiają się nauczyciele
Wyniki badania omówiono podczas spotkania autorów raportu i pracowników NASK z dziennikarzami w siedzibie Polskiej Agencji Prasowej. Prof. Jacek Pyżalski, pod którego redakcją naukową powstał raport, zauważył, że często rozmowy o sztucznej inteligencji opierają się na domysłach, a nie konkretach. To może być jedną z przyczyn istnienia obaw. Jak podkreślił Radosław Nielek, dyrektor NASK, właśnie z tego powodu powstają podobne raporty.
– Chcemy dawać ludziom i instytucjom możliwość prowadzenia dyskusji i wyciągania wniosków na podstawie faktów, a nie domysłów – zaznaczył. – Sztuczna inteligencja jest obszarem, który wzbudza wiele obaw, dlatego prowadzenie badań w tym obszarze jest tak ważne – dodał.
Nauczyciele uczestniczący w badaniu wskazywali, że boją się utraty kontroli nad procesem nauczania, nie wiedząc, jak efektywnie i bezpiecznie korzystać z takiej technologii. Brakuje im czasu na naukę nowych narzędzi, wdrażanie ich do praktyki szkolnej, cyfrowych kompetencji, jasnych wytycznych i regulacji dotyczących stosowania SI w edukacji, mają też opór przed zmianą i obawiają się utraty kontroli nad procesem dydaktycznym. Chodzi także w ich opinii o gorsze działanie narzędzi SI w języku polskim i utrwalanie stereotypów płciowych. W wypowiedziach powtarzał się też lęk przed rugowaniem z życia szkolnego relacji, emocji, komunikacji, wspólnych rozmów.
Kolejna obawa dotyczy tego, że uczniowie będą wykorzystywać GSI do pisania prac domowych bez ujawniania tego faktu.
– W rozmowach z nauczycielami często pojawiała się obawa dotycząca tego, że GSI zabije krytyczne myślenie – podkreśliła na spotkaniu Julia Piechna, kierowniczka Zespołu Projektów Społecznych i Współpracy Międzynarodowej w NASK, współautorka raportu. – Częściej wybrzmiewały też obawy i zagrożenia niż pozytywy. To pokazuje, że jest ogromna potrzeba, żeby edukować nauczycieli i uczniów nie tylko na temat tego, co to narzędzie potrafi, ale także traktować jak pomnik. Chodzi o to, by pokazywać, jakie GSI może nieść ze sobą konsekwencje – etyczne, społeczne, co może nam dać dobrego i złego. Nie tylko uczyć o tym, jakie ma funkcje – dodała ekspertka.
Prof. Pyżalski wyjaśniał, na czym polega obawa nauczycieli dotycząca uzależnienia się od GSI i wyręczania się nią przy wykonywaniu zadań.
– Niezmiernie ważna jest rola nauczyciela, żeby pokazywać, iż z GSI można korzystać w sposób ułatwiający pracę, ale nie wyręczający – podkreślał naukowiec
Od giermka do sekretarza
Autorzy badania zidentyfikowali i opisali kilka modeli wykorzystania i obecności GSI w szkole. Pierwszym jest Giermek. W tym przypadku narzędzia takie są stosowane do wykonywania zadań nauczycielskich, bądź do dostarczania inspiracji, pomysłów, do ich realizacji. Chodzi m.in. o przygotowywanie ćwiczeń, dostosowywanie zadań pod określone potrzeby, zwiększanie atrakcyjności wizualnej materiałów.
Kolejnym opisanym w raporcie obszarem jest wykorzystanie GSI przez samych uczniów, samodzielnie lub w sytuacji, kiedy są instruowani przez nauczyciela (Narzędzie w rękach młodych ludzi). Uczniowie chcą, aby narzędzia GSI wcielały się w rolę nauczyciela, który tłumaczy przykładowo algorytm rozwiązywania zadań matematycznych.
W kolejnym opisanym przypadku (Pomnik), chodzi o to, by częścią edukacji było skoncentrowanie się na samej generatywnej sztucznej inteligencji i na tym, co dobrego oraz złego może ona przynieść. Badacze mocno podkreślali podczas spotkania w PAP, jak jest to ważne.
Natomiast następnym opisanym w raporcie zastosowaniem jest Komunikator. GSI była wykorzystywana w tym przypadku przez badanych głównie w kontekście korespondencji z rodzicami lub uczniami, a także do tworzenia komunikatów do mediów społecznościowych placówek edukacyjnych.
Wreszcie – Sekretarz. Narzędzia GSI stosowane są do wykonywania zadań o charakterze biurokratycznym. Badani nauczyciele wykorzystywali je do tworzenia sprawozdań, np. opracowań statystycznych lub graficznej prezentacji danych, korekty językowej różnych tekstów czy też technicznego opracowania prezentacji.
Korzyści z zastosowania AI
Jak wynika z raportu NASK, główną motywacją do sięgania po generatywną sztuczną inteligencję w edukacji była najczęściej chęć oszczędności czasu, szczególnie w zakresie przygotowania materiałów dydaktycznych, pisania sprawozdań czy korespondencji z rodzicami. 64 proc. badanych wskazało automatyzację rutynowych zadań jako kluczową zaletę GSI. Nauczyciele wykorzystywali ChatGPT m.in. do generowania prezentacji, scenariuszy zajęć, klasówek, a także do konsultowania trudnych sytuacji wychowawczych czy pisania uprzejmych wiadomości.
GSI wspierała także personalizację nauczania – 28 proc. nauczycieli stosujących to narzędzie, używało go w pracy z uczniami o zróżnicowanych potrzebach edukacyjnych, w tym neuroatypowych i pochodzących z innych krajów, np. Ukrainy.
Możliwość indywidualizacji działań powracała w wypowiedziach uczestników spotkania w siedzibie PAP.
Nauczyciele biorący udział w badaniu podkreślali również, że generatywna sztuczna inteligencja wprowadza do lekcji element interaktywności, zabawy i zaangażowania, co często motywowało uczniów. Jednocześnie pokazywali, że zawsze należy weryfikować treści generowane przez GSI – prezentowali to podczas lekcji wychowawczych, zadając ChatGPT takie pytania, na które odpowiadał błędnie. W ten sposób uczniowie przekonywali się, że nie zawsze to, co podpowie im sztuczna inteligencja, jest zgodne z prawdą.
Dylematy etyczne i praktyczne
Ważnym punktem spotkania w PAP były kwestie etyczne – padały pytania, jak daleko może posunąć się sztuczna inteligencja w budowaniu relacji z innymi ludźmi, w tym przypadku – z uczniami. Zarówno w raporcie, jak i podczas spotkania, poruszono kwestię swoistego oderwania młodzieży od realnych uczuć, wartości, wiedzy.
– Warto zauważyć, że skoro paliwem dla naszych relacji jest komunikacja, to takie zastosowanie narzędzi GSI niesie ze sobą wiele etycznych wyzwań oraz konsekwencji dla jakości relacji międzyludzkich – mówił prof. Pyżalski zalecając szczególną rozwagę w tym obszarze.
– Mądrą decyzją będzie też, gdy nauczyciel powie, gdzie GSI nie powinno być stosowane. Bo gdy do dziewczyny pisze chłopak, ona nie wie, co mu odpisać i generuje odpowiedź w ChatGPT, to należy się zastanowić, kto pisze z tym chłopakiem: ona czy sztuczna inteligencja? I czy ona w przyszłości będzie umiała prowadzić takie rozmowy? – mówił obrazowo profesor.
Anna Rywczyńska, kierowniczka Działu Profilaktyki Cyberzagrożeń w NASK podkreśliła, że rozmowy prowadzone przez uczniów z GSI mogą pomóc, ChatGPT potrafi wskazać sensowne, wartościowe rozwiązanie.
– Gdy młodzi ludzie zaczynają na przykład opowiadać czatowi o swoich problemach, to ten podsuwał numery do ogólnodostępnych telefonów zaufania. Należy jednak zadać pytanie, na ile sztuczna inteligencja zastąpi prawdziwe relacje, jakie może to mieć w przyszłości konsekwencje i dlaczego akurat to do technologii młodzi ludzie zwracają się ze swoimi problemami. Być może to właśnie GSI pokaże nam, że należy bardziej rozwijać umiejętności komunikacyjne u siebie oraz u dzieci, wspierać je w budowaniu bezpiecznych wspierających relacji – podsumowywała Anna Rywczyńska, które jest również koordynatorką Polskiego Centrum Programu Safer Internet oraz przewodniczącą Rady Doradczej Rodziców utworzonej przy NASK.