Od tego, jak i po co używamy sztucznej inteligencji (AI), a nie od samego faktu, że z niej korzystamy. Dziś wiemy już sporo, część szkół przeszła od paniki do pilotaży, a badacze i badaczki pokazują zarówno spektakularne zyski, jak i bardzo realne ryzyka „lenistwa poznawczego”.

AI w szkole pojawia się coraz częściej

W latach 2023–2025 narzędzia generatywnej sztucznej inteligencji (ChatGPT, Copilot, Gemini) oraz wyspecjalizowane aplikacje edukacyjne (Khanmigo, Photomath) stały się codziennością. W USA 60 proc. nauczycieli deklaruje, że użyło narzędzia AI w pracy w roku 2024/25. Ci, którzy używają jej co tydzień, szacują oszczędność średnio 5,9 godziny tygodniowo (czyli ok. sześciu tygodni w skali roku szkolnego) – jest to czas przeznaczany potem na lepszą informację zwrotną i tak zwaną indywidualizację nauczania.

Odsetek nastolatków w USA, którzy użyli ChatGPT do pracy szkolnej, podwoił się z 13 proc. w 2023 r. do 26 proc. w 2024 r. Użycie rośnie z wiekiem i jest wyższe w części grup demograficznych. To wciąż mniejszość wszystkich uczniów, jednak rosnąca i coraz lepiej widoczna.

Z perspektywy ucznia: AI to trampolina rozumowania czy kula u nogi samodzielności?

Dobrze ustawione AI potrafi pełnić rolę „tutora na żądanie” – rozbija zadania na kroki, dopytuje, podsuwa podpowiedzi, generuje przykłady. Metaanalizy i badania interwencyjne z lat 2023–2025 sugerują, że wsparcie AI może poprawiać wyniki nauki i jakość pisania, a także redukować wysiłek poznawczy, zwłaszcza gdy narzędzie dostarcza spersonalizowanej, formatywnej informacji zwrotnej.

Najmocniejszy sygnał ostrzegawczy przyniosło w 2025 r. badanie terenowe (PNAS). Wykazało, że uczniowie, którzy podczas ćwiczeń matematycznych mieli nieograniczony dostęp do GPT-4, działali lepiej w trakcie tych zajęć, ale gorzej, gdy później pracowali sami, czyli mniej się nauczyli. Dodanie „szyn bezpieczeństwa” (np. zamiana gotowej odpowiedzi na podpowiedź/hint) redukowało straty.

Wniosek – bez mądrego projektu zadania AI bywa kulą u nogi uczenia się. AI pomaga, gdy wymusza myślenie, prosi o uzasadnienie, każe przejść krok po kroku, odmawia podania gotowej odpowiedzi przed próbą udzielenia jej przez ucznia. Gdy daje rozwiązanie od ręki, rośnie ryzyko iluzji kompetencji.

Kilka propozycji dobrych praktyk używania AI w edukacji

  1. Najpierw próba ucznia, potem podpowiedź. Ustawiamy narzędzie tak, by nie podawało pełnego rozwiązania, dopóki uczeń nie pokaże własnego toku.
  2. Feedback formatywny, a nie gotowiec. Prosimy o wskazówki diagnostyczne („gdzie, dlaczego, co poprawić”), a nie o pełne przeredagowanie.
  3. Transparentność w ocenianiu. Zamiast polować na „detekcje AI”, projektujemy zadania mieszane: praca klasowa, wypowiedź ustna, log pracy itp.
  4. Równość szans. Szkoła zapewnia bezpieczny dostęp i jasne zasady tak, by AI nie pogłębiała różnic (sprzęt, łącze, wsparcie). Wytyczne UNESCO są tu dobrym punktem startu.

Co zyskuje nauczyciel dzięki korzystaniu z AI?

Czas! Nauczyciele raportują oszczędność godzin poświęcanych na planowanie lekcji, tworzenie materiałów, różnicowanie zadań i komunikację z rodzicami. Zyski czasu są największe u regularnych użytkowników, a subiektywnie rośnie też jakość materiałów i optymizm co do zaangażowania uczniów.

Co boli rodziców i wychowawców? Autentyczność prac i chaotyczne polityki. Wczesne próby detekcji AI – czyli wykrywania, że treść została sporządzona przy użyciu sztucznej inteligencji – okazały się zawodne. OpenAI w 2023 r. wycofało własny AI Classifier z powodu niskiej trafności. Część uczelni i szkół przestrzega przed poleganiem wyłącznie na wskaźnikach detektorów z uwagi na fałszywe alarmy, zwłaszcza u osób piszących prościej (np. uczących się języka). Coraz więcej szkół reaguje zmianą sposobu oceniania, częściej pojawiają się prace pisane na lekcji, prezentacje ustne, projekty zespołowe.

Co robią rządy i instytucje w sprawie wykorzystywania AI w szkole?

W 2023 r. UNESCO wydało pierwsze globalne wytyczne dla genAI w edukacji. Rekomenduje ochronę danych, granice wiekowe i podejście „human-in-the-loop”, czyli założenie, że człowiek ma pozostać w centrum. Trzeba też pamiętać, że AI Act obowiązuje również polski system edukacji. Co robią poszczególne kraje?

• Wielka Brytania (DfE, 2023–2024) publikuje praktyczne wskazówki dla szkół i raport z opiniami nauczycieli i ekspertów.

• USA (US Dept. of Education, 2023) kładą nacisk na bezpieczne zastosowania oraz rolę nauczyciela jako projektanta doświadczeń.

• Japonia już w 2023 r. wydała tymczasowe wytyczne dla szkół.

• W UE obowiązuje AI Act (wszedł w życie 1 sierpnia 2024 r.). Zgodnie z załącznikiem III systemy AI używane do oceny wyników nauczania czy monitoringu egzaminów kwalifikują się jako „wysokiego ryzyka”, a więc podlegają surowym wymogom (rejestry, ocena ryzyka, nadzór). To sygnał dla władz oświatowych i dostawców edtechu, czyli technologii edukacyjnych. W obszarach wrażliwych zasada „pokaż i udowodnij” zastępuje „zaufaj mi”.

AI a kalkulator, podręcznik, korepetytor

Czy AI to nowy kalkulator? Historia podpowiada ostrożny optymizm. Badania nad kalkulatorami pokazały, że ich sensowne włączenie do nauczania nie obniża osiągnięć, a być może poprawia nastawienie uczniów. Kluczem okazało się to, kiedy i jak pozwalamy z tych urządzeń korzystać.

To świetna analogia do AI: narzędzie powinno wspierać tok rozumowania (hinty, wizualizacje, pytania), a nie wyręczać w myśleniu. Podręcznik jest statyczny, AI dialogowa. To plus (personalizacja) i minus (ryzyko halucynacji i łatwych skrótów). Rozjemcą jest nauczyciel i dobrze zbudowane zadanie. Dobry tutor ludzki zada pytania naprowadzające i zatrzyma się, gdy widzi, że uczeń „odpływa”. AI potrafi to symulować, o ile ustawimy „szyny” (np. najpierw rozwiązanie ucznia, potem podpowiedź, na końcu sprawdzenie). W przeciwnym razie zbyt łatwo dostajemy odpowiedź na skróty, co osłabia uczenie się.

Naukowo o wykorzystaniu AI w edukacji

Badania porównujące informację zwrotną od AI i ludzi wskazują, że AI bywa zaskakująco użyteczna jako asystent feedbacku (czasem nieco gorsza jakościowo, ale szybka i konsekwentna). Uczniowie poprawiają dzięki niej teksty i rośnie ich motywacja do rewizji. Najlepiej działa, gdy wskazówki są konkretne i formatywne, a uczeń wie, że to tylko jeden z głosów.

Przeglądy z 2024 r. sugerują pozytywny wpływ AI na osiągnięcia i myślenie krytyczne, ale z dużymi różnicami w zależności od przedmiotu, czasu interwencji i roli AI (tutor vs. generator treści).

Czego już się nauczyliśmy w koegzystencji z AI?

• Przykład Nowego Jorku: szybki zakaz ChatGPT (styczeń 2023) został odwrócony i zastąpiony podejściem „uczyć z AI i o AI”, wspartym materiałami dla szkół. Kierunek zmiany: nie „czy”, lecz „jak bezpiecznie i z sensem”.

• AI Act w UE ustawia poprzeczkę dla zastosowań wysokiego ryzyka (ocenianie, proktorowanie). W praktyce oznacza to konieczność audytowalności, rejestrów i realnego nadzoru człowieka.

• OECD i UNESCO podkreślają: w epoce „silnej AI” trzeba przemyśleć programy nauczania, w tym uczyć kryteriów jakości, sprawdzania źródeł, inżynierii promptów i etyki danych. To nie dodatek do informatyki, ale nowa „umiejętność przekrojowa”.

Elektryczny rower edukacji

Czy AI przejmie cały proces uczenia się? Nie i oby nie próbowała. Może być jednak jak elektryczny rower: przyspieszy, gdy pod górę, pomoże utrzymać tempo, pozwoli dojechać dalej bez „spalenia mięśni”. Warunek - to wciąż my pedałujemy, stawiamy pytania, próbujemy, popełniamy błędy i rozumiemy, co robimy.

Politycy i dyrektorzy mają za zadanie wytyczyć drogę (ramy prawne i standardy), nauczyciele – prowadzić peleton (dobrze zaprojektowane zadania, mądre „szyny”), a uczniowie – jechać świadomie, bez brania na hol. Wtedy AI będzie rewolucją w nauce, nie ściągą w nowym wydaniu.