dr Małgorzata Kochanowicz, radczyni prawna, adiunktka na Uniwersytecie WSB Merito w Poznaniu
dr Dota Szymborska, adiunktka na Uniwersytecie WSB Merito w Poznaniu
Niektóre Big-Techy oferują darmową subskrypcję na 12 miesięcy, wszystko dla studentów i studentek z ważną legitymacją i adresem e-mail z uczelni, i dlatego tak zwane “spółdzielnie” piszące prace licencjackie i magisterskie straciły klientów. Zmienia się wiele w Akademii, dlatego potrzeba implementacji polityki dotyczącej AI stała się koniecznością, a nie dodatkiem do regulaminów studenckich. Do tego dochodzi prawodawstwo unijne. Polskie uczelnie, uniwersytety, politechniki próbują się odnaleźć w nowej rzeczywistości przepełnionej sztuczną inteligencją i nowymi technologiami, które wpływają na wszystkie etapy kształcenia.
Obszary działalności
Zgodnie z art. 2 ustawy z 20 lipca 2018 r. Prawo o szkolnictwie wyższym i nauce (t.j. Dz.U. z 2024 r. poz. 1571 ze zm.) rolą tego sektora jest realizacja wysokiej jakości procesu kształcenia oraz działalności naukowej, kształtowanie postaw obywatelskich, a także aktywne uczestnictwo w rozwoju społecznym i współtworzenie gospodarki opartej na innowacjach, a zgodnie z art. 4 ust. 1 działalność naukowa obejmuje badania naukowe, prace rozwojowe oraz twórczość artystyczną.
Sztuczna inteligencja odgrywa coraz większą rolę w szkolnictwie wyższym i może być wykorzystywana w następujących obszarach działalności:
● naukowej - analiza dużych zbiorów danych, modelowanie złożonych zjawisk czy wyszukiwanie informacji,
● dydaktycznej - tworzenie materiałów dydaktycznych do pracy ze studentami, przygotowywanie testów, prezentacji czy quizów,
● administracyjnej - analiza danych, tworzenie wzorów umów.
Te trzy obszary tak naprawdę pokrywają większość zadań realizowanych w uczelniach, zatem regulacje stają się niezbędne, a jasne polityki zarówno dla wykładowców, administracji i studentów muszą być rozpowszechniane, przecież nieznajomość prawa nie zwalnia z jego stosowania.
AI na uczelniach - wyzwania
Jeżeli już wiemy, że obecnie jedyną drogą rozwoju jest mądre aplikowanie sztucznej inteligencji to możliwość wykorzystania AI w szkolnictwie wyższym przestaje budzić kontrowersje, a uczelnie przyjmując AI jako jedno z podstawowych narzędzi pracy, powinny stawić czoła wyzwaniom związanym z jej wykorzystaniem. Wyzwania AI w szkolnictwie wyższym można podzielić na:
● etyczne - prawidłowość działania algorytmów, w tym trudność w wyjaśnianiu zasadności podejmowanych decyzji (tzw. black box), ryzyko dyskryminacji czy nierównego traktowania, brak samodzielności studentów, skala bias, czyli uprzedzeń algorytmicznych, jest wciąż duża, jednak na “rynku” pojawiają się modele, które są mniej narażone na udzielanie niewłaściwych odpowiedzi, przykładem w Polsce mogą być dwa modele - rządowy PLUMM i społeczna inicjatywa, jaką jest Bielik i etyczny model Bielik_guard, czyli Sójka.
● prawne - nieprzypisywanie autorstwa generowanych treści, trudności w stosowaniu prawa danych osobowych przez uczelnie na przykład w zakresie automatyzacji decyzji, bezprawne umieszczenie przez pracowników danych osobowych w systemach AI. Wyzwanie chyba największe, jeżeli popatrzymy na regulacje związane zarówno z prawem autorskim, jak i ochroną danych. Dlatego tak cieszą prace nad polskimi modelami, które mają być wykorzystywane w administracji publicznej i są odpowiedzią na komercyjne rozwiązania. Rośnie świadomość nie tylko związana z wykorzystaniem praw autorskich, ale również na przykład tym, gdzie dane są przechowywane.
● techniczne - bezpieczeństwo danych przetwarzanych w AI, brak interoperacyjności różnych narzędzi AI. Kwestia cyberbezpieczeństwa jest jedną z tych, które nie mogą być pomijane, w obecnych czasach bardzo istotne jest to, by chronić obywateli przed cyberatakami. Z jednej strony chodzi o zabezpieczenie np. infrastruktury krytycznej, z drugiej o to, by edukować użytkowników i użytkowniczki. To drugie działanie może być skuteczniejsze niż fizyczne bariery.
● organizacyjne - niedostateczne kompetencje cyfrowe kadry, brak spójnych strategii wdrażania AI na poziomie instytucjonalnym. Coraz więcej instytucji i organizacji inwestuje we wsparcie szkoleniowe dla swoich zespołów, tak by wdrażanie sztucznej inteligencji nie było tylko koniecznością narzuconą przez przełożonych, a stało się codziennym, mądrym i świadomym korzystaniem z narzędzi AI.
● kształcenia - wykorzystywanie przez studentów AI do przygotowywania prac domowych, zaliczeń, niski poziom merytoryczny informacji przygotowywanych przez AI, ograniczony dostęp do wysokiej jakości wiedzy. AI slope, czyli bardzo niskiej wartości wytwory AI, które zapełniają Internet, stają się coraz większym problemem, dochodzi do tego również zagrożenie związane z tym, że kolejne LLMy (duże modele językowe) będą trenowane na danych, które wcześniej zostały wygenerowane przez inne modele.
● społeczne - wykluczenie cyfrowe, traktowanie AI jak źródła wiedzy bez weryfikacji jej jakości, ograniczenie umiejętności samodzielnego konstruowania rozwiązań,
● bezpieczeństwo danych - niska jakość lub fragmentaryczność danych wykorzystywanych do trenowania modeli, prawdopodobieństwo wycieku danych, błędne rekomendacje zbudowane na niekompletnych lub nieprawdziwych danych.
Dynamiczne i trudne do przewidzenia zmiany zachodzące w otoczeniu szkolnictwa wyższego wymagają systematycznego monitorowania uwarunkowań zewnętrznych oraz bieżącej aktualizacji instytucjonalnych polityk dotyczących sztucznej inteligencji. Ważne jest zatem, aby regulacje w obszarze AI na uczelniach wyższych były formułowane z uwzględnieniem świadomości tych uwarunkowań. Analiza wybranych polityk AI wskazuje, że część z nich nie zawiera zapisów odnoszących się do konieczności monitorowania otoczenia ani dostosowywania funkcjonowania uczelni do zachodzących zmian. Jednocześnie w niektórych dokumentach takie postanowienia występują, czego przykładem są wybrane regulacje wewnętrzne:
“Ze względu na intensywny rozwój systemów SI i wynikającą z niego konieczność ciągłego dostosowywania kształcenia akademickiego do tego rozwoju, nowa uchwała w sprawie wytycznych dotyczących korzystania z narzędzi sztucznej inteligencji w procesie kształcenia zostanie podjęta do dnia (…)”.
Inna z uczelni wskazała, iż: „(...) deklaruje, że będzie monitorować rozwój narzędzi GenAI i ich wykorzystanie w środowisku akademickim i aktualizować niniejsze wytyczne”, a jeszcze inna: „W związku z dynamicznym rozwojem systemów generatywnej sztucznej inteligencji, rekomendacje będą aktualizowane w celu dostosowania do zachodzących zmian”.
Korzyści wynikające ze stosowania AI
Pomimo licznych wyzwań wykorzystanie AI w szkolnictwie wyższym niesie dla społeczeństwa wiele korzyści. Usprawnia pracę administracyjną na uczelni wyższej poprzez racjonalne alokowanie zasobów ludzkich na zadania o wyższej wartości dodanej oraz poprzez szybsze i precyzyjniejsze wykonywanie rutynowych czynności przez AI w porównaniu z pracą ludzką. AI pewne czynności wykonuje szybciej i dokładniej niż człowiek, dzięki czemu niewątpliwie jest narzędziem wspierającym czynnik ludzki.
Automatyzacja natomiast obniża koszty operacyjne uczelni, odciążając budżety publiczne finansowane z podatków, co potencjalnie przekłada się na redukcję opłat czesnego i większą inkluzywność edukacji wyższej dla szerszych warstw społecznych. Demokratyzacja kształcenia za sprawą AI eliminuje bariery geograficzne i finansowe, umożliwiając dostęp do wysokiej jakości edukacji osobom wykluczonym transportowo lub o niższym statusie ekonomicznym, co wzmacnia mobilność i spójność społeczną. W konsekwencji te mechanizmy przyczyniają się do wyrównywania szans edukacyjnych, podnosząc ogólny kapitał ludzki społeczeństwa i jego konkurencyjność gospodarczą.
Dla społeczeństwa korzystne jest, że sztuczna inteligencja minimalizuje dysproporcje edukacyjne, ponieważ umożliwia powszechny i nieograniczony czasowo dostęp do wiedzy, co sprzyja wyrównywaniu szans edukacyjnych między różnymi grupami społecznymi. Stopniowalny poziom merytoryczny oraz różnorodne formy prezentacji informacji (w tym wizualne, audio i tekstowe) odpowiadają na różne style uczenia się i potrzeby odbiorców, co zwiększa efektywność przyswajania wiedzy. Ponadto, bezpłatny charakter takich zasobów i możliwość wielokrotnego korzystania z nich bez ograniczeń pozwala na inkluzywność, zwłaszcza dla grup marginalizowanych, dla których dostęp do tradycyjnych form edukacji może być utrudniony. Dodatkowo, możliwość wyboru źródła informacji rozwija krytyczne myślenie i samodzielność w zdobywaniu wiedzy, co przekłada się na większą aktywność obywatelską i rozwój społeczny. W efekcie AI promuje równość edukacyjną, co wzmacnia spójność społeczną i zwiększa potencjał rozwojowy całej populacji.
Konieczne procedury
W celu adekwatnego sprostania zidentyfikowanym wyzwaniom uczelnie wyższe powinny rozwijać rozwiązania ograniczające ryzyka związane z wykorzystaniem sztucznej inteligencji oraz podnoszące jakość jej zastosowań w procesach akademickich. Jednym z kluczowych instrumentów porządkujących praktyki wykorzystania AI jest strategia wdrażania tych technologii, obejmująca w szczególności przyjęcie kompleksowej polityki AI. Polityka ta powinna uwzględniać m.in.: powołanie koordynatora ds. AI, systemowe wzmocnienie kompetencji kadry, programy szkoleniowe dla pracowników, działania na rzecz ograniczania wykluczenia cyfrowego, rozwój odpowiedniej infrastruktury technologicznej zapewniającej bezpieczeństwo danych, wdrażanie i promowanie standardów etycznych, reguły odpowiedzialnego korzystania z AI, a także mechanizmy ewaluacji wpływu AI na proces kształcenia, w tym monitorowanie jakości, audyty oraz ocenę ryzyka. Po drugie, polityka AI powinna odnosić się w sposób spójny do wszystkich etapów cyklu życia rozwiązań AI: ich projektowania, wdrażania, bieżącego stosowania oraz monitorowania i przeglądu. Po trzecie, zgodnie z postulatami formułowanymi w literaturze przedmiotu, polityka ta powinna obejmować trzy zasadnicze obszary funkcjonowania uczelni: działalność dydaktyczną, działalność naukową oraz działalność administracyjną. Po czwarte, polityka AI powinna być zgodna z przepisami prawa, w tym Unii Europejskiej. Pamiętajmy, Akt o Sztucznej Inteligencji (EU AI Act) jest prawem unijnym, podobnie jak RODO. Polityka AI na uczelni wyższej powinna służyć też ochronie społeczeństwa przed nadmiernymi ryzykami technologicznymi oraz zapewnieniu poszanowania praw podstawowych i bezpieczeństwa obywateli (studenci, naukowcy) i podmiotów (kontrahenci, konsorcjanci), którzy są z uczelnią związani.
Skutki wprowadzenie polityki AI
Polityka dotycząca wykorzystania sztucznej inteligencji w szkolnictwie wyższym oddziałuje na społeczeństwo przede wszystkim poprzez kształtowanie modeli wytwarzania, walidacji i dystrybucji wiedzy, sposobów ochrony praw oraz dobrostanu studentów, a także wzorców przygotowania obywateli do funkcjonowania w środowisku zdominowanym przez technologie algorytmiczne. Stanowi ona instrument regulacyjny determinujący ramy odpowiedzialnego projektowania, wdrażania i nadzoru nad systemami AI w przestrzeni akademickiej.
Właściwie zaprojektowana polityka AI porządkuje zagadnienia związane z ochroną prywatności, bezpieczeństwem i zarządzaniem danymi oraz transparentnością działania systemów, co sprzyja budowaniu zaufania społecznego do instytucji szkolnictwa wyższego oraz do zaawansowanych technologii informatycznych. Jednoznaczne reguły zawarte w polityce AI dotyczące zgody, możliwości rezygnacji z wykorzystania narzędzi AI oraz ograniczania automatyzacji decyzji w obszarach wrażliwych wzmacniają autonomię jednostki i redukują ryzyko nadużyć czy dyskryminacji.
Polityka AI może również pełnić funkcję mechanizmu wyrównywania szans, poprzez ustanawianie standardów dostępności cyfrowej, zapewnianie rozwiązań wspierających osoby z niepełnosprawnościami oraz kompensowanie przejawów wykluczenia cyfrowego o podłożu sprzętowym lub infrastrukturalnym. W takich warunkach narzędzia AI nie tylko nie intensyfikują istniejących nierówności edukacyjnych, lecz sprzyjają poszerzaniu dostępu do kształcenia i rozwijaniu kompetencji cyfrowych w zróżnicowanych grupach społecznych.
Formułując i implementując polityki AI, uczelnie wyższe stają się kluczowymi ośrodkami wypracowywania standardów etycznych, obejmujących między innymi kwestie stronniczości algorytmicznej, sprawiedliwości proceduralnej oraz odpowiedzialności za decyzje podejmowane z użyciem systemów inteligentnych. Standardy te są następnie transferowane do administracji publicznej, sektora prywatnego i szeroko rozumianej debaty publicznej, wpływając na kulturowe i normatywne ramy stosowania AI. Edukacja w zakresie etyki i ładu (governance) AI oddziałuje na kształtowanie przyszłych elit zawodowych i politycznych, a tym samym na wzorce wykorzystywania technologii w skali całego społeczeństwa.
Regulacje instytucjonalne dotyczące korzystania z narzędzi AI w dydaktyce i badaniach naukowych (takie jak określenie dopuszczalnych form użycia, obowiązek ujawniania wsparcia AI, czy wyłączenia w określonych trybach weryfikacji wiedzy) przyczyniają się do ochrony integralności akademickiej oraz wiarygodności dyplomów. W konsekwencji wzmacniają zaufanie pracodawców i instytucji publicznych do kwalifikacji absolwentów, co pozostaje istotne dla funkcjonowania rynku pracy i jakości elit wiedzy.
Wreszcie, poprzez kształtowanie oraz praktyczną implementację polityk AI uczelnie uczestniczą w tworzeniu krajowych i sektorowych strategii dotyczących sztucznej inteligencji, dostarczając zaplecza eksperckiego, wyników badań oraz wysoko wykwalifikowanych kadr dla administracji i biznesu. Tym samym polityka AI na poziomie instytucji akademickich znajduje odzwierciedlenie w rozwiązaniach regulacyjnych państwa, poziomie innowacyjności gospodarki oraz w sposobach, w jakie technologie algorytmiczne oddziałują na struktury i procesy społeczne w szerszej perspektywie.
Teraz właśnie jest moment, gdy polityki AI przechodzą nie tylko ewolucję, ale stają się narzędziami, dokumentami, które będą wspierać uczelnie wyższe w rozwoju, kształceniu i budowaniu wizerunku akademii, która jest w stanie sprostać wyzwaniom nowych technologii.