Sztuczna inteligencja, która pierwotnie miała wspierać procesy analityczne i automatyzację, staje się równieżnarzędziem w rękach podmiotów prowadzących działania dezinformacyjne skierowane na strategiczne sektory – w tym energetykę. Uczestnicy dyskusji podkreślali, że polski rynek energii jest szczególnie podatny na kampanie fałszywych narracji, często inspirowane z zewnątrz i wymierzone w zaufanie społeczne do transformacji energetycznej, bezpieczeństwa dostaw czy decyzji inwestycyjnych państwa.

Eksperci się zgodzili, że w dobie dynamicznego rozwoju generatywnych modeli językowych i mediów społecznościowych walka z dezinformacją wymaga współpracy międzysektorowej – od instytucji publicznych, przez spółki energetyczne, do mediów i środowiska naukowego. Wskazywano, że Polska potrzebuje spójnej strategii reagowania na fałszywe przekazy, w której kluczową rolę będą odgrywać edukacja informacyjna oraz szybka weryfikacja treści pojawiających się w sieci.

Niełatwy moment przejściowy

Aleksandra Auleytner, szefowa praktyki IT&TMT w Kancelarii DZP, poruszyła temat odpowiedzialności prawnej za działania sztucznej inteligencji.

– Czy można pozwać AI? – postawiła pytanie ekspertka, otwierając w ten sposób szerszą dyskusję o granicach odpowiedzialności w erze technologii uczących się.

Auleytner przypomniała, że mimo dynamicznego rozwoju regulacji unijnych temat odpowiedzialności maszyn pozostaje wciąż otwarty.

– W rozporządzeniu o sztucznej inteligencji (AI Act) wskazano, że nie ma jednej, uniwersalnej definicji sztucznej inteligencji – zauważyła.

Jak zaznaczyła, prawodawcy europejscy przygotowywali się nie tylko na rozwój klasycznych systemów informatycznych, lecz także na przyszłe technologie, takie jak systemy kwantowe czy nawet analogowe rozwiązania wykorzystujące uczenie maszynowe. Już w 2016 r. Parlament Europejski rozważał stworzenie tzw. elektronicznej osobowości prawnej, która miałaby umożliwić przypisanie sztucznej inteligencji częściowej odpowiedzialności za własne działania.

– Pojawiła się nawet koncepcja ubezpieczenia dla systemów AI. Każdy dostawca miałby wpłacać składkę na specjalny fundusz, który pokrywałby ewentualne szkody wyrządzone przez algorytmy – przypomniała Auleytner.

Ekspertka zwróciła uwagę, że obecnie znajdujemy się w niełatwym momencie przejściowym, ponieważ rozporządzenie o sztucznej inteligencji nie weszło jeszcze w życie w pełnym zakresie, zwłaszcza w odniesieniu do systemów wysokiego ryzyka. To właśnie one, obejmujące m.in. zastosowania w sektorze energetycznym, zdrowotnym czy finansowym, będą wymagały ścisłej kontroli i certyfikacji.

Jak podkreśliła, odpowiedzialne wdrażanie sztucznej inteligencji w Polsce, zwłaszcza w sektorze energetycznym, wymaga nie tylko znajomości regulacji, lecz także praktycznej świadomości zagrożeń i konsekwencji prawnych.

Potrzebna jest spójna strategia państwa

Tomasz Soika, dyrektor departamentu prawnego Huawei, wskazał na potrzebę szerszego uwzględnienia strategii w zakresie wykorzystania sztucznej inteligencji w sektorze energetycznym.

– Krajowy Plan w dziedzinie Energii i Klimatu, który jest obecnie aktualizowany przez Radę Ministrów, nie zawiera strategii dotyczącej wykorzystania AI w energetyce. A to właśnie promowanie inteligentnych rozwiązań w zakresie wspierania efektywności energetycznej powinno być priorytetem – podkreślił radca prawny.

Tomasz Soika zaznaczył, że w akcie o sztucznej inteligencji zostały przewidziane tzw. piaskownice regulacyjne. Są to dedykowane środowiska testowe, w których przedsiębiorstwa i instytucje publiczne mogą bezpiecznie eksperymentować z nowymi rozwiązaniami technologicznymi, również w zakresie sztucznej inteligencji w energetyce.

– To ekosystem, który pozwala na pozyskiwanie lepszej jakości danych i umożliwia trenowanie modeli AI. Podobne rozwiązania funkcjonują z powodzeniem w Wielkiej Brytanii – zaznaczył Soika.

Jak wyjaśnił, ważnym elementem procesu wdrażania AI jest powołanie Krajowego Punktu Kontaktowego w celu zapewnienia dialogu między administracją publiczną a sektorem energetycznym.

– Każde państwo członkowskie Unii Europejskiej powinno wyznaczyć taki organ. W Polsce wciąż nie wskazano takiego przedstawiciela dla branży energetycznej.

Prawnik przypomniał, że na poziomie unijnym trwają konsultacje strategicznego planu działania na rzecz cyfryzacji i wdrażania sztucznej inteligencji w sektorze energii. Plan ten powinien wspierać bezpieczną wymianę wysokiej jakości danych, tak by były one bardziej reprezentatywne, co pozwoli na lepsze trenowanie modeli AI.

Zaznaczył, że dla zapewnienia bezpieczeństwa i konkurencyjności polskiej energetyki kluczowe będzie uchwalenie przepisów, które umożliwią wdrażanie innowacji oraz zapewnią przyjazne warunki do inwestycji w rozwój inteligentnego zarządzania energią.

– Do tego niezbędne są proporcjonalne regulacje uwzględniające konieczność zapewnienia efektywności energetycznej, innowacyjności polskiej gospodarki oraz bezpieczeństwa. Jest to szczególnie istotne przy wdrażaniu właściwych mechanizmów bezpieczeństwa, które powinny być odpowiednie i adekwatne do zidentyfikowanych realnych ryzyk, a nie czysto hipotetycznych. Antidotum są tutaj standaryzacja i certyfikacja.

Odnosząc się do przepisów rozporządzenia o sztucznej inteligencji, które zacznie obowiązywać w sierpniu 2026 r., przyznał, że wokół niego wciąż istnieje wiele wątpliwości interpretacyjnych.

– Nie wiemy jeszcze, w jakim zakresie rozporządzenie będzie miało wpływ na sektor energetyczny. Nadal nie ma pewności, jak klasyfikować systemy AI pod względem krytyczności. Systemy wspierające inteligentne wytwarzanie energii wydają się nieobjęte tak restrykcyjnymi wymogami, ale każdy przypadek będzie trzeba poddać analizie – dodał Soika.

Jak podkreślił, polityka regulacyjna powinna wspierać inwestycje w projekty energetyczne wykorzystujące sztuczną inteligencję przy optymalizacji efektywności energetycznej. Wskazał, że Huawei jako lider w segmencie inteligentnych rozwiązań w zakresie magazynowania energii wdrożył już w UE projekty z wykorzystaniem sztucznej inteligencji, które przynoszą oszczędności rzędu 30 proc. względem standardowych instalacji PV bez komponentów AI.

Zaapelował też o regulacje, które będą wspierały inwestycje w projekty wykorzystujące systemy AI przy wytwarzaniu energii, finansowanie innowacyjnych polskich startupów w energetyce i promowanie współpracy biznesu z uczelniami. Wskazał również na potrzebę rozwoju systemu certyfikacji i standaryzacji wymogów, technologii, który pozwoliłby na bezpieczne i odpowiedzialne wdrażanie środków zarządzania ryzykiem w sektorze energetycznym.

Odpowiedzialność rozproszona

Doktor Cezary Małozięć, radca prawny i wykładowca Uniwersytetu SWPS, skupił się na kwestii odpowiedzialności prawnej za działania sztucznej inteligencji w sektorze energetycznym. Przypomniał, że mimo coraz większej autonomii systemów AI należy pamiętać o ich podstawowym charakterze, ponieważ pozostają one narzędziem w rękach człowieka.

– Wyobraźmy sobie sytuację, w której system sztucznej inteligencji monitoruje natężenie sieci energetycznej i na skutek błędnej diagnozy doprowadza do blackoutu, czyli masowej awarii prądu w dużej części kraju. Kto wtedy ponosi odpowiedzialność? – zapytał.

Jak wyjaśnił dr Małozięć, odpowiedzialność w takich przypadkach może być rozproszona.

– Za skutki mogą odpowiadać dostawcy systemu, jeśli zawiodły algorytm lub infrastruktura techniczna; może to być również odpowiedzialność po stronie użytkownika, który nie zastosował się do instrukcji; w niektórych przypadkach odpowiedzialność może być dzielona między kilka podmiotów – wskazał. Dodał, że w praktyce niezwykle trudno jest jednoznacznie przypisać winę, zwłaszcza gdy proces decyzyjny AI jest złożony, a jego wyniki opierają się na analizie ogromnych zbiorów danych i zmiennych czynników.

Doktor Małozięć pozytywnie ocenił kierunek europejskich regulacji, które – jego zdaniem – wystarczająco jasno określają ogólne ramy prawne, ale celowo pozostawiają kwestie odpowiedzialności poszczególnym państwom członkowskim.

Z kolei radca prawny Izabella Żyglicka z kancelarii Żyglicka i Wspólnicy podkreśliła, że prawo od zawsze reaguje z opóźnieniem wobec rozwoju technologicznego i gospodarczego.

– Najpierw mamy zdarzenia gospodarcze, dopiero potem zastanawiamy się, jak je uregulować. Tak samo jest z AI – technologia rozwija się błyskawicznie, a ustawodawcy dopiero próbują ją dogonić. Dlatego musimy tworzyć mechanizmy szybkiego reagowania, które pozwolą nam odpowiedzieć na wyzwania, zanim te wymkną się spod kontroli – powiedziała.

W jej ocenie obecne unijne prace nad rozporządzeniem o sztucznej inteligencji są krokiem w dobrym kierunku, ale wciąż brakuje w nich precyzyjnej wizji tego, jaką rolę ma pełnić człowiek w świecie, w którym coraz więcej decyzji podejmują algorytmy.

– Musimy jasno określić, w którym kierunku chcemy podążać – czy chcemy, by to człowiek wciąż był nadrzędnym ogniwem systemu, czy tylko jednym z jego elementów. Kierunki regulacyjne muszą zawsze zakładać, że nadzór nad wszystkim pełni człowiek – podkreśliła.

Zdaniem ekspertki niezależnie od stopnia zaawansowania technologicznego to człowiek zawsze ponosi ostateczną odpowiedzialność za skutki działania sztucznej inteligencji.

Wątek ochrony środowiska

Doktor Maja Czarzasty-Zybert, członek rady zarządzającej Polskiego Komitetu Światowej Rady Energetycznej (WEC), zwróciła uwagę na wpływ AI na środowisko naturalne i zasoby wody. Podkreśliła, że w rozmowach o sztucznej inteligencji często koncentrujemy się wyłącznie na efektywności, automatyzacji i wspieraniu zielonej energii, zapominając o kosztach środowiskowych.

– AI wiąże się z ogromnym zapotrzebowaniem na energię i wodę. Każdy kilowat mocy obliczeniowej wykorzystywanej przez sztuczną inteligencję wymaga od 1,8 do nawet 12 l wody, w zależności od lokalizacji i sposobu chłodzenia serwerów – wyliczała.

Jak zauważyła, globalnie sztuczna inteligencja odpowiada już za ok. 1,3 proc. zużycia energii, a trend ten będzie rosnąć wraz z rozwojem modeli generatywnych i automatyzacji procesów przemysłowych. Ekspertka zaapelowała, by Polska, znajdująca się na ścieżce transformacji energetycznej i cyfrowej, potraktowała ten moment jako szansę na zrównoważony rozwój infrastruktury AI.

MP

partner

ikona lupy />
Materiały prasowe