Nie będzie można używać sztucznej inteligencji (SI) do nadzoru biometrycznego, rozpoznawania emocji i prognozowania kryminologicznego. Generatywne systemy sztucznej inteligencji, takie jak ChatGPT, będą musiały informować, że treści zostały wygenerowane przez sztuczną inteligencję - przekazał Parlament Europejski.

W środę Parlament Europejski 499 głosami za, przy 28 przeciw i 93 wstrzymujących się, przyjął stanowisko negocjacyjne w sprawie aktu o sztucznej inteligencji. Teraz będzie prowadzić z państwami członkowskimi Unii negocjacje w sprawie ostatecznego jego kształtu.

Przepisy miałyby zagwarantować, że sztuczna inteligencja opracowywana i wykorzystywana w Europie będzie w pełni zgodna z prawami i wartościami Unii. Uregulują kwestie sprawowania nadzoru przez człowieka, bezpieczeństwa, prywatności, przejrzystości, niedyskryminacji oraz dobrostanu społecznego i środowiskowego.

Proponowane zasady wynikają z podejścia opartego na ryzyku. Ustanawiają obowiązki dla dostawców i tych, którzy wdrażają systemy SI, w zależności od poziomu ryzyka, jakie może generować sztuczna inteligencja. Zabronione byłyby zatem systemy SI o niedopuszczalnym poziomie ryzyka dla bezpieczeństwa ludzi, takie jak te wykorzystywane do oceny społecznej (klasyfikowanie ludzi na podstawie ich zachowań społecznych lub cech osobistych).