„Chociaż większość systemów AI (sztucznej inteligencji – przyp. red.) stwarza niskie ryzyko lub nie stwarza go w ogóle, to niektóre systemy AI powodują zagrożenia, którym należy przeciwdziałać, aby uniknąć niepożądanych skutków. Na przykład nieprzejrzystość wielu algorytmów może prowadzić do niepewności i utrudniać skuteczne egzekwowanie obowiązujących przepisów dotyczących bezpieczeństwa i praw podstawowych”. To kluczowe zdania z wczorajszej prezentacji Komisji Europejskiej poświęconej rozwojowi sztucznej inteligencji w Europie. Mówiąc najkrócej: oprócz inwestowania w robotyzację i nowoczesne technologie, nie można zapomnieć o etyce i poszanowaniu praw jednostki, np. do prywatności. A kto z biznesu zapomni, słono za to zapłaci. Takie założenie przynajmniej przyświeca projektowi nowego rozporządzenia oraz nowym ramom prawnym.
Ocena ryzyka