Algorytmy, modele i systemy otaczają nas z każdej strony, choć często nie mamy o tym pojęcia. Te rozwiązania utożsamiamy z tzw. sztuczną inteligencją, której ludzki charakter nadały m.in. hollywoodzkie filmy, takie jak „Terminator”. W praktyce jednak to, co nazywamy sztuczną inteligencją, ma przyziemny i praktyczny charakter, przyjmując formę algorytmów kategoryzujących użytkowników, modeli oceniających prawdopodobieństwo, że wpadniemy w zakupowy szał, systemów identyfikowania nas z użyciem biometrii (np. rysów twarzy). Są one wykorzystywane przez prywatne przedsiębiorstwa, platformy społecznościowe i zakupowe, a także coraz częściej przez państwo, np. do dystrybucji benefitów socjalnych.
Rozwiązania te są tworzone przez ludzi, którzy wykorzystując je, wpływają na zachowanie człowieka i stan jego umysłu. Część produktów i usług opartych na sztucznej inteligencji jest udostępniana w dobrej wierze, lecz są i takie, które mogą mieć nie zawsze pozytywny skutek, niekiedy prowadząc nas do zamknięcia w bańce informacyjnej, a czasem powodując utratę środków finansowych. Coraz częściej wpływają też na nasze samopoczucie. Nie jest to niestety science fiction z hollywoodzkich produkcji, ale rzeczywistość.
Zapewnić bezpieczeństwo
Od kilku lat Unia pracuje nad stworzeniem ram prawnych (i regulacyjnych) dla bezpieczniejszego środowiska cyfrowego, w którym użytkownik będzie mógł czuć się swobodnie i bez obaw korzystać z dobrodziejstw, które zapewniają internet i pokrewne technologie. Emanacją tych starań są chociażby projektowane rozporządzenie w sprawie sztucznej inteligencji i opublikowane niedawno projektowane przepisy określające nowe zasady dla odpowiedzialności pozakontraktowej za działanie systemów sztucznej inteligencji.
Załóż konto lub zaloguj się
i zyskaj dostęp na 14 dni za darmo.
Materiał chroniony prawem autorskim - wszelkie prawa zastrzeżone.
Dalsze rozpowszechnianie artykułu za zgodą wydawcy INFOR PL S.A. Kup licencję.