Skandal związany z użyciem przez firmę Cambridge Analytica danych Facebooka do wpływania na polityczne decyzje wyborców zaczyna nam uświadamiać zagrożenia, jakie niosą ze sobą nowoczesne technologie.
Skandal związany z użyciem przez firmę Cambridge Analytica danych Facebooka do wpływania na polityczne decyzje wyborców zaczyna nam uświadamiać zagrożenia, jakie niosą ze sobą nowoczesne technologie.
127 mld dol. ma być w 2025 r. wart globalny rynek związany z zastosowaniami sztucznej inteligencji – wynika z prognoz Bank of America. Największe dochody przyniosą technika rozpoznawania i tworzenia obrazów oraz obiektów, strategie tradingowe na rynku finansowym, przetwarzanie danych pacjentów i analityka predyktywna, czyli pozwalająca przewidywać trendy.
Samouczące się maszyny już mogą analizować ogromne bazy danych pochodzące z różnych źródeł i uczyć się zachowań oraz nawyków milionów klientów czy jednostek. Bez trudu dopasują treści do upodobań nawet pojedynczych odbiorców – umożliwią to algorytmy identyfikujące i uczące się preferencji użytkowników. Wykorzystują to już Netflix, Spotify czy Amazon. Za sprawą programów takich jak Landr muzyka i gry wideo w coraz większej części tworzą się same po bardzo niskich kosztach, a agencje prasowe wykorzystują sztuczną inteligencję do pisania newsów, uwalniając w ten sposób 20 proc. czasu swoich reporterów.
Światowe Forum Ekonomiczne na podstawie badań 350 specjalistów z branży AI (artificial intelligence) prognozuje, że już za 45 lat algorytmy prześcigną ludzi w wykonywaniu nawet najbardziej złożonych intelektualnych zadań. Za dwa lata będą one w stanie wygrać światowy turniej pokera. Sześć lat później napisanie eseju w szkole średniej można będzie zlecić odpowiedniej aplikacji. W roku 2028 oprogramowanie skomponuje samodzielnie utwór muzyki pop, doskonale naśladując styl dowolnie wybranego artysty, w taki sposób, że nabiorą się na to nawet najwierniejsi fani. W połowie wieku algorytm samodzielnie napisze książkę, która będzie mogła otrzymać nagrodę „New York Times’a”.
Przytoczone zastosowania sztucznej inteligencji nie są raczej groźne lub nieetyczne, wszystko jednak zależy od tego, kto i dla jakich celów ją wykorzysta. Raport „Złowrogie zastosowania sztucznej inteligencji” opracowany przez badaczy pod auspicjami Uniwersytetu Cambridge pokazuje największe realne zagrożenia. Algorytmy i roboty mogą wywoływać chaos oraz zamęt w różnych systemach zarządzania, np. w dostawach prądu czy wody. Paraliż ruchu drogowego poprzez jednoczesne uruchomienie wszędzie zielonych świateł może doprowadzić do ofiar większych niż zamach terrorystyczny. Tragiczne konsekwencje wywoła przejęcie kontroli nad flotą autonomicznych ciężarówek.
Uczenie się przez algorytmy zachowań ludzkich spowoduje, że odpowiednio sterowane mogą się wcielać w różne postaci. Rozmówca może mieć przekonanie, że dostał e-maila od znanej osoby lub rozmawia przez telefon czy Skype,a z członkiem rodziny lub przyjacielem. Tymczasem rolę tę przejmie podstawiony bot. Takie sztuczne byty mogą za nas uwierzytelniać się w różnych miejscach i instytucjach. To doskonała i szybka droga to pozbawienia ludzi pieniędzy i majątku. Boty oparte na samouczących się algorytmach mogą manipulować całymi społecznościami, dostarczając im fałszywych informacji w postaci fake newsów czy nagrań wideo, i wpływać propagandowo na wyniki wyborów, nawet w USA.
Rozwiązania technologiczne, zwane uprowadzeniem tożsamości, tworzą możliwości szantażowania wielu osób publicznych. Remedium w postaci nieustannego rejestrowania ich poczynań w trybie 24 godzin na dobę może nie być wystarczające. Korzystając ze sztucznej inteligencji, przestępcy umieszczą swój syntetyczny obraz w innym kontekście, uzyskując wiarygodne alibi. Znajdą się świadkowie, którzy uznali podłożony obraz za rzeczywisty. Wrogie siły będą zdolne do wywołania masowej paniki, daleko większej niż ta, która była skutkiem radiowej audycji Orsona Wellesa „Wojna światów” przed 80 laty.
Taki rozwój wypadków na masową skalę stanowić będzie zagrożenie dla bezpieczeństwa publicznego, a nawet narodowego.
Rozwój sztucznej inteligencji postępuje tak szybko, że utrudnia kontrolę jej szkodliwych zastosowań. Idealnym rozwiązaniem byłoby wynalezienie i rozpowszechnienie w sieci oprogramowania, które wychwyci i co najmniej oflaguje fałszywe newsy, przekazy czy obrazy. Jednak jak mówi Hany Farid, profesor Dartmouth College, twórca tzw. PhotoDNA, technologii, która rozpoznaje i blokuje dziecięcą pornografię, jesteśmy o dekady odlegli od momentu uzyskania możliwości technicznych, które dadzą szansę na wiarygodne rozróżnienie obrazów i informacji realnych od fikcji. Na razie dostępne są tradycyjne rozwiązania: wprowadzanie wymogu identyfikowania zagrożeń związanych z nowymi zastosowaniami technologii AI, wdrożenie odpowiednich rozwiązań w prawie międzynarodowym czy koncesjonowanie nowych zastosowań sztucznej inteligencji.
Algorytmy mogą się uczyć nawyków i zachowań milionów klientów
Materiał chroniony prawem autorskim - wszelkie prawa zastrzeżone. Dalsze rozpowszechnianie artykułu za zgodą wydawcy INFOR PL S.A. Kup licencję
Reklama
Reklama