Sztuczna inteligencja zainstalowana na telefonie ma ostrzegać przed potencjalnymi oszustwami. Pytanie, co później zrobi z danymi.
Sztuczna inteligencja ma pomóc w walce z oszustami telefonicznymi – zapowiedział Google w ubiegłym tygodniu. Amerykański gigant jest producentem systemu operacyjnego dla smartfonów, a jego Android działa na 71 proc. urządzeń na świecie. I to właśnie w kolejnych wersjach tego oprogramowania inżynierowie spółki chcą instalować model sztucznej inteligencji, który miałby wykrywać oszustwa.
Jak to działa? Według obietnic, w czasie połączenia telefonicznego automat analizowałby wzorce wypowiedzi. Gdyby trafił na prośbę o podanie numeru PIN do karty płatniczej, wyświetli użytkownikowi automatyczne ostrzeżenie, że ten może rozmawiać z przestępcą. Zachęci także do przerwania połączenia. Jeśli wierzyć zapowiedziom, narzędzie ma działać wewnętrznie na urządzeniu. W tym celu Android zostanie wyposażony w najmniejszy model AI, jakim dysponuje Google, czyli Gemini Nano. Nie wiadomo, kiedy rozwiązanie trafi do użytku. Według zapowiedzi więcej szczegółów firma ma ujawnić jeszcze w tym roku. Narzędzie ma pomóc rozprawić się z oszustwami telefonicznymi, które coraz częściej dotykają użytkowników telefonów.
Aby wyłudzić dane służące później np. do logowania do banku, nie trzeba zaawansowanej technologii. Wystarczy posłużenie się socjotechniką. Z danych policji wynika, że tylko w 2022 r. na skutek przestępstw telefonicznych wyłudzono w Polsce 141 mln zł. Najczęściej ofiarami padają osoby starsze. – Automatyczne wykrywanie oszustw za pomocą AI, takie jak funkcjonalność Gemini od Google’a, ma potencjał zwiększenia ochrony użytkowników przed spoofingiem. AI może analizować w czasie rzeczywistym wzorce i zachowania typowe dla oszustw telefonicznych, i ostrzegać użytkowników o podejrzanych połączeniach. Zastosowanie zaawansowanych algorytmów uczenia maszynowego może umożliwić szybsze i bardziej precyzyjne wykrywanie przestępstw – mówi Krzysztof Dyki, ekspert ds. cyberbezpieczeństwa z ComCERT.
Jak jednak zwraca uwagę, zainstalowanie oprogramowania samo w sobie może być potencjalnie zagrożeniem dla prywatności. – Użytkownicy mają ograniczone możliwości weryfikacji, czy zapewnienia spółki o prywatności danych są prawdziwe – zwraca uwagę. – Hipotetycznie system mógłby przykładowo profilować wyświetlane reklamy na podstawie analizy treści wszystkich rozmów, nie tylko telefonicznych. Nawet jeśli model AI działa lokalnie, nadal istnieje możliwość, że dane będą wykorzystywane do ulepszania algorytmów, co może wymagać pewnej formy wymiany informacji z serwerami Google’a – dodaje ekspert. Zwraca też uwagę, że użytkownicy powinni być świadomi tych kwestii i dokładnie zapoznać się z polityką prywatności i warunkami korzystania z nowych funkcji.
Ogłoszenie Google’a wzbudziło spore kontrowersje. „To niezwykle niebezpieczne” – zauważyła na portalu X Meredith Whittaker, która zarządza Fundacją Signal, dostawcą szyfrowanego komunikatora o tej samej nazwie. Jej zdaniem wprowadzenie takich rozwiązań otworzy ścieżkę do wykrywania wzorców także innych rozmów, co byłoby niebezpieczne choćby dla sygnalistów. „Od wykrywania oszustw dzieli nas niewielki krok do wykrywania wzorców powszechnie kojarzonych z informowaniem o nieprawidłowościach” – napisała.
Co więcej, o ile w innych regionach świata wprowadzanie takich rozwiązań byłoby stosunkowo proste, o tyle w Europie stałoby w sprzeczności z unijnym rozporządzeniem o ochronie danych (RODO). – Jeżeli narzędzie ma działać w urządzeniu, to z punktu widzenia RODO sytuacja będzie czysta: to będzie przetwarzanie danych w celu osobistym użytkownika, a więc wyłączone spod zakresu stosowania RODO. Tak jak moja książka adresowa w telefonie czy moje zdjęcia nie są objęte przepisami RODO, dopóki są tylko moje i ich nikomu nie udostępniam – ocenia Paweł Litwiński, adwokat i partner kancelarii Barta Litwiński.
– Ale gdyby dane gdzieś wędrowały czy były wykorzystywane do innych celów niż własne cele użytkownika (np. trenowania AI), wówczas oczywiście RODO wchodzi z całą mocą. A to znaczy, że Google musiałby mieć jakąś podstawę prawną, żeby te dane wykorzystać – zapewne świadomą i dobrowolną zgodę użytkownika. Poza tym przed zebraniem zgody spółka musiałaby poinformować o tym, co z tymi danymi robi i gdzie – dodaje Litwiński. Zwraca też uwagę, że już dziś z podobnego rozwiązania korzysta Samsung. Producent smartfonów oferuje tłumaczenie rozmów na żywo. – Podstawowe pytanie będzie takie, na ile użytkownicy uwierzą, że dane są przetwarzane lokalnie i Google z nich nie korzysta – konkluduje nasz rozmówca. ©℗