- Podstawowa korzyć jest związana z daleko idącą indywidualizacją oferty. Moim zdaniem systemy sztucznej inteligencji są w stanie odpowiedzieć na potrzeby klientów nawet bardziej niż oni sami sobie je uświadamiają. Algorytmy mogą dużo szybciej osiągnąć podobny poziom personalizacji i detalu oferty w przypadku osób indywidualnych, jaki jest proponowany klientom korporacyjnym. Koszt przygotowania takiej oferty nie będzie przy tym bardzo wysoki - uważa Witold Żukowski, Country Manager w firmie Red Hat.
TJ: Na jakim etapie wykorzystania AI w bankowości dziś jesteśmy? Można odnieść wrażenie, że banki pomimo wszystko przestały chwalić się wykorzystywaniem automatyzacji, robotyzacji procesów (RPA), korzystaniem z chatbotów i po prostu realizują te zadania za pomocą innowacyjnych rozwiązań, często w tle. Asystenci w aplikacjach wspierają klientów, a większości tych rozwiązań klienci nie widzą. Stąd pytanie, czy powinni o nich wiedzieć?
Witold Żukowski: Obecnie nie ma w zasadzie żadnej poważnej instytucji bankowej, która nie próbowałaby wdrażać sztucznej inteligencji. Analizy firm consultingowych, które badają rynek, pokazują, że w pierwszej kolejności banki będą wdrażały sztuczną inteligencję dla backoffice’ów – czyli wszelkich procesów administracyjnych wspomagających podstawową działalność. Wiele operacji backoffice’owych w sektorze finansowym już wykorzystuje AI.
Warto tutaj zadać pytanie: dlaczego backoffice, a nie frontend – czyli kontakt z klientami? Wynika to z regulacji prawnych oraz kwestii związanych z podejmowaniem decyzji finansowych. Na przykład, gdy klient loguje się do systemu bankowego, składa wniosek, np. o kredyt i otrzymuje odpowiedź, pojawia się pytanie, kto tę decyzję podjął – zwłaszcza jeżeli jest ona negatywna. Dlatego, chociaż sztuczna inteligencja pomaga podjąć decyzję, to ostateczne rozstrzygnięcie i tak zostaje w rękach człowieka. AI wspiera kontakt – np. w formule wirtualnego asystenta, ale ostatecznie klient musi mieć jednak możliwość rozmowy z przedstawicielem banku.
Czekamy obecnie na regulacje, które mają się pojawić na terenie Unii Europejskiej, kodyfikujące w pewnym zakresie to, w jakich obszarach możemy, a w jakich nie możemy stosować AI. Być może po wejściu w życie tych aktów prawnych, takich jak na przykład AI Act, usługi z wykorzystaniem AI w kontaktach bezpośrednich z klientem również znajdą szersze zastosowanie. Trudno jednak wyrokować w tej sprawie dopóki nie znamy dokładnych i ostatecznych zapisów regulacji.
Obecnie instytucje finansowe stosują rozwiązania wykorzystujące AI głównie na potrzeby wewnętrzne. Dopóki nie będzie precyzyjnych regulacji, banki nie będą chętne do wychodzenia z tymi rozwiązaniami na zewnątrz. Wszystko dlatego, że istnieje ryzyko, iż klient może zakwestionować decyzję w sprawie kredytu czy innej usługi (w szczególności negatywną), powołując się na brak jasnego przedstawienia całej sekwencji zdarzeń, które do niej doprowadziły.
Jakie innowacyjne rozwiązania z wykorzystaniem AI w bankowości czekają klientów, ale i rynek, wraz z rozwojem sztucznej inteligencji? Pytam tu o rozwiązania, które mogą zostać wprowadzone w najbliższych miesiącach, maksymalnie w ciągu dwóch latach.
WŻ: Trudno tu przewidywać przyszłość, ponieważ rynek bankowy jest ściśle regulowany. Moim zdaniem instytucje będą bardzo ostrożne, jeżeli chodzi o wprowadzanie rozwiązań AI, w których klient końcowy będzie miał kontakt z interfejsem w pełni obsługiwanym przez sztuczną inteligencję. W perspektywie kilku lat będziemy pewnie mogli zobaczyć pierwsze rozwiązania, które również z punktu widzenia użytkownika końcowego będą wykorzystywały AI. To, na ile będą one rozpowszechnione zależy oczywiście w dużej mierze od tego, jak zareagują na nie klienci. Pewne jest natomiast to, że rozwiązania, które są w backoffice i wspomagają procesy decyzyjne będą nadal intensywnie rozwijane.
Czy widzi Pan jakieś zagrożenia związane z rozwojem AI pod kątem bezpieczeństwa systemów, aplikacji, urządzeń?
WŻ: Warto zwrócić uwagę, że żyjemy w świecie globalnych powiązań. Jako Polska czy Unia Europejska musimy postępować zgodnie z tymi wymogami, które narzucają organy regulacyjne. Presja zewnętrzna na wykorzystanie AI będzie ogromna dlatego, że np. rynki azjatyckie nie są poddawane tak rygorystycznym przepisom. Możemy spodziewać się, iż nasze instytucje finansowe będą bardzo mocno naciskać, aby obowiązujące regulacje nie były zbyt restrykcyjne.
Otwiera to oczywiście możliwość występowania ryzykowanych sytuacji, związanych przede wszystkim z systemami, które bazują na zewnętrznych zasobach. Ktoś może np. świadomie tak manipulować danymi, żeby wpływać na wynik konkretnego procesu decyzyjnego. Te zagrożenia już teraz są zauważalne w systemach pilotażowych. Między innymi dlatego jesteśmy zdania, iż przyszłość sztucznej inteligencji nie leży w dużych modelach, które obecnie dominują w medialnych nagłówkach, ani w ogólnych rozwiązaniach, które będą służyć wielu użytkownikom. Przedsiębiorstwa będą potrzebowały rozwiązań, które są specyficzne dla ich branży, klientów i zadań.
Co istotne, na ten moment nie znamy pełnego spektrum zagrożeń, które będą się pojawiały, gdy systemy zaczną się rozwijać i będą miały większy wpływ na biznes. Zasada jest taka, że im większy biznes i im więcej pieniędzy wchodzi w grę, przestrzeń ta staje się natychmiast celem cyberprzestępców.
Coraz częściej mówi się o wykorzystaniu AI przez cyberprzestępców. W jaki sposób ta technologia może być wykorzystana oraz czy AI może też zwalczać próby ataków, wyłudzeń, uderzenia w stabilność sektora bankowego?
WŻ: Przyszłość systemów biznesowych, które będą wykorzystywały sztuczną inteligencję, będzie bazować na danych wewnętrznych, chronionych przez konkretne instytucje czy przedsiębiorstwa. Sposób zabezpieczania tych danych i ich ujawniania oraz uwspólniania będzie podlegał bardzo rygorystycznym procesom. Moim zdaniem właśnie w tym kierunku będą szły główne wysiłki związane bezpieczeństwem wykorzystania AI.
Natomiast oczywiście z perspektywy instytucji finansowych atrakcyjność i funkcjonalność systemów wynika między innymi z tego, iż są zasilane danymi zewnętrznymi, dotyczącymi m.in. zachowań poszczególnych klientów, np. w mediach społecznościowych. Pytanie, czy tych danych nie da się zmanipulować, używając coraz bardziej wyrafinowanych systemów? Ciężko przewidywać w jakim kierunku oraz jakiego typu zagrożenia mogą się pojawić, w jaki sposób dane będą manipulowane. Na pewno jednak będzie toczył się wyścig między podmiotami, które będą chciały wprowadzić rozwiązania chroniące dane oraz przestępcami, którzy chcą w sposób nielegalny na nich zarobić. Wyścig ten będzie podobny do innych obszarów, do których się już po części przyzwyczailiśmy, np. ransomware.
Moim zdaniem główną przewagą AI będzie to, że pewne procesy mogą być wykonywane szybciej i w sposób bardziej zautomatyzowany. Wpływa to oczywiście również na bezpieczeństwo, ponieważ można wdrożyć systemy, które są w stanie m.in. wyeliminować błędy ludzkie przy tworzeniu kodu. Dzięki temu proces będzie szybszy i obarczony mniejszym ryzykiem, co umożliwi zespołom IT skupienie się na innowacjach.
Jak Pan wyobraża sobie idealną symbiozę pomiędzy firmami świadczącymi usługi finansowe z wykorzystaniem AI, ich klientami oraz światem zewnętrznym, gdzie sztuczna inteligencja będzie rozwijać się nieco szybciej niż same usługi czy poziom percepcji ich klientów? Jakie wyzwania nas czekają, czy uda nam się wykorzystać AI, nie przyjmując jej negatywnych skutków, czy działań osób chcących wykorzystać AI w celach niezgodnych z obecnymi zasadami i normami prawnymi? Nie mówię tu tylko cyberprzestępcach, ale także państwach, które regulacje w sprawie AI traktują bardziej przedmiotowo czy bezrefleksyjnie.
WŻ: Kluczowe jest uświadomienie sobie, że są państwa, które niekoniecznie postępują zgodnie z regułami, do jakich jesteśmy przyzwyczajeni w Unii Europejskiej. To właśnie stanowi wyzwanie, ponieważ bardzo ciężko stworzyć dobrze działający ekosystem, gdy funkcjonujemy w tak konkurencyjnym środowisku. Polityka również ma tu olbrzymie znaczenie. Istnieją państwa, które niekoniecznie będą chciały współpracować w tym obszarze ze Stanami Zjednoczonymi czy Unią Europejską. Symbioza nie będzie więc łatwa do osiągnięcia.
Momentem przełomowym może być pierwszy duży problem związany z zastosowaniem AI, np. wyciek danych czy niewłaściwa decyzja podjęcia w oparciu o pomoc sztucznej inteligencji. Dopiero te wydarzenia mogą skłonić państwa do większej współpracy w zakresie regulacyjnym. Niestety nie jest to scenariusz pozytywny, ale bez takiego negatywnego wydarzenia może być bardzo ciężko uzyskać konsensus. Rola państw i regulatorów jest moim zdaniem ogromna. Musi być ona jednak skoordynowana.
Jakie są lub mogą być główne korzyści dla klientów z wykorzystania AI w finansach i bankowości, a jakie zagrożenia?
WŻ: Podstawowa korzyć jest związana z daleko idącą indywidualizacją oferty. Moim zdaniem systemy sztucznej inteligencji są w stanie odpowiedzieć na potrzeby klientów nawet bardziej niż oni sami sobie je uświadamiają. Algorytmy mogą dużo szybciej osiągnąć podobny poziom personalizacji i detalu oferty w przypadku osób indywidualnych, jaki jest proponowany klientom korporacyjnym. Koszt przygotowania takiej oferty nie będzie przy tym bardzo wysoki.
Zagrożenia w tym przypadku związane są głównie z kwestią anonimowości. Z jednej strony dobrze, że trafiają do nas bardzo spersonalizowane oferty. Ich przygotowanie wiązać się jednak może z dostępem do wrażliwych danych. Uważam, że prywatne dane nie powinny być wykorzystywane w systemach AI bez świadomej zgody ich właściciela. Wyzwanie stanowi oczywiście też kwestia podejścia do praw autorskich. Jest to istotne zagadnienie związane z wykorzystaniem sztucznej inteligencji zarówno na poziomie biznesowym, jak i indywidualnym.