Wraz ze wzrostem mocy obliczeniowej komputerów do łask naukowców powróciła sztuczna inteligencja oparta na sieciach neuronowych. Z dużym powodzeniem wykorzystuje się już je m.in. do przetwarzania i wyciągania informacji z obrazów, do analizy języka, do zarządzania systemami chłodzenia elektrowni atomowych czy do nauki o tym, jak skręcają się białka.

Sieci neuronowe są przydatne, ale enigmatyczne. Gdy za ich pomocą analizujemy problemy lub coś przewidujemy, często okazują się precyzyjniejsze niż inne podejścia z dziedziny statystyki, ale nie umiemy dokładnie prześledzić, w jaki sposób osiągają lepsze wyniki. Czy więc bezpieczne jest korzystanie z modeli, których działania nie jesteśmy w stanie w pełni zinterpretować? I jak naukowcy próbują okiełznać niepewność związaną z używaniem skomplikowanej sztucznej inteligencji?

Wspólny język

Rozumienie procesu „myślenia” sztucznej inteligencji (SI) opartej na sieciach neuronowych jest ważne z kilku powodów. Po pierwsze, człowiek, wykorzystując doświadczenie własne i nieskwantyfikowane dane, może się wspomagać sztuczną inteligencją, ale do tego oba podmioty potrzebują „wspólnego języka”. Tymczasem w tych modelach nie wiadomo, gdzie nanieść ekspercką korektę.

Po drugie, ludzie umieją przenosić wnioski między dziedzinami – aby potrafiła to zrobić SI, trzeba umieć „przetłumaczyć” modele między kontekstami, a to jest trudne, gdy nie rozumiemy mechanizmów modelu. Po trzecie, modele z danych powinny nam pomagać wymyślać nowe koncepcje i mechanizmy teoretyczne, a gdy nie wiadomo, co rządzi danymi, trudno zainspirować fizyków, psychologów czy ekonomistów do nowych pomysłów. Wreszcie, po czwarte, żeby dopuścić modele sztucznej inteligencji do naszego życia, musimy mieć pewność, że są bezpieczne. Tymczasem ani nie da się weryfikować ich mechanizmów, ani nawet za bardzo śledzić kolejnych kroków ich działania, by monitorować bezpieczeństwo.

Sieci neuronowe

Sieci neuronowe to z jednej strony wykonanie co do joty kodu, który napisał człowiek. Skąd więc tajemniczość? Te linijki kodu generują potencjalnie nieograniczone interakcje między zmiennymi i ich transformacjami. Sztuczna inteligencja wybiera sobie warstwy, po których się rozwija i ten wybór – choć jego kryteria są opisane przez algorytm – nie jest dla nas obserwowalny.

Upraszczając: komputer szuka optimum, dostając pełną dowolność dotarcia do celu. Choć dane rozwiązanie pojawia się w skończonym czasie, to na gruncie teorii liczba ścieżek dotarcia do optimum jest nieskończona. Na razie wyzwaniem jest zdyscyplinowanie sztucznej inteligencji na tyle, by nie tylko proponowała optymalne rozwiązania, lecz także robiła to w sposób zrozumiały dla człowieka.

Metoda wyjaśnialności

Jedną z najbardziej obiecujących metod zaproponowanych przez statystyków jest wyjaśnialność (ang. explainability). Ta metoda jest podobna np. do psychologii, bo próbuje ocenić, na ile zmiana w danych wejściowych wpływa na zmianę wyników na wyjściu z modelu – łatwo dzięki tej metodzie sprawdzić, jak zmieni się precyzja oszacowania po usunięciu jednej zmiennej.

Przykładowo, diagnozując raka płuc, możemy usunąć „kawałki” zdjęć pacjentów i sprawdzić, na ile poprawność diagnozy zależy od charakterystyk usuniętego kawałka fotografii. Jeśli poprawność uległa pogorszeniu, to ten kawałek zdjęcia był ważny dla sztucznej inteligencji, a to może nas naprowadzić na trop, które dokładnie elementy pomagają jej właściwie diagnozować.

Wierzymy – to właśnie kryterium bezpieczeństwa – że poprawność diagnozowania nie powinna się poprawiać po usunięciu kawałków zdjęć i to drugi aspekt budowania relacji między nami a sieciami neuronowymi.

Sztuczna inteligencja rozkwita w XXI w. Jest coraz kreatywniejsza i precyzyjniejsza. Niestety, choć trudno nam ją zrozumieć, to dzięki metodom podobnym do tych spotykanych w innych naukach jesteśmy w stanie utrzymywać nad nią kontrolę. ©℗