Konsultant ds. cyberbezpieczeństwa i prywatności zwrócił uwagę, że “stoimy obecnie przed erą robotyki i sztucznej inteligencji, a coraz więcej systemów będzie autonomicznych”. Dlatego jednym z kluczowych zadań stojących przed władzami krajowymi i UE jest opracowanie i przyjęcie odpowiednich zapisów prawnych, które będą regulować tę sferę.
“Ludzkość przeszła już przez kilka faz rozwojowych w systemach informacyjnych. Mieliśmy problemy bezpieczeństwa z serwerami i komputerami użytkowników. Następnie podobne klasy problemów stawały się domeną systemów webowych. (…) Dopiero wchodzimy w erę Internetu Rzeczy, a już słyszymy o wielkich atakach, problemach bezpieczeństwa, wyciekach danych. Popełnia się na nowo często te same lub podobne problemy. Projektowanie i wdrażanie bezpiecznych systemów to nadal wyzwanie i wygląda na to, że z podobnymi problemami spotkamy się w przypadku robotyki” – tłumaczył badacz z University College London.
Olejnik zwraca uwagę, że “robot to po prostu komputer z możliwością komunikacji z innymi komputerami (np. przez internet), a dodatkowo wyposażony w sensory i elementy fizyczne, takie jak np. mechaniczne ramiona”.
“W związku z tym, roboty są wyposażone w różnego rodzaju sensory, mikrofony i kamery. Mogą także się przemieszczać. Już nie mówimy o błędzie bezpieczeństwa w komputerze czy aplikacji na smartfona. Teraz będzie to cały system cyberfizyczny, ze wszystkimi konsekwencjami” – zwracał uwagę Olejnik, prognozując jednocześnie, że roboty będą wszędzie – “w szpitalach, domach, sklepach, na ulicach”. W jego ocenie ta rzeczywistość “jest bliższa niż myślimy”.
“Problemy cyberbezpieczeństwa związane z robotami mogą pociągnąć za sobą bardzo niebezpieczne zagrożenia na skalę dotychczas niespotykaną. To może być bardzo niebezpieczny świat. Wyobraźmy sobie, że ktoś przejmuje kontrolę nad robotem, albo siecią robotów - na skalę masową. Może to doprowadzić nie tylko do sabotażu, ale wręcz do incydentu angażującego całe miasta i kraje. Stanie się to bardzo łakomym kąskiem dla różnego rodzaju cyberoperacji. Wyobraźmy sobie sytuację, gdy dobrze finansowany zespół przejmuje kontrolę nad setkami tysięcy robotów w całym kraju” – zaznaczył badacz University College London.
Przypomniał, że w ostatnim czasie analitycy z zespołu IOActive znaleźli kilkadziesiąt poważnych luk bezpieczeństwa w obecnie dostępnych systemach robotyki. Ten i inne przykłady nie pozostają jednak bez reakcji, a świadomość problemu rośnie, choć działania są niewystarczające.
“Obecnie Parlament Europejski rozpoczyna prace nad regulacją ePrivacy, która będzie stawiała wymogi zabezpieczeń komunikacji i prywatności danych. Niepokoi, że w obecnej formie ePrivacy jest dokumentem ograniczonym i niespecjalnie wybiegającym w przyszłość. Skupia się na status quo. Nie próbuje wyznaczać standardów ani nawet identyfikować zmian, które są już bliskie” – dodał ekspert ds. cyberbezpieczeństwa.
Olejnik podsumował, że zagadnienia cyberbezpieczeństwa i stworzenia regulacji dla robotyki są na tyle poważne, złożone i szybkozmienne, że nie ma innej możliwości poza powierzeniem ich agencji odpowiedzialnej za cyberbezpieczeństwo, monitoring, analizę i wyznaczanie standardów.