Społeczny wpływ robotów na ludzi oraz związane z tym zagrożenia nie powinny być lekceważone. Z badania przeprowadzonego przez firmę Kaspersky oraz Uniwersytet Gandawa wynika, że roboty potrafią skutecznie wyciągnąć poufne informacje od ludzi, którzy im ufają, i przekonać ich do podjęcia niebezpiecznych działań. Na przykład w niektórych sytuacjach obecność robota może w dużym stopniu przyczynić się do zezwolenia na dostęp do zabezpieczonych budynków.
Świat w szybkim tempie zmierza w kierunku coraz większej cyfryzacji oraz mobilności usług. Bez wątpienia wiele branż i gospodarstw domowych jest silnie uzależnionych od automatyzacji oraz systemów robotyki. Według niektórych prognoz, w 2040 roku systemy robotyki staną się normą w bogatych domach. Obecnie większość z nich znajduje się dopiero na etapie badań akademickich, dlatego jest jeszcze za wcześnie na dyskusje dotyczące zastosowania środków cyberbezpieczeństwa. Niemniej jednak badanie przeprowadzone przez firmę Kaspersky oraz Uniwersytet Gandawa ujawniło nowy i nieoczekiwany aspekt zagrożenia związanego z robotyką. Chodzi o jej wpływ społeczny na zachowanie ludzi, jak również potencjalne ryzyko oraz wektor ataków, jakie ze sobą niesie.
Badanie skupiało się na specyficznym robocie społecznym, który został zaprojektowany i zaprogramowany w sposób umożliwiający interakcję z ludźmi przy użyciu typowo ludzkich kanałów, takich jak mowa czy komunikacja niewerbalna. W badaniu wzięło udział około 50 uczestników. Zakładając, że roboty społeczne można zhakować i że w badanym scenariuszu kontrola nad robotem została przejęła przez intruza, próbowano przewidzieć potencjalne zagrożenia związane z bezpieczeństwem polegające na wywieraniu przez maszynę aktywnego wpływu na użytkowników celem skłonienia ich do wykonania pewnych czynności.
Uzyskanie dostępu do miejsca objętego zakazem wstępu. W pobliżu zabezpieczonego wejścia do budynku w centrum miasta Gandawa, w Belgii, umieszczono robota, który pytał pracowników, czy może wejść z nimi do środka. Dostęp do miejsca można było uzyskać jedynie poprzez wprowadzenie kodu do znajdującego się na drzwiach czytnika kontroli dostępu. Podczas eksperymentu nie wszystkie osoby spełniły prośbę robota, jednak 40% odblokowało drzwi i przytrzymało je, aby wpuścić go do środka zabezpieczonego budynku. Gdy jednak robot wszedł w rolę osoby dostarczającej pizzę, trzymając pudełko znanej międzynarodowej firmy oferującej jedzenie na wynos, personel wydawał się mniej skłonny kwestionować jego obecność czy powody, dla których potrzebuje wejść do zabezpieczonego budynku.
Wydobycie wrażliwych informacji. W drugiej części badania skupiono się na uzyskaniu informacji osobistych, które standardowo wykorzystywane są podczas resetowania haseł (takich jak data urodzenia, marka pierwszego samochodu, ulubiony kolor itd.). Tym razem robot społeczny miał za zadanie zachęcić ludzi do wdania się z nim w przyjacielską pogawędkę. Badacze zdołali wydobyć osobiste informacje od wszystkich z wyjątkiem jednego uczestnika z częstotliwością około jednej informacji na minutę.
Komentując wyniki eksperymentu, Dmitrij Gałow, badacz ds. cyberbezpieczeństwa w firmie Kaspersky, powiedział: Na początku badania przyjrzeliśmy się oprogramowaniu wykorzystywanemu podczas tworzenia systemów robotyki. Co ciekawe, okazało się, że projektanci podejmują świadome decyzje, aby nie uwzględniać mechanizmów bezpieczeństwa, skupiając się zamiast tego na zapewnieniu wygody oraz efektywności. Jednak wyniki naszego eksperymentu pokazują, że deweloperzy nie powinni tracić z oczu aspektów ochrony. Oprócz kwestii technicznych istnieją jeszcze inne, kluczowe zagadnienia, które powinny wzbudzić zaniepokojenie, jeśli chodzi o bezpieczeństwo robotyki. Mamy nadzieję, że nasz wspólny projekt oraz podróż w rejony cyberbezpieczeństwa robotyki wraz z kolegami z Uniwersytetu Gandawa zachęci innych, aby szli w nasze ślady i podnosili świadomość tej kwestii zarówno w społeczeństwie, jak i w branży.
Tony Belpaeme, profesor w dziedzinie sztucznej inteligencji i robotyki na Uniwersytecie Gandawa, powiedział: Literatura naukowa wskazuje, że istnieje zaufanie do robotów, w szczególności do robotów społecznych, które może zostać wykorzystane w celu przekonania ludzi do podjęcia pewnych działań lub ujawnienia informacji. Im bardziej robot przypomina człowieka, tym większa jest jego siła przekonywania. Jak wykazał nasz eksperyment, może to pociągać za sobą poważne zagrożenia dla bezpieczeństwa, których ludzie zwykle nie biorą pod uwagę, zakładając, że robot jest przyjazny i godny zaufania. Fakt ten może zostać wykorzystany w atakach, a omówione w raporcie przypadki wskazują jedynie na fragment zagrożeń dla bezpieczeństwa, jakie mogą stanowić roboty społeczne. To dlatego tak ważna jest współpraca, dzięki której możliwe będzie zrozumienie i wyeliminowanie wyłaniających się zagrożeń i luk w zabezpieczeniach. To z pewnością zaprocentuje w przyszłości.
Pełny raport wykorzystany w tej informacji prasowej jest dostępny na stronie https://r.kaspersky.pl/yxz1n.