Czy nie marzyłaś kiedyś o tym, by być w dwóch miejscach jednocześnie? Wysłać swego sobowtóra na nudne zebranie czy po zakupy do supermarketu? Wkrótce będzie to możliwe dzięki naszym cybernetycznym klonom, które lada moment trafią na rynek.
Naprawdę nie chce ci się dziś iść do pracy. Czujesz, że łapie cię
przeziębienie i dobrze byłoby poleżeć w łóżku. Po drodze na pewno będą
korki, potem problemy z zaparkowaniem pod firmą, a w biurze jeszcze ta
klimatyzacja, której nie da się sensownie ustawić...
Oczywiście możesz
popracować w domu przy komputerze i wysłać wszystkie dokumenty e-mailem,
ale co z zaplanowanym na dziś zebraniem? Wyślesz tam kogoś innego.
Kładziesz się na kanapie z laptopem, podłączasz joystick i przejmujesz
kontrolę nad swym sobowtórem, który cierpliwie czekał w firmowym
magazynku.
„Dzień dobry, szefie!” – mówisz do mikrofonu, widząc na
ekranie innego robota jadącego korytarzem. No tak, nie tylko ty masz
daleko do pracy. Ciekawe, ile maszyn będzie na tym spotkaniu? Właśnie
tak już wkrótce może wyglądać nasza codzienna rzeczywistość.
Koszmar
dojazdów do pracy to nic w porównaniu z wylotem na konferencję na
drugiej półkuli – wystarczy jedna erupcja wulkanu i musisz zostać w
domu. Ale w laboratoriach naukowców powstały urządzenia, które pozwalają
człowiekowi być w dwóch miejscach jednocześnie.
Witajcie w świecie
cyberklonów – maszyn, które wkrótce mogą nas wyręczyć w najbardziej
żmudnych i niewygodnych obowiązkach (trochę tak, jak w goszczącym
niedawno na ekranach kin filmie „Surogaci”).
Będę tam jak rycerz Jedi
Nikogo już nie dziwi, że to maszyny szyją ubrania, kopią doły czy
dźwigają ciężary. Jednak rewolucja przemysłowa niewiele pomogła
pracownikom umysłowym. Nawet technologie komputerowe i internet nie dały
nam takiej swobody, byśmy mogli pracować naprawdę zdalnie. Każdy szef
woli mieć podwładnych pod ręką i sam też musi być w biurze, żeby
wszystkiego doglądać.
Telekonferencje, e-maile, wideoczaty – wszystko to
pomaga, ale tylko trochę. Sytuacji nie zmienią nawet najnowsze
wynalazki rodem z filmów science fiction. Dzięki firmom takim jak
brytyjska Musion Systems możemy pojawić się w odległym miejscu niczym
rycerze Jedi z „Gwiezdnych wojen” – w trzech wymiarach.
Wizerunek jest
nieco blady i migotliwy, ale do złudzenia przypomina filmowe hologramy,
choć korzysta z innego zjawiska. System bazuje na pomyśle Johna Peppera i
Henry’ego Dircksa – mistrzów iluzji z epoki wiktoriańskiej, którzy,
wykorzystując grę odbić, „przywoływali” do pustych pomieszczeń duchy i
zjawy.
Współcześnie sztuczkę tę wykorzystuje się w tunelach strachu w
wesołych miasteczkach. Do wideotransmisji 3D potrzebna jest kamera
wysokiej rozdzielczości, bardzo szybkie łącze internetowe i rzutnik,
który wyświetla obraz na płachcie wytrzymałej, idealnie gładkiej folii
poliestrowej. Wady?
System ogranicza miejsce akcji do jednej
lokalizacji, działa tylko w jedną stronę – zwirtualizowana osoba nie
może patrzeć na świat oczami swego sobowtóra – i jest koszmarnie drogi
(ceny zaczynają się od 150 tys. dol.). Można sobie wyobrazić, że z
czegoś takiego korzysta gwiazda rocka, polityk czy naukowiec,
wygłaszający zdalnie wykład, ale raczej nie przeciętny zjadacz biurowego
chleba.
Cybernetyczny belfer
Dlatego do akcji wkraczają roboty. Już dziś są w stanie „zastąpić”
przy pracy cenionych profesjonalistów, takich jak lekarze. Zatrudnienie
neurochirurga w amerykańskim szpitalu to koszt rzędu 500 tys. dol.
rocznie. Nie każdą placówkę na to stać. Taniej wychodzi wynajęcie robota
RP-7 (ok. 7 tys. dol. na miesiąc), który – zdalnie sterowany przez
specjalistę znajdującego się w odległości setek kilometrów – może
skonsultować pacjenta czy zrobić obchód.
Maszyna jest tak naprawdę
ruchomym zestawem do telekonferencji, ale to w zupełności wystarcza.
Pacjenci nie mają nic przeciwko, zwłaszcza że personel nierzadko ubiera
robota w lekarski fartuch, żeby wyglądał bardziej swojsko. W podobny
sposób Koreańczycy chcą rozwiązać problem niedoborów kadrowych w
szkołach i przedszkolach. „Do 2015 r. roboty będą w stanie pomagać
nauczycielom w trakcie lekcji angielskiego. Po 2018 r. powinny już być
zdolne do samodzielnej pracy z uczniami” – twierdzi Kim Shin-hwan,
ekonomista z Hyundai Research Institute.
Nim jednak to nastąpi,
nauka z pomocą robotów będzie przypominała nieco bardziej rozwiniętą
formę e-learningu – maszyny będą zdalnie obsługiwane przez native
speakerów, mieszkających poza granicami Korei Południowej. Tamtejszy
rząd chce wydać na ten projekt w sumie 45 mln dol. Ale specjaliści
wątpią w sens tego przedsięwzięcia.
„Nie ma się co łudzić, że maszyna
byłaby w stanie zastąpić kontakt z człowiekiem” – uważa prof. Noel
Sharkey, ekspert w dziedzinie robotyki i sztucznej inteligencji z
University of Sheffield. Podobnego zdania jest prof. Hiroshi Kobayashi z
Tokijskiego Uniwersytetu Nauk.
Zaprojektowana przez niego cyberkobieta imieniem Saya była testowana jako nauczycielka w jednej ze szkół, ale budziła raczej lęk wśród dzieci (a i tak sterował nią zdalnie operator, obserwujący klasę za pośrednictwem kamery). „Robot nie ma inteligencji. Nie ma zdolności uczenia się. Nie ma tożsamości. To tylko narzędzie” – podkreśla prof. Kobayashi.
Sobowtór wychodzi z szafy
Jeśli jednak takie narzędzie znajdzie się pod kontrolą żywego
człowieka, będzie mówić jego głosem i wyświetlać na ekranie jego twarz,
może całkiem dobrze go zastąpić. Przekonali się o tym konstruktorzy z
amerykańskiej firmy Willow Garage – Dallas Goecker i Curt Meyers.
Ponieważ mieszkają w odległości 3,2 tys. km od siebie, potrzebowali
czegoś lepszego i bardziej „rzeczywistego" niż internetowy komunikator
Skype.
Wykorzystując swoje wcześniejsze doświadczenie, inżynierowie
stworzyli Texai – prostą, wręcz ascetyczną maszynę, którą można by
nazwać „Skype na kółkach”. „Gdy osoba jest »teleobecna « za
pośrednictwem robota, może swobodnie poruszać się po otoczeniu,
spotykając się i rozmawiając z napotkanymi po drodze osobami. To
zupełnie co innego niż w przypadku tradycyjnych wideokonferencji, kiedy
rozmówcy są »przyklejeni do ścian«” – wyjaśnia Steve Cousins, prezes
Willow Garage.
Firma nie zamierza na razie wprowadzać Texai na
rynek, lecz jedynie prowadzić nad nim dalsze prace badawcze. Inaczej
jest w przypadku Anybots, która już na jesieni zacznie oferować robota
QB. Jego konstrukcja jest maksymalnie uproszczona – to platforma
wyposażona w kółka (może się poruszać z prędkością do 5,5 km/godz.,
dzięki czemu nadąży za ludźmi w czasie przechadzki) oraz zamontowana na
długiej tyczce „głowa” z ekranem, głośniczkami i mikrofonem oraz kamerą
wideo.
QB waży niespełna 16 kg, więc można go łatwo przenieść czy włożyć
do samochodu i zabrać na spotkanie. Jest też dobrze wychowany – mijając
ludzi na korytarzu, nie będzie na nich trąbić, by mu zeszli z drogi,
ale sam usunie się pod ścianę. „Tego rodzaju maszyny są świetne, jeśli
chodzi o budowanie relacji z ludźmi. Rozmawiając za ich pośrednictwem,
czujesz, że masz kontakt z prawdziwą osobą.
Przewidujemy, że nasze QB
znajdą zatrudnienie np. jako asystentki lub pracownicy udzielający
informacji w centrach handlowych” – opowiada Trevor Blackwell, dyrektor
generalny Anybots. Pensja dla takiego podwładnego nie będzie bardzo
wysoka – jednorazowa inwestycja 15 tys. dolarów plus niewielkie już
koszty eksploatacji.
A jeśli komuś nie do końca odpowiada
cybernetyczny wizerunek Anybotów, wystarczy zgłosić się – choć już ze
zdecydowanie większą ilością gotówki – do japońskiej firmy Kokoro. Jej
specjalnością są maszyny sobowtóry, wykonywane indywidualnie dla
klientów. Jak wierne mogą być takie kopie? Wystarczy spojrzeć na
Geminoid F – dzieło prof. Hiroshi Ishiguro z Uniwersytetu w Osace.
Kilka
lat temu uczony wzbudził sensację, pokazując się w towarzystwie
własnego cyberklona, który mógłby zamiast niego stawiać się na uczelni i
np. umożliwiać zdalne prowadzenie wykładów. „Zdaniem Ishigury takie
androidy mają większy autorytet niż zwykła teleobecność, np. podczas
wideokonferencji” – mówi prof. Jennifer Robertson z Wydziału
Antropologii i Historii Sztuki University of Michigan, która zajmowała
się badaniem tego, jak ludzie odbierają roboty.
Najnowszy model robota
prof. Ishigury wzorowany jest na atrakcyjnej dwudziestokilkuletniej
dziewczynie i choć nie może się samodzielnie poruszać, imponuje
zdolnościami mimicznymi – uśmiecha się, wykrzywia usta z niesmakiem,
unosi brwi, a także porusza wargami w czasie mówienia. Przy czym robi
to, obserwując przez kamerę zachowanie operatorki, która może znajdować
się w praktycznie dowolnym miejscu – byle tylko z dostępem do internetu.
Taki wynalazek mógłby sprawdzić się np. jako zdalnie sterowana
recepcjonistka.
Odkurzaczu mój kochany...
„Nie spodziewałbym się na razie wejścia na rynek awatarów, takich jak
w filmie Jamesa Camerona, ale istniejące maszyny zasługują już na miano
»robotarów«. Pozostaje jeszcze kwestia sterowania taką maszyną i
odbierania za jej pośrednictwem bodźców zmysłowych” – wyjaśnia prof.
Noel Sharkey. Jego zdaniem największe możliwości dałoby korzystanie z
implantów wszczepianych do mózgu, ale skuteczne mogą być też mniej
inwazyjne metody.
„Niedawno pokazano małą mobilną maszynę Roboscout kierowaną przez człowieka ubranego w kask EPOC, rejestrujący aktywność mózgu. Z kolei bodźce czuciowe można by przekazywać operatorowi np. za pomocą przezczaszkowej stymulacji magnetycznej (TMS)” – mówi uczony. I dodaje, że jeśli cyberklon będzie zachowywał się podobnie do swego ludzkiego pierwowzoru, powinien szybko zostać zaakceptowany przez otoczenie.
Ale czy faktycznie takie roboty będą traktowane przez ludzi po
partnersku, a nie jak kolejny rodzaj urządzenia biurowego czy AGD? „Przy
obecnym stanie zaawansowania technologii jest to bardzo mało
prawdopodobne. Badania, jakie przeprowadziłam z Christine Looser, jedną z
moich studentek, wykazały, że ludzie traktują »żyjące na niby« manekiny
zupełnie inczej niż prawdziwe osoby” – mówi prof. Thalia Wheatley,
psycholog z Darthmouth College. Poza tym tworzenie cybernetycznych kopii
człowieka może dać niespodziewane efekty, znane jako hipoteza doliny
niesamowitości.
Jeśli klon nie będzie doskonały – a osiągnięcie takiego stanu jeszcze długo będzie technicznie bardzo trudne – to wystarczy jeden nienaturalny szczegół, by ludzie zmienili swoje nastawienie i uznali maszynę za przerażającą. „Nie wiemy jednak, czy naprawdę tak się stanie. Nie dysponujemy jeszcze wystarczającą wiedzą dotyczącą ludzkiej percepcji” – podkreśla dr Bigle Mutlu z Wydziału Nauk Komputerowych University of Wisconsin-Madison.
Wiemy już natomiast, że maszyny
mogą budzić w nas ciepłe uczucia nawet wtedy, gdy z wyglądu wcale nie są
humanoidalne. Dowodzą tego badania prowadzone przez Beki Grinter z
Georgia Institue of Technology. Zaintrygowało ją to, jak właściciele
traktują popularne roboodkurzacze Roomba. Okazało się, że niektórzy
ludzie zabierają swoje maszyny w podróż, nadają im imiona, stroją w
ubranka...
Jedna osoba nawet przedstawiała odkurzacz swoim rodzicom. Ważne też było to, że użytkownicy nie oczekiwali od Roomby idealnej dokładności – urok osobisty maszyny sprawiał, że wybaczali jej mniejsze czy większe potknięcia. Jest więc szansa, że gdy w niedalekiej przyszłości zamiast ciebie na zebraniu pojawi się robot, szef będzie trochę bardziej wyrozumiały niż zwykle.
Bądź soba (ale na kółkach)
Pozostaje tylko jeszcze jedna kwestia – jak ty sam będziesz się czuł,
sterując zdalnie swym cyberwcieleniem? Zajął się tym zespół prof.
Clifforda Nassa z pracowni CHIMe Lab na Stanford University. W
eksperymencie zorganizowanym przez uczonych wzięli udział studenci,
których zadaniem było obsługiwanie robotów o kształcie pojazdu albo
zbliżonym do człowieka (materiałem budulcowym były klocki Lego Mindstorm
NXT).
Ochotnicy mieli następnie ocenić swoją współpracę z maszyną oraz
to, czy się z nią identyfikowali. Jak się okazało, studenci silniej
utożsamiali się z robotami pojazdami i częściej traktowali je jako
„przedłużenie” swej osoby. Oceniali też je jako bardziej przyjazne i
jako posiadające fajniejszą osobowość niż roboty antropomorficzne. Z
kolei humanoidalny wygląd robota sprawiał, że operatorzy traktowali go
bardziej jako indywidualny byt, będący pod mniejszą kontrolą i dlatego
słabiej się z nim identyfikowali. Naukowcy twierdzą, że silne
utożsamianie się z maszyną może czasami przeszkadzać.
Tak może być w przypadku robotów-negocjatorów lub przeszukujących miejsca katastrof zdalnie sterowanych „ratowników”, którzy mogą ulec zniszczeniu w czasie misji. O ironio, akurat ta druga kategoria maszyn najczęściej nie przypomina wyglądem człowieka, tylko właśnie pojazd na kołach czy gąsienicach. Natomiast te roboty, które najchętniej traktowalibyśmy jak naszych zastępców czy cyberwcielenia, są zdecydowanie humanoidalne. Czy będzie nam to przeszkadzać? Czas pokaże – i to zapewne już niedługo.
Źródło: focus.pl