Ryzyko związane z rozwojem biotechnologii, sztucznej inteligencji, nanotechnologii i innymi zagrożeniami dla naszego gatunku, które wynikają z rozwoju technologii, będą badać naukowcy z brytyjskiego Cambridge. Stworzyli w tym celu specjalne centrum. Koniec nie jest bliski, ale może taki być, o ile nie powstrzymamy naszej technologicznej pomysłowości - ostrzegają naukowcy z University of Cambridge: profesor kosmologii i astrofizyki Martin Rees, filozof Huw Price oraz wynalazca Skype - Jaan Tallinn.
Zaproponowali oni stworzenie centrum - Centre for the Study of Existential Risk (CSER) - które będzie się zajmować potężnymi zagrożeniami technologicznymi, które mogłyby zagrozić istnieniu ludzkości. Do tych zagrożeń mogą - ich zdaniem - należeć roboty, które wymkną się spod kontroli, a także wojna jądrowa, plagi zrodzone w laboratoriach oraz zniszczenia z powodu zmian klimatu, zapoczątkowanych w związku z działaniami człowieka.
"Mówimy o zagrożeniach naszego istnienia, które swój początek bierze z aktywności ludzi" - tłumaczy Rees. Astrofizyk zauważa, że zbytnio skupiamy się na drobnych, ale powszechnych rodzajach ryzyka, jak np. śladowe stężenia skażeń w żywności. Jednocześnie za mało interesują nas potężne zagrożenia, które mogą doprowadzić do naszej zagłady.
"Nie dość wiele myślimy o wydarzeniach, do których może dojść z niewielkim prawdopodobieństwem, ale które mogą mieć potężne skutki. Nawet jedno takie wydarzenie, to o jedno za dużo" - podkreśla Rees. "Kryzys finansowy jest dobrym przykładem na coś, czego nie przewidziano. Ale przecież mogą nastąpić i inne wydarzenia, do których wcześniej nie doszło, ale które należy przewidzieć" - podkreśla. CSER miałoby uprzedzać zagrożenie dzięki badaniom, jak takie ryzyko przewidzieć i - w razie czego - jak je kontrolować.
"Musimy na poważnie brać możliwość, że w związku ze sztuczną inteligencją może kiedyś dojść do otwarcia "puszki Pandory". Przegapiony, może doprowadzić do katastrofy" - dodaje Price. Jego zdaniem taki krytyczny moment może nastąpić, kiedy komputery zaczną same pisać sobie programy.
"Nie od rzeczy wydaje się przewidywać, że w pewnym momencie obecnego albo przyszłego wieku inteligencja oderwie się od ograniczeń, jakie dziś stanowi dla niej biologia" - powiedział Price w rozmowie z agencją AFP. Jego zdaniem w miarę, jak roboty i komputery staną się inteligentniejsze od nas, możemy się znaleźć na łasce "maszyn, które nie są złośliwe, ale maszyn, których interesy nie uwzględniają nas samych".
Niepokoje związane z "zabójczymi" robotami pojawiły się również w ubiegłym miesiącu w USA wraz z raportem pt. "Losing humanity: the case against killer robots", opublikowanym przez pozarządową organizację Human Rights Watch. "Przekazanie maszynom mocy decydowania, kto przeżyje, a kto umrze na polu walki, mogłoby zaprowadzić technologię zbyt daleko" - mówił Steve Goose z Human Rights Watch.
Scenariusz buntu maszyn pojawia się w wielu popularnych filmach i grach SF, np. w serii Terminator, w której fikcyjny wojskowy system obrony uzyskuje samoświadomość i dąży do całkowitego unicestwienia ludzkości.
A może myślące maszyny, to po prostu kolejny etap ewolucji?