Odróżnianie dobra od zła i podjęcie najlepszej etycznie decyzji to zadanie, które na razie przerasta roboty.
Już w roku 1942 sławny amerykański pisarz science fiction i profesor biochemii Isaac Asimov przedstawił w opowiadaniu "Zabawa w berka" (Runaround) trzy prawa robotów, które miały uregulować kwestię stosunków pomiędzy przyszłymi myślącymi maszynami a ludźmi:" 1. Robot nie może skrzywdzić człowieka, ani przez zaniechanie działania dopuścić, aby człowiek doznał krzywdy. 2. Robot musi być posłuszny rozkazom człowieka, chyba, że stoją one w sprzeczności z Pierwszym Prawem. 3. Robot musi chronić sam siebie, jeśli tylko nie stoi to w sprzeczności z Pierwszym lub Drugim Prawem".
W późniejszej książce "Roboty i Imperium" (Robots and Empire) Asimov dodał jeszcze prawo zerowe, nadrzędne wobec trzech pozostałych: "Robot nie może skrzywdzić ludzkości lub poprzez zaniechanie działania doprowadzić do uszczerbku dla ludzkości". Temat etyki maszyn występował także w twórczości innych autorów - w "Wizji lokalnej" Stanisław Lema pojawiła się nawet "etykosfera" złożona z nanorobotów, które uniemożliwiały Luzanom czynienie zła.
Prawa Asimova dobrze sprawdzają się w literaturze science fiction, jednak ich praktyczne zastosowanie napotyka przeszkody. A wraz z pojawianiem się prototypów autonomicznych robotów militarnych czy samochodów niepotrzebujących kierowcy kwestie etyczne coraz bardziej zyskują na znaczeniu.
Alan Winfield, robotyk z Bristol Robotics Laboratory w Wielkiej Brytanii, zbudował etyczną pułapkę dla robota. Reakcja maszyny go zastanowiła.
Winfield i jego koledzy tak zaprogramowali robota, aby chronił inne automaty - grające role ludzi - od wpadnięcia w dziurę. To uproszczona wersja Pierwszego Prawa Robotyki Isaaca Asimova. Początkowo robotowi udało się wypełnić zadanie - zepchnął udający człowieka automat z drogi ku przepaści. Jednak, gdy ku zagładzie zmierzały jednocześnie dwa automaty, robot-ratownik musiał wybierać. Czasem udawało się uratować jednego pozwalając drugiemu zginąć, kilka razy nawet udało się uratować oba. Ale w 14 na 33 próby robot zmarnował tak wiele czasu na "zastanawianie się", że obie zagrożone maszyny wpadły do dziury. Praca została zaprezentowana 2 września podczas konferencji "Towards Autonomous Robotic Systems" w Birmingham w Wielkiej Brytanii.
Winfield opisuje swego robota, jako "etycznego zombie", który nie może postępować inaczej niż postępuje. Choć może ocalić innych według zaprogramowanego kodeksu postępowania, nie rozumie zasadności swoich działań. Wcześniej Wifield uważał, że robot nie jest w stanie dokonywać etycznych wyborów. Dziś mówi: "Moja odpowiedź brzmi: nie mam pojęcia".
Tymczasem takie decyzje będą musiały podejmować na przykład automatyczne samochody, wybierając pomiędzy bezpieczeństwem przechodniów na pasach czy innych użytkowników drogi a bezpieczeństwem pasażerów. Zaprogramowanie robota tak, aby podjął właściwe działanie będzie naprawdę trudne.
Rozwiązane może wyjść od robotów wojskowych. Ronald Arkin, informatyk z Georgia Institute of Technology w Atlancie (USA) opracował zestaw algorytmów dla robotów wojskowych, który ma pomóc im w podejmowaniu trafnych decyzji na polu bitwy. Zostały już przetestowane podczas symulowanej walki - zaprogramowane w te sposób drony mogą powstrzymać się od strzelania lub próbować zminimalizować straty podczas bitwy w pobliżu obszaru chronionego zgodnie z zasadami prowadzenia wojny, na przykład szkoły czy szpitala.
Jak mówi Arkin, etykę robotów wojskowych łatwiej opracować, ponieważ przepisy są dobrze znane. "Prawa wojny zostały obmyślone przed tysiącami lat i są zapisane w traktatach. W przeciwieństwie do ludzkich wojowników, którzy mogą ulec emocjom i złamać te zasady, automaty będą ich przestrzegać"