Kiedy John Brennan, wybrany przez prezydenta Obamę na następnego szefa CIA, pojawił się wczoraj przed komisją senacką, jedno pytanie zastąpiło wszystkie pozostałe na jego przesłuchaniu potwierdzającym:
Jak podejmowane są decyzje o wysyłaniu zabójczych dronów po podejrzanych o terroryzm?
To, w jaki sposób i dlaczego zamawianie konkretnych uderzeń dronów pozostaje w dużej mierze tajemnicą, ale przynajmniej jedno jest jasne - decyzje podejmowane są przez ludzi, którzy, miejmy nadzieję, zmagają się z myślą o wysłaniu śmiertelnego pocisku do zajmowanego budynku.
Ale co, jeśli ludzie nie byli zaangażowani? Co by było, gdyby pewnego dnia decyzje o życiu lub śmierci zostały pozostawione maszynom wyposażonym w mnóstwo danych, ale także poczucie dobra i zła?
Moralny kłopot
To nie jest do tej pory ściągnięte. Nie stanie się to w najbliższym czasie, ale nie ma wątpliwości, że w miarę jak maszyny stają się bardziej inteligentne i autonomiczne, kluczową częścią ich transformacji będzie zdolność uczenia się moralności.
W rzeczywistości może nie być tak daleko. Gary Marcus, pisząc niedawno w „ The New Yorker”, przedstawił scenariusz jednego z samochodów Google'a bez kierowcy, zanim został zmuszony do podjęcia decyzji w ułamku sekundy: „Twój samochód jedzie wzdłuż mostu z prędkością 50 mil na godzinę, kiedy błędny autobus szkolny przewozi 40 niewinnych dzieci przecina swoją ścieżkę. Czy Twój samochód powinien skręcić, ryzykując życie swojego właściciela (Ciebie), aby uratować dzieci, lub kontynuować jazdę, narażając wszystkie 40 dzieci na niebezpieczeństwo? Jeśli decyzja musi zostać podjęta w milisekundach, komputer będzie musiał wykonać połączenie. ”
A co z bronią robotyczną lub żołnierzami? Czy dron byłby w stanie nauczyć się nie strzelać do domu, gdyby wiedział, że w nim byli również niewinni cywile? Czy można nauczyć maszyn przestrzegania międzynarodowych zasad wojny?
Ronald Arkin, profesor informatyki i ekspert w dziedzinie robotyki w Georgia Tech, z pewnością tak uważa. Tworzy oprogramowanie, zwane „etycznym gubernatorem”, dzięki któremu maszyny będą mogły decydować, kiedy należy strzelać, a kiedy nie.
Arkin przyznaje, że może to być jeszcze kilkadziesiąt lat, ale wierzy, że roboty mogą pewnego dnia być zarówno fizycznie, jak i etycznie lepsze od ludzkich żołnierzy, niewrażliwe na emocjonalną traumę walki lub pragnienie zemsty. Nie wyobraża sobie armii wszystkich robotów, ale takiej, w której maszyny służą ludziom, wykonując zadania wysokiego ryzyka pełne stresujących decyzji, takich jak sprzątanie budynków.
Uważaj na zabójcze roboty
Ale inni uważają, że nadszedł czas, aby zmiażdżyć tego rodzaju myślenie, zanim pójdzie ono za daleko. Pod koniec ubiegłego roku Human Rights Watch i Harvard Law School's Human Clinic opublikowały raport „Losing Humanity: The Case Against Killer Robots”, który zgodnie z tytułem wezwał rządy do zakazania wszelkiej autonomicznej broni, ponieważ „zwiększyłyby ryzyko śmierci lub obrażeń cywili podczas konfliktu zbrojnego. ”
Mniej więcej w tym samym czasie grupa profesorów Uniwersytetu Cambridge ogłosiła plany uruchomienia Centrum Badań nad Ryzykiem egzystencjalnym. Kiedy otworzy się pod koniec tego roku, będzie naciskał na poważne badania naukowe nad tym, co może się stać, jeśli i kiedy maszyny staną się mądrzejsze od nas.
Niebezpieczeństwo, mówi Huw Price, jeden ze współzałożycieli Centrum, polega na tym, że pewnego dnia moglibyśmy mieć do czynienia z „maszynami, które nie są złośliwe, ale takimi, których interesy nas nie obejmują”.
Sztuka oszustwa
Shades of Skynet, nieuczciwy system sztucznej inteligencji, który zrodził cyborga Arnolda Schwarzeneggera w filmach The Terminator . Może zawsze będzie to science fiction.
Ale rozważ inne badania, które Ronald Arkin obecnie prowadzi w ramach projektów finansowanych przez Departament Obrony. On i koledzy badali, w jaki sposób zwierzęta oszukują się nawzajem, w celu nauczenia robotów sztuki oszukiwania.
Na przykład pracowali nad programowaniem robotów, aby w razie potrzeby udawały siłę, jak to często robią zwierzęta. I patrzyli na maszyny dydaktyczne do naśladowania zachowania stworzeń takich jak wschodnia szara wiewiórka. Wiewiórki chowają swoje orzechy przed innymi zwierzętami, a gdy pojawią się inne wiewiórki lub drapieżniki, szare wiewiórki czasami odwiedzają miejsca, w których chowały orzechy, aby zepchnąć konkurentów z toru. Roboty zaprogramowane do stosowania podobnej strategii były w stanie zmylić i spowolnić konkurentów.
To wszystko leży w interesie, mówi Arkin, tworzenia maszyn, które nie będą stanowić zagrożenia dla ludzi, ale raczej atutem, szczególnie w brzydkim chaosie wojny. Kluczem jest, aby teraz skupić się na ustaleniu wytycznych dotyczących właściwego zachowania robota.
„Kiedy zaczniesz otwierać tę Puszkę Pandory, co należy zrobić z tą nową funkcją?”, Powiedział w ostatnim wywiadzie. „Uważam, że inteligentne roboty mogą zmniejszyć ofiary nie walczące, ale musimy bardzo uważać na ich użycie, a nie wypuszczać ich na pole bitwy bez odpowiedniego zainteresowania”.
Aby uwierzyć pisarzowi New Yorkerowi Gary Marcusowi, zaawansowane technologicznie maszyny oferują ogromny potencjał poza polem bitwy.
Myśl, która najbardziej mnie prześladuje, polega na tym, że sama etyka ludzka jest tylko w toku. Nadal mamy do czynienia z sytuacjami, w których nie mamy dobrze opracowanych kodów (np. W przypadku wspomaganego samobójstwa) i nie musimy patrzeć w przeszłość, aby znaleźć przypadki, w których nasze własne kody były wątpliwe lub gorsze (np. Prawa, które dozwolone niewolnictwo i segregacja).
To, czego tak naprawdę chcemy, to maszyny, które mogą pójść o krok dalej, wyposażone nie tylko w najsolidniejsze kodeksy etyczne, które mogą wymyślić nasi najlepsi współcześni filozofowie, ale także w możliwość maszyn, które robią swój własny postęp moralny, wyprzedzając nasze własne ograniczone - idea moralności z XXI wieku. ”
Maszyny maszerują dalej
Oto najnowsze osiągnięcia robotów:
- Hmmmm, etyczne i podstępne: naukowcy z Australii opracowali robota, który może się wymykać, poruszając się tylko wtedy, gdy jest wystarczająco dużo hałasu w tle, aby ukryć jego dźwięk.
- Co to za brzęczący dźwięk?: Brytyjscy żołnierze w Afganistanie zaczęli używać dronów monitorujących, które mogą zmieścić się w dłoniach. Mały robot o nazwie Black Hornet Nano ma tylko cztery cale długości, ale ma kamerę szpiegowską i może latać przez 30 minut na pełnym naładowaniu.
- Drapanie po powierzchni: NASA opracowuje robota o nazwie RASSOR, który waży zaledwie 100 funtów, ale będzie mógł wydobywać minerały na Księżycu i innych planetach. Może poruszać się w trudnym terenie, a nawet na śmiałkach, podpierając się na ramionach.
- Ach, pożądanie: A oto historia wczesnych walentynek. Naukowcy z Uniwersytetu Tokijskiego używali męskiej ćmy do prowadzenia robota. W rzeczywistości wykorzystali ruchy godowe, aby skierować urządzenie w stronę obiektu pachnącego feromonami ćmy kobiecej.
Bonus wideo: więc nie jesteś pewien, czy mógłbyś obsługiwać robota o wysokości 13 stóp? Nie ma problemu. Oto fajne demo, które pokazuje, jak łatwo może być. Szczęśliwy model pokazuje nawet, jak obsługiwać funkcję „Smile Shot”. Uśmiechasz się, wystrzeliwuje kule. Jak to jest trudne?
Więcej z Smithsonian.com
Ten robot jest lepszym tatą niż twój tata
Roboty zdobywają ludzki dotyk