https://frosthead.com

Czy roboty-zabójcy mogą nauczyć się przestrzegać zasad wojny?

Jak przypomina nam Dzień Pamięci co roku, wojna nie przemija.

Ale to się zmienia. Jedną z głębszych zmian, jakie zobaczymy w nadchodzących latach, jest wojsko coraz bardziej zależne od robotów. Drony przyciągają teraz najwięcej uwagi, ale coraz więcej innowacji Departamentu Obrony to inne rodzaje bezzałogowych maszyn, od eksperymentalnych samolotów po żołnierzy naziemnych.

Łatwo zrozumieć atrakcję. Korzystanie z robotów jest potencjalnie bardziej wydajne, dokładniejsze i tańsze niż poleganie wyłącznie na ludziach podczas wojny. I oczywiście oznaczałoby to również mniej ofiar wśród ludzi.

Ale ta transformacja niesie ze sobą złożone wyzwanie: czy można zaprogramować maszyny wojskowe do podejmowania decyzji? Co prowadzi do trudniejszego pytania: czy roboty mogą nauczyć się moralności?

Amerykańskie Biuro Badań Morskich uważa, że ​​nadszedł czas, aby się dowiedzieć. Wcześniej w tym miesiącu ogłosiła pięcioletni grant w wysokości 7, 5 miliona dolarów na finansowanie badań na uniwersytetach Tufts, Brown, Yale i Georgetown oraz Rensselaer Polytechnic Institute (RPI) w kwestii tego, czy maszyny będą w stanie wybrać dobro od zła.

Marynarka wojenna chce uniknąć sytuacji, w której stoi teraz samochód bez kierowcy Google: technologia, która została wypuszczona znacznie wcześniej niż jakiekolwiek wyjaśnienie kwestii prawnych i etycznych, jakie podnosi. Zanim autonomiczne roboty wyjdą na pole, wojsko chce wiedzieć, czy rzeczywiście może nauczyć się postępować właściwie.

Jak to widzi Selmer Bringsjord, szef działu kognitywistyki RPI, sztuczną inteligencję robota można zaprojektować tak, aby działała na dwóch poziomach moralności. Pierwszy opierałby się na liście kontrolnej zawierającej jasne wybory etyczne, takie jak „jeśli spotkasz rannego żołnierza, powinieneś mu pomóc”. Ale co, jeśli to działanie jest sprzeczne z jego podstawową misją, taką jak dostarczanie amunicji krytycznie potrzebnej przez inni żołnierze? W tym momencie, mówi Bringsjord, robot musiałby mieć zdolność do „głębszego rozumowania moralnego”, aby podejmować decyzje w sytuacjach, których programiści mogliby nie przewidzieć.

Badacze musieliby opracować unikalne algorytmy i mechanizmy obliczeniowe, które mogłyby zostać zintegrowane z istniejącą architekturą autonomicznych robotów, „procesem myślenia”, który pozwoliłby maszynie na obejście planowanych zachowań w oparciu o jej zdolność do wnioskowania moralnego.

Jeśli wydaje się to niezwykle ambitne, to właśnie tak. Na początek naukowcy będą musieli wyodrębnić podstawowe elementy ludzkiej moralności - na jakich zasadach wszyscy się zgadzamy? - a następnie dowiedzieć się, jak włączyć je do algorytmów, które nadałyby robotom pewien poziom kompetencji moralnych.

To nie jest małe przedsięwzięcie. Z tego powodu prawdopodobne jest, że maszyny, które nie są kontrolowane przez ludzi, będą w przewidywalnej przyszłości ograniczone do ról niezwiązanych z walką, takich jak nadzór, bezpieczeństwo, poszukiwania i ratownictwo lub opieka medyczna. Ale nieuchronnie planiści wojskowi będą chcieli odpowiedzieć na pytanie, które się nad tym wszystkim zastanawia: czy roboty, działając samodzielnie, powinny kiedykolwiek mieć możliwość zabicia człowieka?

Jeśli maszyna ma 90 procent pewności, że wszyscy w pojeździe, który zamierza zastrzelić, jest terrorystą, czy to wystarczające? Czy robot byłby w stanie wystrzelić broń na dziecko, jeśli stwierdzi, że jest wrogiem? Jeśli coś pójdzie nie tak i autonomiczny robot omyłkowo wysadzi wioskę, kto jest odpowiedzialny? Dowódca, który zarządził operację? Osoba, która zaprogramowała robota? Czy nikt?

Jeśli uważasz, że wciąż jest to science fiction, weź pod uwagę, że na początku tego miesiąca eksperci od tematów od sztucznej inteligencji przez prawa człowieka po prawo międzynarodowe rozważali „zabójcze roboty” na konferencji ONZ w Genewie. Grupy takie jak Human Rights Watch i urzędnicy z kilku krajów, w tym z Pakistanu, Egiptu, Kuby i Watykanu, wezwali do całkowitego zakazu robotów uprawnionych do zabijania. Ale większość krajów, szczególnie te z najbardziej zaawansowanymi robotami, nie są jeszcze gotowe.

Spójrz na przykład na WildCat, czworonożnego robota opracowanego do pracy z dużymi prędkościami na wszystkich rodzajach terenu.

Na razie wojsko amerykańskie przestrzega dyrektywy Departamentu Obrony z 2012 r., Zgodnie z którą żadna maszyna zdolna do zabijania nie może być w pełni autonomiczna. Człowiek musi dosłownie zadzwonić. Ale może nie być to prawdą we wszystkich miejscach: w marcu New Scientist zacytował rosyjskiego urzędnika mówiącego, że roboty-strażnicy przy pięciu instalacjach rakiet balistycznych będą w stanie wykryć i zniszczyć cele bez pomocy człowieka.

Foster-Miller Talon, jak widać poniżej, jest jedną z wielu maszyn na całym świecie opracowywanych do walki.

Zasady wojny

Raport z konferencji zabójczego robota zostanie przedstawiony komitetowi ONZ ds. Pewnych broni kowalencyjnych w listopadzie. Ale nie wydaje się, że w najbliższym czasie pojawi się zakaz.

Do dyskusji w Genewie przyłączył się Ronald Arkin, ekspert sztucznej inteligencji z Georgia Tech, który od dawna jest zwolennikiem zapewniania maszynom możliwości podejmowania moralnych decyzji. Uważa, że ​​gdyby roboty mogły nauczyć się przestrzegać prawa międzynarodowego, mogłyby faktycznie zachowywać się bardziej etycznie niż ludzie podczas działań wojennych, ponieważ byliby niezawodnie konsekwentni. Nie byliby w stanie odpowiedzieć w gniewie, w panice lub uprzedzeniach. Więc Arkin sprzeciwia się zakazowi, choć jest otwarty na moratorium na autonomiczną broń, dopóki maszyny nie będą miały szansy sprawdzić, czy potrafią opanować zasady wojny.

Inny naukowiec AI, Noel Sharkey, który debatował nad Arkinem w Genewie, ma zupełnie inne zdanie. Nie sądzi, aby roboty kiedykolwiek miały prawo decydować o życiu lub śmierci.

Niedawno powiedział Defence One : „Nie sądzę, by kiedykolwiek skończyli z moralnym lub etycznym robotem. W tym celu musimy mieć moralną wolę. W tym celu musimy zrozumieć innych i wiedzieć, co to znaczy cierpieć ”.

„Robot może być zainstalowany z pewnymi zasadami etyki, ale tak naprawdę nie będzie to obchodzić” - mówi.

Czy roboty-zabójcy mogą nauczyć się przestrzegać zasad wojny?