https://frosthead.com

Jak zrozumienie zwierząt może pomóc nam w pełni wykorzystać sztuczną inteligencję

Każdego dnia niezliczone nagłówki pojawiają się w niezliczonych źródłach na całym świecie, zarówno ostrzegając przed strasznymi konsekwencjami, jak i obiecując utopijną przyszłość - wszystko dzięki sztucznej inteligencji. AI „zmienia miejsce pracy”, pisze Wall Street Journal, a magazyn Fortune mówi nam, że stoimy w obliczu „rewolucji AI”, która „zmieni nasze życie”. Ale tak naprawdę nie rozumiemy, jak będą wyglądać interakcje z AI - lub jak powinno być.

Okazuje się jednak, że mamy już koncepcję, której możemy użyć, gdy myślimy o sztucznej inteligencji: Tak myślimy o zwierzętach. Jako były trener zwierząt (choć krótko), który obecnie bada, w jaki sposób ludzie używają AI, wiem, że zwierzęta i trening zwierząt mogą nas wiele nauczyć o tym, jak powinniśmy myśleć, podejść i wchodzić w interakcje ze sztuczną inteligencją, zarówno teraz, jak i w przyszłość.

Korzystanie z analogii zwierząt może pomóc zwykłym ludziom zrozumieć wiele złożonych aspektów sztucznej inteligencji. Pomoże nam również zastanowić się, jak najlepiej nauczyć te systemy nowych umiejętności, a co najważniejsze, jak właściwie zrozumieć ich ograniczenia, nawet gdy świętujemy nowe możliwości AI.

Patrząc na ograniczenia

Maggie Boden, ekspert od sztucznej inteligencji, wyjaśnia: „Sztuczna inteligencja stara się zmusić komputery do robienia tego, co potrafią umysły”. Badacze AI pracują nad uczeniem komputerów rozumowania, postrzegania, planowania, przemieszczania się i tworzenia skojarzeń. AI może dostrzegać wzorce w dużych zestawach danych, przewidywać prawdopodobieństwo wystąpienia zdarzenia, planować trasę, zarządzać harmonogramem spotkań danej osoby, a nawet grać w gry wojenne.

Wiele z tych możliwości samo w sobie nie jest zaskakujące: Oczywiście robot może toczyć się po przestrzeni i nie zderzać się z niczym. Ale w jakiś sposób sztuczna inteligencja wydaje się bardziej magiczna, gdy komputer zaczyna łączyć te umiejętności w celu wykonywania zadań.

Weźmy na przykład autonomiczne samochody. Początki samochodu bez kierowcy pochodzą z projektu Agencji Badań nad Zaawansowanymi Projektami Badawczymi Obrony z lat 80. zwanego Autonomicznym Pojazdem Lądowym. Celem projektu było zachęcenie do badań w zakresie wizji komputerowej, percepcji, planowania i sterowania robotami. W 2004 roku wysiłek ALV stał się pierwszym Grand Challenge dla samochodów z własnym napędem. Teraz, ponad 30 lat od rozpoczęcia wysiłku, jesteśmy na krawędzi samochodów autonomicznych lub samobieżnych na rynku cywilnym. Na początku niewiele osób uważało taki wyczyn za niemożliwy: komputery nie mogły prowadzić!

Jednak, jak widzieliśmy, mogą. Możliwości samochodów autonomicznych są dla nas stosunkowo łatwe do zrozumienia. Ale staramy się zrozumieć ich ograniczenia. Po fatalnej katastrofie Tesli w 2015 r., Kiedy funkcja autopilota samochodu nie wykryła, że ​​przyczepa ciągnika wkracza na pas, niewielu nadal zdaje sobie sprawę z powagi tego, jak bardzo ograniczony jest autopilot Tesli. Chociaż firma i jej oprogramowanie zostały usunięte z zaniedbań przez Krajową Administrację Bezpieczeństwa Ruchu Drogowego, pozostaje niejasne, czy klienci naprawdę rozumieją, co samochód może, a czego nie może zrobić.

Co by było, gdyby właścicielom Tesli nie powiedziano, że prowadzili wersję „beta” autopilota, a raczej półautonomiczny samochód o mentalnej równoważności robaka? Tak zwana „inteligencja”, która zapewnia „pełną zdolność do samodzielnego prowadzenia pojazdu”, jest tak naprawdę gigantycznym komputerem, który całkiem dobrze wykrywa obiekty i unika ich, rozpoznaje przedmioty na zdjęciach i ogranicza planowanie. Może to zmienić punkt widzenia właścicieli na temat tego, ile naprawdę samochód może zrobić bez udziału człowieka i nadzoru.

Co to jest?

Technologowie często próbują wyjaśnić sztuczną inteligencję w kategoriach jej budowy. Weźmy na przykład postępy w głębokim uczeniu się. Jest to technika wykorzystująca sieci wielowarstwowe do nauki wykonywania zadania. Sieci muszą przetwarzać ogromne ilości informacji. Ale ze względu na wymaganą ilość danych, złożoność powiązań i algorytmów w sieciach ludzie często nie są pewni, w jaki sposób uczą się, co robią. Systemy te mogą stać się bardzo dobre w jednym konkretnym zadaniu, ale tak naprawdę ich nie rozumiemy.

Zamiast myśleć o sztucznej inteligencji jako o czymś nadludzkim lub obcym, łatwiej jest je analogować do zwierząt, inteligentnych nieludzi, których mamy doświadczenie.

Na przykład, gdybym wykorzystywał naukę wzmacniającą, aby wyszkolić psa do siedzenia, wychwalałbym go i dawał mu smakołyki, gdy on siedzi na polecenie. Z czasem nauczył się kojarzyć polecenie z zachowaniem z ucztą.

Trenowanie systemu AI może być bardzo podobne. Wzmacniając głębokie uczenie się, ludzcy projektanci stworzyli system, wyobrażają sobie, czego chcą się uczyć, udzielają mu informacji, obserwują jego działania i przekazują informacje zwrotne (np. Pochwały), gdy widzą, czego chcą. Zasadniczo możemy traktować system AI tak, jak traktujemy zwierzęta, które szkolimy.

Analogia działa również na głębszym poziomie. Nie oczekuję, że siedzący pies zrozumie złożone pojęcia, takie jak „miłość” lub „dobry”. Oczekuję, że nauczy się zachowania. Tak jak możemy zmusić psy do siedzenia, zostania i przewracania się, możemy zmusić systemy AI do przemieszczania samochodów po drogach publicznych. Ale to zbyt wiele, by oczekiwać, że samochód „rozwiąże” problemy etyczne, które mogą pojawić się w nagłych wypadkach.

Pomagamy również naukowcom

Myślenie o AI jako zwierzęciu, które można wytresować, nie jest po prostu przydatne w wyjaśnianiu go opinii publicznej. Jest to również pomocne dla badaczy i inżynierów budujących technologię. Jeśli uczony AI próbuje nauczyć system nowej umiejętności, myślenie o tym z perspektywy trenera zwierząt może pomóc w zidentyfikowaniu potencjalnych problemów lub komplikacji.

Na przykład, jeśli spróbuję wytresować psa do siedzenia i za każdym razem, gdy mówię „usiądź”, brzęczyk do piekarnika gaśnie, wtedy mój pies zacznie kojarzyć siedzenie nie tylko z moim poleceniem, ale także z dźwiękiem brzęczyk piekarnika. Zasadniczo brzęczyk staje się kolejnym sygnałem mówiącym psu, aby usiadł, co nazywa się „przypadkowym wzmocnieniem”. Jeśli szukamy przypadkowych wzmocnień lub sygnałów w systemach AI, które nie działają prawidłowo, wtedy będziemy wiedzieć lepiej nie tylko o tym, co się dzieje źle, ale także jakie konkretne przekwalifikowanie będzie najbardziej skuteczne.

Wymaga to od nas zrozumienia, jakie komunikaty przekazujemy podczas treningu AI, a także tego, co AI może obserwować w otaczającym środowisku. Brzęczyk piekarnika jest prostym przykładem; w prawdziwym świecie będzie to o wiele bardziej skomplikowane.

Zanim powitamy naszych władców sztucznej inteligencji i przekażemy nasze życie i pracę robotom, powinniśmy zatrzymać się i pomyśleć o inteligencji, którą tworzymy. Będą bardzo dobrzy w wykonywaniu określonych czynności lub zadań, ale nie potrafią zrozumieć pojęć i niczego nie wiedzą. Kiedy więc myślisz o wystrzeleniu tysięcy na nowy samochód Tesli, pamiętaj, że jego funkcja autopilota jest naprawdę bardzo szybkim i seksownym robakiem. Czy naprawdę chcesz dać robakowi kontrolę nad swoim życiem i życiem swoich bliskich? Prawdopodobnie nie, więc trzymaj ręce na kierownicy i nie zasypiaj.


Ten artykuł został pierwotnie opublikowany w The Conversation. Rozmowa

Heather Roff, starszy pracownik naukowy, Departament Polityki i Stosunków Międzynarodowych, University of Oxford; Badacz naukowy, Global Security Initiative, Arizona State University

Jak zrozumienie zwierząt może pomóc nam w pełni wykorzystać sztuczną inteligencję