https://frosthead.com

Nowa sztuczna inteligencja Google może pokonać ludzkich bohaterów w grze Go

Prawie dokładnie 20 lat temu komputer IBM Deep Blue pokonał mistrza świata w szachach Garry'ego Kasparowa we własnej grze. To był decydujący moment w historii sztucznej inteligencji - pierwszy raz komputer pokonał mistrza szachów.

Ale dla wszystkich, którzy widzieli to jako znak, że rewolucja AI się rozpoczęła, krytycy powiedzieli „nie tak szybko”. Powiedzieli, że szachy można stosunkowo łatwo złamać. Prawdziwym testem sztucznej inteligencji byłby komputer, który mógłby pokonać ludzkiego mistrza w Go, złożonej starożytnej chińskiej grze strategicznej, która miała obejmować intuicję i rozumienie estetyki. I ten dzień prawdopodobnie nie nadejdzie w najbliższym czasie.

„Może minąć sto lat, zanim komputer pokona ludzi w Go - może nawet dłużej”, astrofizyk i fan Go, Piet Hut, powiedział The New York Times w 1997 roku. „Jeśli rozsądnie inteligentna osoba nauczyła się grać w Go, kilka miesięcy mógł pokonać wszystkie istniejące programy komputerowe. Nie musisz być Kasparowem.

Times uznał, że jeśli komputer pokonałby mistrza Go, byłby to „znak, że sztuczna inteligencja naprawdę zaczyna być tak dobra jak prawdziwa”.

Ludzie, ten moment nadszedł, sto lat przed terminem. AlphaGo, program opracowany przez zespół sztucznej inteligencji Google DeepMind, pokonał mistrza Europy Go Fan Hui 5 do 0.

Odkrycia opublikowano dziś w czasopiśmie Nature .

Go rozpoczyna się po prostu z siatką 19 na 19 i dwoma kolorami elementów (zwanymi kamieniami), czarnym dla jednego gracza, białym dla drugiego. Gracze na zmianę kładą swoje kamienie na pustych skrzyżowaniach - punktach przecięcia dwóch linii siatki. Powoli każdy gracz próbuje otoczyć kamienie drugiego gracza, w którym to momencie zostają schwytani i zesłani z planszy. W danym momencie na planszy może być kilka okrążeń i często trudno jest powiedzieć, kto ma zamiar schwytać kogo.

„Gra w Go była od dawna uważana za najtrudniejszą z klasycznych gier dla sztucznej inteligencji ze względu na ogromną przestrzeń poszukiwań oraz trudność w ocenie pozycji na planszy i ruchów”, piszą autorzy artykułu.

AlphaGo „uczy się” zarówno poprzez szkolenie od ludzkich ekspertów, jak i poprzez praktykę, grając przeciwko sobie. Ponieważ Go ma zbyt wiele możliwych ruchów, aby komputer mógł po prostu zniszczyć dane przy podejmowaniu kolejnej decyzji - główny punkt sporny dla wcześniejszych wysiłków AI związanych z odtwarzaniem Go - AlphaGo zamiast tego używa dwóch różnych „głębokich sieci neuronowych”. Jedna sieć nazywa się „Sieć zasad” - daje to komputerowi garść obiecujących ruchów do rozważenia w oparciu o poprzednie gry, więc nie musi przechodzić przez każdy możliwy ruch. „Sieć wartości” zmniejsza głębokość wyszukiwania - to znaczy, zamiast przeszukiwać do końca gry, setki ruchów dalej, program może spojrzeć tylko kilka ruchów, aby dokonać wyboru.

To wielka sprawa: prócz siły AI, stworzenie programu Go-play, który może pokonać ludzkich bohaterów, było czymś w rodzaju wyścigu zbrojeń. Od lat różni programiści i firmy domagają się stworzenia wersji Go Deep Blue. Niektórzy się zbliżyli. Francuski program Crazy Stone pokonał pięciokrotnego mistrza Japonii Go, Yoshio Ishidę w 2013 roku, chociaż Crazy Stone otrzymał handicap (AlphaGo nie był), a Ishida nie była uważana za najlepszego gracza od kilku dekad. Do tej pory AlphaGo pokonało inne programy Go w 99, 8 procent przypadków.

Na kilka godzin przed oficjalnym opublikowaniem przez Google swoich wiadomości Facebook, bez wątpienia zirytowany faktem, że został pobity na pięcie, porzucił ogłoszenie, że ich sztuczna inteligencja „zbliża się” do pokonania ludzkich mistrzów Go.

Dlaczego Go uważa się za tak potężny test sztucznej inteligencji? Zbyt redukcyjne byłoby stwierdzenie, że Go jest łatwiejsze niż szachy.

„Gra odzwierciedla umiejętności graczy w równoważeniu ataku i obrony, dzięki czemu kamienie działają wydajnie, zachowując elastyczność w reakcji na zmieniające się sytuacje, czas, dokładną analizę i rozpoznanie mocnych i słabych stron przeciwnika”, wyjaśnia British Go Association na ich temat strona internetowa, która stanowi odpowiedź na złożone odwołanie Go.

Podczas gdy szachy mają średnio 35 legalnych ruchów na turę, Go ma średnio 200. I chociaż jest ich około 10⁴³ możliwe konfiguracje szachownicy, tablica Go ma co najmniej 2, 08 X 10¹⁷⁰ - więcej konfiguracji niż atomów we wszechświecie. W przeciwieństwie do szachów, gdzie liczba elementów na planszy jest bardzo dobrym wskaźnikiem tego, kto wygrywa, bardzo trudno jest przewidzieć, kto jest w Go.

„Nie ma dobrej heurystyki dla ustalenia, czy pozycja jest dobra czy zła dla gracza”, wyjaśnia prezes British Go Association, Jon Diamond. „Jest to częściowo analiza, a częściowo rozpoznawanie wzorców. Oceniasz tablicę w jakiś skomplikowany sposób, a my nie wypracowaliśmy sposobu replikacji na komputerach. ”

Diamond mówi, że był zaskoczony, gdy usłyszał o sukcesie AlphaGo. „Myślę, że nie spodziewałem się tego od około pięciu do dziesięciu lat, jeśli mam być szczery” - mówi. „Wykonali kawał dobrej roboty.”

Sukces AlphaGo może oznaczać, że jesteśmy znacznie bliżsi, niż wcześniej sądzono, posiadania AI, które mogą działać na poziomie ludzkim w innych obszarach. AlphaGo może być „odskocznią” od innych rodzajów sztucznej inteligencji, twierdzą jej twórcy. AI, która może podejmować złożone, pozornie intuicyjne decyzje niezbędne do wygrania Go, może być, na przykład, zdiagnozować chorego pacjenta i przepisać zindywidualizowany przebieg leczenia, według twórców.

W marcu AlphaGo zostanie ponownie przetestowane, gdy zmierzy się z koreańskim Lee Sedolem, uważanym za najlepszego gracza Go na świecie.

„Niezależnie od wyniku będzie to znaczące wydarzenie w historii baduk (Go)”, mówi Lee w komunikacie prasowym. „Słyszałem, że sztuczna inteligencja Google DeepMind jest zaskakująco silna i coraz silniejsza, ale jestem pewien, że przynajmniej tym razem mogę wygrać”.

Nowa sztuczna inteligencja Google może pokonać ludzkich bohaterów w grze Go