https://frosthead.com

Kończyna protetyczna „widzi” to, czego chce użytkownik

Kiedy coś złapiesz, twoja ręka wykonuje większość pracy. Twój mózg po prostu mówi: „idź, nie martw się, jak to się stanie”. Ale przy protezie, nawet najbardziej zaawansowanej, działanie to wymaga znacznie większej celowości. W rezultacie wielu pacjentów porzuca najnowocześniejsze kończyny.

powiązana zawartość

  • Jak włamywanie się do sieci neuronowych może pomóc amatorom bezbłędnie rozbić jajko
  • Uzyskiwanie protezy jest łatwe, w porównaniu do robienia tego, co chcesz

Współczesna protetyka odbiera polecenia w postaci sygnałów elektrycznych z mięśni, do których są przyczepione. Ale nawet najlepsza protetyka niewiele może jeszcze zrobić. Użytkownicy potrzebują długiego okresu szkolenia, aby przyzwyczaić się do kończyny. Często mogą poruszać się tylko w ograniczonym zakresie, a użytkownicy muszą ręcznie przełączać się między uchwytami, aby wykonywać różne zadania - powiedzmy, aby otworzyć drzwi zamiast uszczypnąć i przekręcić klucz. Podsumowując, oznacza to, że ręka nie może płynnie współpracować z mózgiem.

Jednym z narzędzi, które może pomóc rozwiązać ten problem, jest widzenie komputerowe. Naukowcy z Newcastle University zamontowali kamerę na protetycznej ręce, podłączyli ją do głęboko uczącej się sieci neuronowej i przekazali urządzenia dwóm amputowanym, których ramiona amputowano powyżej nadgarstka, ale poniżej łokcia. Komputer użył aparatu, aby zobaczyć, do czego użytkownik sięga, i automatycznie wyregulować uchwyt protezy.

Dotychczasowe wyniki były obiecujące. W artykule w czasopiśmie Journal of Neural Engineering zespół z Newcastle podał, że użytkownicy osiągali ponad 80 procent skuteczności w podnoszeniu i przenoszeniu obiektów.

„Jeśli uda nam się to poprawić, uzyskać sto procent, byłoby znacznie bardziej niezawodne użycie ręki dla osób po amputacji” - mówi Ghazal Ghazaei, doktorant z Newcastle i główny autor artykułu. „Jeśli to będzie używane w prawdziwym życiu, powinno być bezbłędne. ”

Samo urządzenie było gotową protezą zwaną i-limb ultra, a kamera internetowa była niedrogim, niedrogim czatem Logitech Quickcam Chat. Prawdziwą innowacją był sposób, w jaki zespół Ghazaei opracował program uczenia się komputera w celu wykorzystania informacji z kamery internetowej.

Oprogramowanie rozpoznaje wzory w kształcie podnoszonego obiektu i klasyfikuje je na kategorie na podstawie uchwytu potrzebnego do ich skutecznego uchwycenia. Aby nauczyć komputer tej techniki, Ghazaei nakarmił ją 72 zdjęciami, wykonanymi w krokach co 5 stopni, po 500 obiektów. Oprogramowanie filtruje obiekty według ich funkcji i uczy się metodą prób i błędów, które z nich należą do jakich kategorii.

Następnie, gdy proteza jest prezentowana z przedmiotem, sieć klasyfikuje obraz w niskiej rozdzielczości na podstawie jego szerokiego, abstrakcyjnego kształtu. System nie musi być czymś, co widział wcześniej system - ogólny kształt obiektu wystarczy, aby powiedzieć dłonie, jakiego uchwytu użyć. Ghazaei i zespół zastosowali cztery rodzaje chwytów, w tym szczypanie (dwa palce), statyw (trzy palce), neutralny dłoń (jak chwytanie filiżanki kawy) i wyraźny dłoń (gdzie dłoń jest skierowana w dół).

Wizja komputerowa była wcześniej wykorzystywana na robotycznych rękach, zarówno w protetyce, jak i robotach przemysłowych. Ale takie wysiłki obejmowały obiekty o standardowym rozmiarze i kształcie, jak w środowisku produkcyjnym, lub wolniejsze algorytmy. System opracowany w Newcastle był w stanie przejść przez ten proces wystarczająco szybko, aby poprawnie sklasyfikować obiekty w 450 mikrosekundach, czyli około 1/2000 sekundy. „Główną różnicą jest czas potrzebny na zrozumienie i wykonanie zadania”, mówi Ghazaei. „Dla niektórych z nich to około czterech sekund, a niektóre wymagają kilku migawek. Dla nas to tylko jedna migawka i jest bardzo szybka. ”

Wpływ tej technologii wykracza daleko poza zbieranie artykułów gospodarstwa domowego. Systemy obrazowania mogą pomóc protetycznym nogom dowiedzieć się, jak daleko znajdują się od podłoża i odpowiednio je dostosować. To, co łączy oba te przypadki, to zrobotyzowany system działający w połączeniu z mózgiem.

„Główną ideą jest interakcja między urządzeniem robotycznym a człowiekiem, dodająca inteligencji do systemu robotycznego”, mówi Dario Farina, profesor inżynierii neurorehabilitacji w Imperial College London, którego laboratorium bada interfejsy nerwowo-mięśniowe dla ciał i mózgów oraz urządzenia, z którymi się łączą.

„Nie tylko pacjent kontroluje za pomocą mózgu i interfejsu nerwowego protezę, ale także pacjentowi pomaga druga inteligentna istota, która jest zamontowana na protezie i może widzieć środowisko”, mówi Farnia, która nie była zaangażowana w badanie Newcastle: „Głównym wyzwaniem w tym przypadku jest możliwość dzielenia kontroli między człowiekiem a systemem wywiadowczym”.

Jest to wczesny etap w łączeniu sztucznej inteligencji z mózgiem, sprawdzanie, które działania działają najlepiej dla każdego bez powodowania konfliktu. Ghazaei napotkał ten problem; wciąż pracuje nad tym, jak duży ruch kontrolowany jest przez komputer protezy, a nie przez działania użytkownika. W tej chwili użytkownik wskazuje protezę na przedmiot, nakłania go do zrobienia zdjęcia, a następnie ramię wybiera uchwyt i chwyta.

To tylko jedno z wielu pozostałych wyzwań. W tej chwili system nie może zrozumieć długich obiektów, które wychodzą poza pole widzenia. Ma problem z zatłoczonym tłem. Czasami interpretuje dalszy obiekt jako mniejszy, bliższy. Ghazaei twierdzi, że zwiększenie liczby rodzajów chwytów do 10 lub 12 to kolejny cel. Ale już, jak mówi, dwaj użytkownicy biorący udział w badaniu docenili wzrost wydajności i prostotę, jaką stanowi podstawowa czynność polegająca na znalezieniu czegoś.

Kończyna protetyczna „widzi” to, czego chce użytkownik