https://frosthead.com

Wewnątrz futurystycznego laboratorium ludzkiego profesora Nanayakkary

W miarę korzystania z interfejsów użytkownika, język miękkiego kliknika z funkcją Bluetooth wielkości gumy gumy jest jednym z dziwniejszych sposobów wybierania, przesuwania, klikania lub innego sterowania komputerem. Ale w niektórych sytuacjach ma to sens. Załóżmy, że jeździsz na rowerze i chcesz odebrać połączenie na zestawie słuchawkowym lub sprawdzić wskazówki, ale nie chcesz odrywać rąk od kierownicy. Lub jeśli jesteś sparaliżowany i chcesz prowadzić elektryczny wózek inwalidzki, dyskretna podkładka kierunkowa w ustach będzie znacznie mniej zauważalna niż standardowe urządzenie sterujące ustami lub podbródkiem, a nawet takie, które naciskasz ramieniem.

„Jak możemy odtworzyć te interakcje, zachowując dyskretność interfejsu?” - mówi Pablo Gallego, jeden z wynalazców urządzenia o nazwie ChewIt. „Ludzie nie wiedzą, czy wchodzisz w interakcje z ChewIt, czy masz gumę do żucia lub gumowatą jamę ustną. A może karmel.

Gallego zdecydował się na ten pomysł, postanowił go udoskonalić i stworzyć prototyp w dążeniu do uzyskania tytułu magistra inżyniera na nowozelandzkim University of Auckland. Badania wykazały, że ludzie mogą rozpoznać wyraźne kształty w ustach, podobnie jak opuszki palców. I wiedział, że możemy tolerować gumę i inne ciała obce. Potem nastąpiły lata pracy, optymalizacja formy. Okrągły obiekt nie działał; użytkownik nie mógł powiedzieć, w jaki sposób był zorientowany. Musiał być wystarczająco duży, by go kontrolować, ale wystarczająco mały, by schować go w policzek. Wraz z pracownikiem badawczym Denys Matthies, Gallego stworzył ChewIt z asymetrycznej kropli żywicy polimerowej, która zawiera płytkę drukowaną z przyciskiem, który może kontrolować i przesuwać krzesło.

ChewIt prototype.jpg Ten prototyp ChewIt pokazuje żywicę polimerową i płytkę drukowaną. (University of Auckland)

Gallego i Matthies opracowali i zbudowali ChewIt na Augmented Human Lab na Uniwersytecie w Auckland, profesor inżynierii grupy badawczej Suranga Nanayakkara, aby opracować narzędzia zaprojektowane w celu dostosowania technologii do użytku przez ludzi, a nie na odwrót. Nanayakkara ma rozbieżność między tym, co robi nasza technologia, a tym, jak się z nami łączy. Nie powinniśmy się tego uczyć; powinien nas nauczyć.

„Mocna, źle zaprojektowana technologia sprawi, że użytkownicy poczują się niepełnosprawni”, mówi Nanayakkara. „Potężna technologia z odpowiednim interfejsem człowiek-maszyna sprawi, że ludzie poczują się silniejsi, a to sprawi, że interakcja człowiek-człowiek na pierwszym planie [i] utrzyma technologię w tle. Pomaga w pełni wykorzystać potencjał technologii. ”

Nanayakkara zrobił wszystko, co w jego mocy, aby zapewnić studentom i naukowcom w jego płodnym laboratorium możliwość tworzenia w oparciu o ich zainteresowania i współpracy ze sobą przy ich pomysłach. Różnorodność opracowanych przez nich technologii jest niezwykła. Jest mile widziana mata, która rozpoznaje mieszkańców na podstawie ich powierzchni, w tym wagi noszącego i profili zużycia podeszew, i odblokowuje dla nich drzwi. Istnieje osobisty trener pamięci, który angażuje się przez dźwięk, gdy rozpoznaje, że użytkownik ma czas i uwagę na ćwiczenie. Jest inteligentny kij do krykieta, który pomaga użytkownikom ćwiczyć chwyt i huśtawka. Istnieje detektor kroków dla pomocy dla osób starszych, ponieważ FitBity i smartwatche często pomijają kroki, gdy ludzie używają rolek.

I jest GymSoles. Te inteligentne wkładki działają jak trener do podnoszenia ciężarów, pomagając użytkownikom zachować prawidłową formę i postawę podczas przysiadów i martwych ciągów. „Mają one bardzo wyraźne postawy”, mówi Samitha Elvitigala, która buduje urządzenie w ramach swojej kandydatury na stopień doktora. „Istnieją pewne subtelne ruchy, które należy wykonać, w przeciwnym razie dojdzie do kontuzji.” Czujniki w podeszwach śledzą profil nacisku stóp, obliczają środek nacisku i porównują go ze wzorem, który powinien być - powiedzmy, czy sztangista pochyla się zbyt daleko do tyłu, czy zbyt daleko do przodu. Następnie urządzenie zapewnia dotykowe sprzężenie zwrotne w postaci subtelnych wibracji, wskazując, w jaki sposób podnośnik powinien się ustawić. Dzięki odpowiedniemu dostosowaniu nachylenia i ułożenia stóp, nóg i bioder całe ciało przybiera odpowiednią formę. Elvitigala wciąż udoskonala projekt i zastanawia się, jak można go wykorzystać do innych zastosowań, takich jak poprawa równowagi u pacjentów z chorobą Parkinsona lub ofiar udaru mózgu.

Początki Augmented Human Lab sięgają wstecz doświadczenia, które Nanayakkara miała w szkole średniej. Pracując z uczniami w szkole dla niesłyszących, zdał sobie sprawę, że wszyscy oprócz niego komunikują się płynnie. Zmusił go do przemyślenia komunikacji i umiejętności. „Nie zawsze chodzi o naprawianie niepełnosprawności, chodzi o nawiązywanie kontaktów z ludźmi” - mówi. „Czułem, że potrzebuję czegoś, co można by z nimi połączyć.” Później zauważył podobny problem w komunikacji z komputerami.

Nauczył się myśleć o tym jako problemie projektowym podczas studiów inżynierskich, a następnie jako postdoc w grupie Fluid Interfaces informatyka Pattie Maes, należącej do MIT Media Lab. Podobnie jak Augmented Human Lab, grupa Fluid Interfaces buduje urządzenia zaprojektowane w celu poprawy zdolności poznawczych poprzez płynne interfejsy komputerowe.

„Urządzenia odgrywają rolę w naszym życiu, a obecnie ich wpływ jest bardzo negatywny, na nasze samopoczucie fizyczne, nasze samopoczucie społeczne”, mówi Maes. „Musimy znaleźć sposoby na lepszą integrację urządzeń z naszym życiem fizycznym, naszym życiem społecznym, aby były mniej szkodliwe i miały mniej negatywne skutki”.

Maes twierdzi, że celem nie jest zmuszenie komputerów do zrobienia wszystkiego za nas. Lepiej nam będzie, jeśli nauczą nas, jak lepiej robić rzeczy sami i pomagać nam tak, jak my. Na przykład jej uczniowie zaprojektowali parę okularów, które śledzą ruchy gałek ocznych użytkownika i EEG, i przypominają im, aby skupili się na wykładzie lub czytaniu, gdy ich uwaga słabnie. Inny wykorzystuje rozszerzoną rzeczywistość, aby pomóc użytkownikom mapować wspomnienia na ulicach podczas spaceru, technikę zapamiętywania przestrzennego, którą mistrzowie pamięci nazywają „pałacem pamięci”. Porównaj to z Google (może szukasz „kostiumów Halloween” zamiast kreatywności, mówi Maes ) lub Google Maps, które w dużej mierze zastąpiły naszą potrzebę zachowania informacji lub zrozumienia, gdzie jesteśmy.

„Często zapominamy, że kiedy korzystamy z takich usług, które nas zwiększają, zawsze wiąże się to z pewnymi kosztami” - mówi. „Wiele urządzeń i systemów, które budujemy, w pewien sposób wspomagają osobę w pewnych funkcjach. Ale ilekroć ulepszysz jakieś zadanie lub umiejętność, czasami tracisz trochę tej umiejętności. ”

Być może najbardziej znane urządzenie Nanayakkary, FingerReader, zaczęło się za jego czasów na MIT. Zaprojektowany dla osób niedowidzących, FingerReader jest prosty w swoim interfejsie - skieruj kamerę na coś, kliknij, a urządzenie powie ci, co to jest, lub przeczytaj dowolny tekst na zestawie słuchawkowym.

FingerReader podążył za Nanayakkara do Singapuru, gdzie najpierw założył Augmented Human Lab na Singapore University of Technology and Design, a następnie na University of Auckland, gdzie przeniósł swój zespół 15 osób w marcu 2018 r. * W tym czasie on i jego uczniowie dopracowali FingerReader i stworzyli kolejne wersje. Podobnie jak wiele innych urządzeń, FingerReader jest opatentowany (tymczasowo) i może kiedyś znaleźć drogę na rynek. (Nanayakkara założył startup o nazwie ZuZu Labs w celu wyprodukowania urządzenia i produkuje test na kilkaset sztuk).

W pewnym sensie ekspansja wirtualnych asystentów, takich jak Siri, Alexa i Google Assistant, rozwiązuje podobne problemy. Pozwalają na bardziej naturalny interfejs, bardziej naturalną komunikację między ludźmi a ich wszechobecnymi komputerami. Ale Nanayakkara nie unikają jego urządzeń, po prostu oferują nowe narzędzie do ich uzupełnienia.

„Te technologie wspomagające są świetne, muszą się zdarzyć, to postęp w tej dziedzinie”, mówi. „Ale ktoś musi pomyśleć o tym, jak najlepiej wykorzystać ich pełną moc. Jak mogę to wykorzystać, aby stworzyć następną najbardziej ekscytującą interakcję człowiek-maszyna? ”

* Nota redaktora, 15 kwietnia 2019 r .: W poprzedniej wersji tego artykułu niepoprawnie stwierdzono, że Suranga Nanayakkara przeniosła swój zespół z Politechniki i Designu w Singapurze na Uniwersytet w Auckland w maju 2018 r., Kiedy w rzeczywistości był to marzec 2018 r. Historia została zredagowana, aby poprawić ten fakt.

Wewnątrz futurystycznego laboratorium ludzkiego profesora Nanayakkary