https://frosthead.com

Nowe oprogramowanie może faktycznie edytować wyraz twarzy aktorów

Nagrywanie sceny w filmie może wymagać kilkudziesięciu ujęć, czasem więcej. W Gone Girl reżyser David Fincher miał średnio 50 ujęć na scenę. Dla aktorów The Social Network Rooney Mara i Jesse Eisenberg zagrali scenę otwierającą 99 razy (ponownie wyreżyserowany przez Finchera; najwyraźniej słynie z tego). The Shining Stanleya Kubricka obejmował 127 ujęć niesławnej sceny, w której Wendy wycofuje się po schodach wymachując kijem bejsbolowym w Jacka, powszechnie uważanym za najczęstsze ujęcie z każdego filmu w historii.

Nowe oprogramowanie od Disney Research we współpracy z University of Surrey może pomóc zmniejszyć liczbę koniecznych nakładów, oszczędzając w ten sposób czas i pieniądze. FaceDirector łączy obrazy z kilku ujęć, umożliwiając edycję precyzyjnych emocji na twarzach aktorów.

„Produkcja filmu może być bardzo droga, dlatego celem tego projektu była próba usprawnienia procesu” - mówi Derek Bradley, informatyk z Disney Research w Zurychu, który pomógł opracować oprogramowanie.

Disney Research to międzynarodowa grupa laboratoriów badawczych zajmujących się innowacjami, które mogą być przydatne dla Disneya, z lokalizacjami w Los Angeles, Pittsburghu, Bostonie i Zurychu. Ostatnie projekty obejmują robota wspinającego się po ścianie, „kolorowankę rzeczywistości rozszerzonej”, w której dzieci mogą pokolorować obraz, który staje się poruszającą się postacią 3D w aplikacji, oraz kamizelkę dla dzieci, która zapewnia wrażenia takie jak wibracje lub uczucie kropli deszczu odpowiadające sceny z bajki. Zespół stojący za FaceDirector pracował nad projektem przez około rok, zanim zaprezentował swoje badania na Międzynarodowej Konferencji na temat Wizji Komputerowej w Santiago w Chile w grudniu ubiegłego roku.

Wypracowanie sposobu synchronizacji różnych ujęć było głównym celem projektu i jego największym wyzwaniem. Aktorzy mogą mieć pochylone głowy pod różnymi kątami, od jednego do drugiego, mówić w różnych tonach lub pauzować w różnych momentach. Aby rozwiązać ten problem, zespół opracował program analizujący mimikę twarzy i sygnały dźwiękowe. Wyraz twarzy jest śledzony przez mapowanie punktów orientacyjnych twarzy, takich jak kąciki oczu i ust. Następnie program określa, które ramki mogą być do siebie dopasowane, jak puzzle. Każdy element układanki ma wielu partnerów, więc reżyser lub redaktor może następnie wybrać najlepszą kombinację, aby uzyskać pożądany wyraz twarzy.

Aby stworzyć materiał do eksperymentowania, zespół przyprowadził grupę studentów z Uniwersytetu Artystycznego w Zurychu. Uczniowie wykonali kilka ujęć wymyślonego dialogu, za każdym razem robiąc różne miny - szczęśliwe, gniewne, podekscytowane i tak dalej. Zespół mógł następnie wykorzystać oprogramowanie do stworzenia dowolnej liczby kombinacji wyrazu twarzy, które przekazywałyby więcej niuansów - smutne i nieco wściekłe, podekscytowane, ale przerażające i tak dalej. Byli w stanie połączyć kilka ujęć - powiedzmy przestraszonych i neutralnych - aby stworzyć rosnące i opadające emocje.

Zespół FaceDirector nie jest pewien, w jaki sposób lub kiedy oprogramowanie może stać się dostępne na rynku. Produkt nadal działa najlepiej, gdy jest używany ze scenami filmowanymi, gdy siedzi się na statycznym tle. Przenoszenie aktorów i przenoszenie scenerii na zewnątrz (kołyszące się drzewa, przejeżdżające samochody) stanowią większe wyzwanie dla synchronizacji.

Nowe oprogramowanie może faktycznie edytować wyraz twarzy aktorów