Разбор технологий и альтернатив.
С недавнем патчем в Mass Effect Andromeda наконец улучшили отображение лиц персонажей. Однако главный вопрос остаётся: почему анимация получилась такой изначально. Портал Eurogamer разобрался в ситуации.
А ведь на их месте мог быть кто угодно.
Стоит в разговоре с разработчиками упомянуть ролики с анимациями из диалогов Mass Effect: Andromeda, как их лица меняются. Словно они солдаты, нетронутые взрывом снаряда, убившего их товарища рядом. Многие из ныне широко известных проблем Mass Effect Andromeda знакомы любому разработчику игр, сильно полагающихся на сюжет, и каждый из них понимает, что вполне мог бы оказаться на месте BioWare и EA, получающих сейчас горы справедливой критики.
Вот, например, Джонатан Купер из Naughty Dog, работавший над первым Mass Effect, в своём Twitter объяснил, насколько сложна работа аниматоров, сделав акцент на давящих ожиданиях аудитории и компромиссах, на которые пришлось пойти разработчикам Andromeda.
Читать
Jonathan Cooper ✔@GameAnim
Every encounter in Uncharted is unique & highly controlled because we create highly-authored 'wide' linear stories with bespoke animations.
19:19 - 23 Mar 2017
Каждая сцена в Uncharted уникальна и находится под контролем, потому что мы создаём истории именно с помощью анимации
Читать
Jonathan Cooper ✔@GameAnim
Conversely, RPGs offer a magnitude more volume of content and importantly, player/story choice. It's simply a quantity vs quality tradeoff.
19:20 - 23 Mar 2017
Откровенно говоря, в RPG гораздо больше контента и, что важнее, возможностей сделать выбор. Тут ситуация в духе «количество vs. качество»
Лицевые анимации и диалоги делать сложно. Для этого нужен талант, опыт, технологии и множество разных специалистов. Графические инженеры, художники по освещению, сценаристы, создатели 3D-моделей, актёры озвучки и, конечно же, аниматоры. Они работают в своём субъективном и постоянно меняющемся мире драмы и эмоций, стараясь при этом соответствовать постоянно возрастающим ожиданиям аудитории.
То, что раньше было технологическим шедевром, сегодня — мусор, а игровые персонажи сейчас проходят по одному из самых сложных участков пути по «зловещей долине». Иногда игровые лица могут выглядеть действительно как настоящие (как в некоторых сценах из Horizon: Zero Dawn), но, как показывает Andromeda, внезапный глюк или неловкая пауза в речи могут буквально за несколько секунд испортить все впечатления от анимации, на которую потратили много часов труда.
Horizon: Zero Dawn
Andromeda оступилась на подъёме из «зловещей долины» и покатилась вниз. Она гораздо более амбициозна, чем предыдущие игры во вселенной Mass Effect, в ней больше строк диалогов, чем в Mass Effect 2 и 3 вместе взятых (для сравнения: в Mass Effect 3 было 40 тысяч строчек). К тому же, в Andromeda 1200 говорящих персонажей, что в два раза больше, чем в Mass Effect 3.
То есть очень много лицевой анимации. И не забывайте, что реплики произносятся на пяти языках: английском, французском, немецком, итальянском и испанском. В общем, трудиться над анимацией BioWare надо было очень много, больше, чем когда-либо для Mass Effect.
Всё начинается с лепки моделей персонажей и риггинга. Риггинг — это процесс создания скелета для 3D-персонажа, с выделенными осями движения для каждого сустава — нога становится ногой, а палец пальцем. Процесс это трудоёмкий: на риггинг Лары Крофт для Tomb Raider 2013 года студии Crystal Dynamics понадобился целый месяц.
Но тела это одно, а лица — совсем другое. Сложные выражения лиц появляются в результате движения множества «костей», которые перемещают меш лица. Пять лет назад в игровых лицах обычно было 30-50 «костей», но из-за этого лица получались не очень реалистичными. Сейчас же игровые движки способны на большее. Например, лицо персонажа вроде Натана Дрейка из Uncharted 4 состоит из 300-500 «костей» и может включать в себя от 200 до 400 блендинговых форм, которые обеспечивают плавный переход между выражениями лица.
Затем эти скелеты оживляются с помощью анимационных данных, которые для многих кинематографичных сцен в современных играх собираются через захват движений. Как говорит Дэвид Бартон (David Barton), продюсер в специализирующейся на захвате движений компании Cubic Motion, сейчас скелеты, основанные на сканировании, встречаются всё чаще. Обычно в деталях захватывается от 70 до 80 выражений лица актёра.
Cubic Motion, которые делали захват движений для кинематографичных сцен Horizon: Zero Dawn's, создают алгоритмы под названием solvers (солверы, «решатели»). Эти алгоритмы обрабатывают данные сканирования и на их основе интерпретируют крайне детальную и сложную информацию, полученную во время захвата лица.
То есть можно взять улыбку и разбить её на десять разных алгоритмов для лицевого скелета, а потом наш инженер прогоняет захваченную игру актёра через солвер и обрабатывает каждый из алгоритмов, чтобы создать анимацию.
Дэвид Бартон, продюсер в Cubic Motion
Можно пойти ещё дальше и анимировать карты морщин, которые симулируют мимические изменения на коже, и карты диффузии, симулирующие кровообращение под кожей лица в виде румянца и покраснений.
Обычно мы хотим добиться именно такой детализации.
Дэвид Бартон, продюсер в Cubic Motion
Andromeda — игра масштабная, там много персонажей и диалогов, к тому же игрок может как угодно менять внешность своего Райдера. А значит, многое из вышеперечисленного реализовать невозможно. Решением для таких игр становится автоматизация, как и, кстати, для «Ведьмака 3» с Horizon: Zero Dawn.
В Andromeda используется технология FaceFX от компании OC3 Entertainment, программа-посредник, в которой с помощью аудиофайлов можно создавать движения губ и лицевую анимацию для 3D-моделей. FaceFX повсюду: в The Division, Fallout 4, Batman: Arkham Knight и ещё во многих и многих крупных играх. В основе технологии лежит метод создания набора лицевых выражения для фонем, то есть базовых движений губ для, например, звука «о» или «а», или протяжного «мм». Затем эти базовые движения собираются, основываясь на аудиодорожке диалога.
CD Projekt RED создавали анимации для 35 часов диалогов третьего «Ведьмака» с помощью похожего инструмента, только они его собирали сами и добавили туда возможность задавать движения тела и углы камеры. С Andromeda сравнивать сложно, поскольку BioWare о своих инструментах не рассказывает, однако в «Ведьмаке» диалоги выглядели качественно потому, что для разработчиков автоматически сгенерированная анимация была лишь основой.
Легче модифицировать её, чем начинать с нуля — аниматоры могли взять сгенерированные сцены и как угодно изменять их, добавлять случайные жесты и новые углы камеры, даже заставлять персонажей двигаться и менять позы. Вот демонстрация этого процесса, которую технический директор CD Projekt RED в прошлом году показывал на GDC:
Но это ещё не всё. То, что мы уже разобрали, почти не касается небольших движений глаз, головы и мышц лица, которые и делают выражение человеческим.
Люди двигаются как насекомые: дёргано, резко, бессистемно. На лицах людей постоянно есть множество мимических шумов, пустых движений, без которых никак, иначе зритель не поверит, что перед ним человек.
Тамим Антониадес (Tameem Antoniades), сооснователь Ninja Theory
Horizon: Zero Dawn — лишь одна из недавних игр, которые это подтверждают: глаза Элой постоянно подрагивают и двигаются, так что её лицо кажется по-настоящему живым. Мёртвые, недвижимые глаза это одна из самых больших проблем игровой анимации, потому что люди сразу же обращают на них внимание. Мелкие движения помогают эту проблему решить, особенно если убедиться, что глаза направлены туда, куда должен смотреть персонаж во время разговора.
А ведь есть ещё и вопросы графики. Для создания глаза хорошего качества нужны соответствующие шейдеры, чтобы симулировать движение жидкостей и отражение света между поверхностью глаза и радужкой. Чтобы создать хорошее лицо, нужно и освещение сделать правильно.
И тут у Andromeda возникает непростая проблема. Мир игры освещается динамически — так работает движок Frostbite, — так что зачастую разговоры происходят в плохо освещённых местах, из-за чего персонажи выглядят неестественно. Почему-то BioWare не стали заранее располагать источники света в диалогах, как делали это в прошлых частях Mass Effects, и как Guerrilla делали в Horizon.
В идеальном мире никто бы не прибегал к автоматической генерации лицевой анимации. Извини, FaceFX. И идеал этот скоро может стать реальностью.
Ninja Theory — одни из первопроходцев в сфере лицевой анимации, их игры можно рассматривать как срезы её развития. Heavenly Sword 2007 года стала одной из первых игр, в которых использовался захват движения, но анимации в ней серьёзно перерабатывались аниматорами WETA прежде, чем попасть в игру. В Enslaved 2010 года Ninja Theory использовали собственный лицевой солвер, который, по словам Антониадеса, сгенерировал для них от 80 до 90 процентов финальных анимаций.
В результате модельки всё равно оказывались в «зловещей долине», пока не приходил художник по анимациям и не говорил: «Так, тут актёр играл вот эту эмоцию, вот как она должна выглядеть».
Тамим Антониадес, сооснователь Ninja Theory
В DmC 2013 года использовался тот же солвер, но движения захватывались не с помощью камеры, отслеживающей положения маркеров, похожих на шарики для пинг-понга, — сканирование было полностью компьютерным, для него не нужно было готовиться, да и физический аспект сцены попадал в игру.
Devil May Cry 2013 года
Сейчас в Hellblade используется солвер уже от Cubic Motion, а на головы актёров монтируются системы камер от Technoprops, которые снимают лица со ста углов. Лицевой каркас делает компания под названием 3Lateral.
Они делают лучшие лицевые каркасы, формирующиеся в реальном времени.
Тамим Антониадес, сооснователь Ninja Theory
В итоге 95 процентов работы автоматизировано. Затем над получившимися данными немного колдуют специалисты из Cubic Motion, а Ninja Theory в процессе участвует редко.
Их метод создания лицевой анимации настолько отточен, что Ninja Theory в прошлом году демонстрировали его вживую со сцены на Siggraph, конференции по компьютерной графике. Мимика лиц людей сразу же переходила на движок Unreal 4 — за это студия получила награду в номинации «Лучшая графика в реальном времени и интерактивность».
В Hellblade диалогов гораздо меньше, чем в Mass Effect, однако она демонстрирует, что уже совсем скоро можно будет спокойно захватывать анимацию прямо с лиц актёров озвучки, пока они произносят реплики. А это значит, что разработчики будут экономить много времени, поскольку им не надо будет подчищать анимацию.
С другой стороны, возможно, им придётся больше работать с актёрами, потому что теперь даже мельчайшие движения их глаз будут попадать в игру.
Так или иначе, не стоит смотреть на лучшие примеры лицевой анимации из других игр и думать, что Andromeda будет сопоставима с ними во всём. Помните, что тысячи диалогов в большой игре вроде Andromeda — это результат множества факторов, так что сделать каждую секунду анимации идеальной сложно. Бюджет при этом ограничен, и анимация постоянно конкурирует за финансирование с боевой системой или детализацией уровней.
И всё же, вполне логично просить от игры про отношения лучшей демонстрации персонажей. Технологии постепенно совершенствуются и, как заметил Джонатан Купер, возможно, после истории с Andromeda студии начнут выделять на создание анимации больше денег из общего бюджета. Всем нам приятно проводить время с игровыми персонажами, которые ведут себя естественно. Когда мы думаем, что играем с настоящими людьми, игра соединяется с жизнью.
Источник
ТОП НОВОСТЕЙ ИГРОВОЙ ИНДУСТРИИ
Читайте также
Последние новости