Нас всех тошнит. Как театр стал современным, а мы этого не заметили
Шрифт:
Что касается дополненной реальности (AR, augmented reality), то в каком-то смысле к ней относится всё тот же видеомэппинг – поверхностный цифровой слой прибавляется к физическому пространству. Однако в настоящее время AR принято понимать как медиа, которое воспринимается через экраны мобильных устройств или умные очки. Smart glasses пока не так распространены, чтобы их использование проникло в театр, а вот дополненная реальность для телефонов и планшетов вполне себе используется в перформативных практиках и особенно активно в современном искусстве. Штефан Кэги, один из лидеров швейцарской театральной группы Rimini Protokoll, пионеров мобильного и документального экспериментального театра, в интервью, специально данном для этой книги, говорит, что с AR он связывает гораздо большие надежды, чем с VR. В чём заключается технология дополненной реальности: при помощи компьютерного моделирования и отслеживания координат физических объектов
Пионеры мобильного и документального экспериментального театра, Rimini Protokoll, в 2013 году специально для Рурской триеннале сделали проект (его с трудом можно назвать спектаклем в конвенциональном смысле этого слова) Situation Rooms. В искусственно созданном ультрареалистичном помещении, объединяющем несколько комнат, 20 зрителей с айпадами в руках исследуют истории 20 реальных людей, жизнь которых так или иначе была определена войной или оружием. Зрители изредка пересекаются между собой, но в основном перемещаются по комнатам в одиночку. На экране айпадов и в наушниках им транслируются реальные видео, связанные с жизнью этих людей, и даются инструкции по перемещению. Длится всё это дело на протяжении 70 минут и, как все проекты Rimini Protokoll, разрывает границы жанров: ты и на спектакле, где зритель равен исполнителю, и внутри компьютерного шутера, и на журналистском задании одновременно.
Перформанс worlds, сделанный [3] в коллаборации нескольких крупных канадских университетов и показанный в 2015 году в Ванкувере на конференции Международного общества электронного искусства, сочетает технологии AR и real-time motion capture. В одной из сцен перформанса цирковая актриса выполняет акробатическую пластику на обруче, подвешенном к потолку. Перформерка одета в костюм с гиросенсорами, данные с которых фиксируются камерами в реальном времени и передаются на компьютер с программой, моделирующей AR. На экранах мобильных устройств зрителей, которые наводят камеры на актрису, она демонстрируется в миниатюрной копии, без всяких канатов двигающаяся в нарисованной пирамиде.
3
Mixed Reality and the Theatre of the Future, Fresh Perspectives/6 (march 2017).
Есть совсем неожиданные примеры: Британский национальный театр в 2017 году совместно с компаниями Epson и Accenture внедрил для некоторых спектаклей возможность просмотра субтитров прямо поверх самого действия, не отвлекаясь на экраны над или сбоку сцены. Для этого используются очки дополненной реальности Epson Moverio и специальное программное обеспечение, которое выводит текст субтитров. Технология была внедрена для увеличения доступности театра людям с ограничениями или повреждениями слуха.
Захват движения
Технология motion capture начала назревать в 70-х годах и в 80-х получила первое реальное применение. Интересно, что кинематограф добрался до mo-cap несколько позже, чем театр, современный танец и академическая музыка. Так, в 1989 году композитор Марк Кониглио разрабатывает систему MidiDancer, которая в беспроводном формате передаёт на компьютер данные от тензорезисторов (датчиков сгиба или flex sensors), прикреплённые на сгибах конечностей перформера. Информация, считываемая с этих сенсоров, была запрограммирована Кониглио и его коллегами на управление предзаписанными видео-фрагментами, модификацию музыки в онлайн-режиме и регулирование осветительных приборов.
В 1999 году хореограф Мерс Каннингем, которому к тому моменту было уже 80 лет, впервые показал балет BIPED – название дублировало имя одной из программ, использованных при создании спектакля. Этот балет стал одной из тех эпохальных точек, которые обозначили появление цифрового перформанса и ещё сильнее запустили процесс апроприации технологий театром. Спектакль состоял из двух частей – собственно живое исполнение танцовщицами на сцене хореографической партитуры, а также видеопроекция, которая частично включала в себя абстрактные анимированные фигуры, а частично – анимированные видео рисованных танцовщиц, проецирующиеся на прозрачный суперзанавес. Для этой анимации на трёх танцовщиц Каннингема навешали сенсоры в виде белых шаров, которые фиксировали камеры, расставленные по периметру студии, в которой девушки танцевали. Движения, зафиксированные камерами, переводились в 3D-модели человеческих силуэтов, нарисованных карандашными штрихами, а затем выводились на проекционный занавес, вступая в разнообразные отношения с живыми танцорами на сцене – то синхронизируясь с их партиями, то работая в контрапункт.
В 2016 году английский театр Royal Shakespear Company поставил дико технологичную версию
3D-моделирование
Обычно объёмное моделирование используется для производства видео или анимации, которая затем может использоваться или независимо, или как часть спектакля, проецирующаяся на поверхность. Однако есть примеры, когда с помощью моделирования спектакли создавались с нуля (не говоря уже об огромной роли этой технологии в разработке сценографии и декораций).
Особенное развитие 3D-моделирование получило в современном танце. Ещё в 1968 году на выставке Cybernetic Serendipity был представлен хореографический проект компьютерного центра Питсбургского университета, в котором все танцевальные движения были сгенерированы компьютером на основе случайного выбора комбинаций, хотя это и не совсем имело отношение к 3D-моделированию в современном понимании. Зато в 1990-х появляются сразу несколько программ с возможностью создавать объёмные фигуры с установленными параметрами и программировать их перемещения в пространстве – Life Forms и Dance Forms. Уже упоминавшийся выше Мерс Каннингем стал первым, кто использовал 3D-моделирование для постановки танца, что только усилило степень неестественности танцевальных и пластических движений, и так присущей этому хореографу. В 1991 году появляется его танец Beach Birds for Camera, весь построенный на резких, угловатых, изломанных движениях. Спектакли Hand-Drawn Spaces и Loops также частично основаны на движениях, смоделированных с помощью этих программ.
Не всегда такого рода опыты бывают удачными. Режиссёр Роберт Уилсон в коллаборации с композитором Филипом Глассом в конце 90-х задумали очередную совместную оперу, она получила название Monsters of Grace. Как обычно, перед постановкой Уилсон рисовал визуальную книгу спектакля – его идеи к этой постановке были мегаломанические: гигантская рука должна была вытягивать меч из океана, вертолёт должен был пролетать над Великой Китайской стеной. Уперевшись в нереализуемость проекта в реальном пространстве, Уилсон обратился к 3D-моделированию. Технологии на тот момент были понятно какие, у креативной группы ушёл целый год, чтобы в черновом варианте нарисовать видео по эскизам и сценарию Уилсона, судя по доступным скриншотам, получилось это довольно средне. Оперу показывали несколько раз: ансамбль играл музыку Гласса на сцене, а одновременно с этим на проекционный экран сверху давали 3D-видео. Проект явно сильно опередил своё время. Уилсон в интервью The New York Times позже с ужасом отмечал, что он ненавидит этот проект и что это была одна из самых стыдных вещей в его жизни.
Фейс-мэппинг
Фейс-хакингу в его современном виде чуть меньше трёх лет. В августе 2014 года японский художник и видеограф Нобумичи Асаи запустил проект OMOTE (что с японского переводится как лицо или маска) и записал видеоролик, демонстрирующий возможности проецирования динамического изображения на движущееся лицо. В феврале 2016-го совместно с Intel Асаи выпустил работу Connected Colors, в которой использовал более изощрённую (и более «природную») видеографику, которая то расходилась волнами по лицу модели, то заполняла его как татуировка. Это всё выглядело выразительно, но существовало только в качестве экспериментальных работ на видео. В том же месяце проходила 58-я церемония вручения премий Грэмми, где Intel совместно с Асаи в качестве технического и креативного директора впервые продемонстрировали фейс-хакинг вживую на большую аудиторию: в первые минуты выступления Леди Гаги с трибьютом Дэвиду Боуи на её лице растекалось что-то похожее на лаву, затем у глаза сформировался узнаваемый красный зигзаг, после чего на лице появился паук. Правда, на видео очевидно торможение проекции по отношению к резко дёргающемуся лицу исполнительницы: на тот момент технология была ещё не так точна.