Как играть на российских биржах
Шрифт:
tit = bi1 * f1t + bi1 * f2t + ... + bim * fmt + di * vit + it
, где
tit – доходность ценной бумаги за период t;
f1t – j– ый фактор, оказывающий влияние на доход по всем ценным бумагам за период t;
bij – чувствительность i– ой ценной бумаги к изменению j– ого фактора;
di – весовой коэффициент i– ой ценной бумаги к изменению специфического (характерного) фактора;
vit – значение специфического (характерного фактора) для i– ой бумаги за период t;
it – случайная ошибка.
Для оценок факторных моделей используется много различных методов, в общем случае их можно классифицировать по трем основным группам моделей:
• Методы временных рядов;
• Методы пространственной выборки;
• Методы факторного анализа.
Рассмотрим общие положения каждого из этих методов.
• Методы временных рядов
Предположим, что инвестор заранее знает, какие факторы влияют на доходность ценных бумаг. Идентификация соответствующих факторов обычно происходит на основе экономического анализа фирм, включаемых в модель, при этом главную роль играют аспекты макроэкономики, макроэкономики, организации промышленности и фундаментальный анализ ценных бумаг. Например, можно ожидать, что некоторые макроэкономические переменные значительно влияют на доходность ценных бумаг. К ним относятся, в частности, ожидаемый темп прироста ВВП, инфляция, процентные ставки, цены на нефть. После выбора таких факторов следующий шаг при построении модели состоит в сборе информации об их значениях и доходности ценных бумаг от периода к периоду. Затем полученные данные используются для вычисления чувствительности доходностей к факторам, специфических факторов (собственной доходности ценных бумаг), а также стандартных отклонений факторов и их корреляций. В этом подходе решающим моментом является точное измерение значений факторов, что на практике может составить нетривиальную задачу.
• Методы пространственной выборки
Метод пространственной выборки (gross-sectional approaches)
• Факторный анализ
В рамках факторно-аналитического метода построения факторной модели неизвестны ни значения факторов, ни чувствительности ценных бумаг к этим факторам. Для определения числа факторов и чувствительнотсей к данным о доходностях ценных бумаг в прошлом применяется статистический метод, называемый факторным анализом (factor analysis). При использовании этого метода доходности некоторой выборки ценных бумаг рассматриваются за большое число временных периодов в целях установления одного или нескольких статистически значимых факторов, которые могли бы привести к ковариации доходностей, наблюдаемых в этой выборке. По сути дела, в этом подходе данные по доходности сами указывают на структуру факторной модели. К сожалению, факторный анализ не конкретизирует, какие экономические переменные представлены полученными факторами.
Одной из главных причин новых исследований и разработок в финансовом анализе стала прокатившаяся в различных странах за последние 30 лет серия финансовых катастроф. Она разорила множество банков и инвестиционных фондов, в том числе и знаменитый LTCТ, активно использующий идеи количественного анализа. В результате новейших исследований оказалось, что те очень редкие и очень сильные колебания, которые ранее считались несущественными и отбрасывались при проверке распределений на нормальность, на самом деле являются очень важными. Отсюда следовало, что те положения, на которых базируется количественная теория финансов, являются неверными. Возможно, именно с кризисом классической теории связано возрождение в последние десятилетия интереса к техническому анализу (анализу графиков поведения цен). В бестселлере Петерса «Хаос и порядок на рынках капитала» приведено множество примеров, на которых ясно показаны отклонения реального поведения цен от логнормального распределения, принятого классической теорией. Этот факт связан с тем, что на цены оказывает влияние множество дополнительных факторов (в т. ч. связанных с психологией инвесторов), которые весьма сложно отделить друг от друга. Их совместное влияние и определяет отклонения распределения реальных цен от логнормального распределения. Пионерами в исследованиях динамических систем «третьего рода» были американский метеоролог Эдвард Лоренц и франко-американский математик Бенуа Мандельброт. В середине 60-х Лоренц задался вопросом: почему стремительное совершенствование компьютеров, математических моделей и вычислительных алгоритмов не привело к созданию достоверных среднесрочных прогнозов погоды? Лоренц предложил упрощенную модель процессов, происходящих в атмосфере. Компьютерный анализ модели Лоренца привел к принципиальному результату: для «динамического хаоса» возможен весьма ограниченный горизонт прогноза. С точки зрения математики любая динамическая система, что бы она ни моделировала, описывается движением точек в фазовом пространстве (координатами такого пространства служат степени свободы системы), вернее их траекториями, которые в классической динамике однозначно определены для сколь угодно большого промежутка времени. Но динамическому хаосу соответствует «клубок» расходящихся траекторий, причем от скорости их расходимости зависит интервал времени, на который может быть дан прогноз (более подробно «кубок» траекторий мы рассмотрим в разделе Статьи). Благодаря анализу модели Лоренца метеорологи были вынуждены признать, что их «пророческие способности» ограничены максимум тремя неделями и даже новейшие компьютерные погодные модели пока не в состоянии преодолеть этот барьер. Бурно развивающаяся с середины прошлого века нелинейная динамика окончательно развеяла иллюзию «глобальной предсказуемости»: выяснилось, что начиная с какого-то горизонта прогноза мы в принципе не можем предсказать поведение многих даже достаточно простых систем. Однако нелинейная динамика дала исследователям помимо очередной демонстрации принципиальной ограниченности человеческого знания будущего достаточно мощный инструментарий для анализа разнообразных процессов с ограниченным горизонтом прогноза. Нелинейная динамика позволяет устанавливать, сколько переменных необходимо для их описания, сколько переменных нужно для прогнозирования, каким должен быть их мониторинг, т.е. пытается вычленить те элементы, которые оказывают определяющее воздействие на динамические процессы в подобных системах. Ученые принялись за разработку новых поколений моделей и алгоритмов, оперирующих массивами этих переменных, и прогностическая деятельность постепенно стала переходить из разряда любительской в профессиональную: быстрыми темпами пошло развитие «индустрии прогноза». В центре внимания прогнозистов сейчас прежде всего находятся описание и предсказание редких катастрофических событий не только в природе, но и в обществе. Философы и социологи часто называют современную цивилизацию «обществом риска». А в дальнейшем, с развитием научно-технического прогресса, повсеместным внедрением био-, инфо– и прочих неотехнологий, спектр рисков и возможные масштабы катастроф будут только увеличиваться. В этой связи все более актуальной становится задача управления рисками – прогнозирования и предупреждения всякого рода катаклизмов. Связь между идеями нелинейной динамики и управлением рисками стала ясна недавно. Осознать ее помогла парадоксальная статистика техногенных катастроф. С помощью математического аппарата нелинейной динамики было показано, что все образчики «чудовищного невезения», сопутствующего прогрессирующему человечеству, вроде аварии на комбинате «Маяк», чернобыльского взрыва или гибели «Конкорда» зачастую подчиняются неким универсальным сценариям возникновения хаоса из упорядоченного состояния, т.е. представляют из себя вариации на тему вышеописанного третьего класса процессов с ограниченной предсказуемостью. Еще в начале XIX века Карл Гаусс установил, что вероятность распределения случайных величин достаточно часто описывается одним и тем же математическим выражением, получившим позже его имя. Соответствующая распределению Гаусса кривая показывает, что большие отклонения от средних величин редки, ими можно пренебречь. Однако существует и множество других вероятностных распределений, в том числе степенные. «Хвосты» этих распределений убывают гораздо медленнее, за что они получили название «распределений с тяжелыми хвостами». В этом случае вероятности отклонений от средних величин уже существенно больше по сравнению с распределением Гаусса. Если бы человеческий рост был распределен по такому закону, мы бы жили в мире сказок братьев Гримм, регулярно сталкиваясь на улицах с великанами и карликами. Еще в середине 30-х годов создатель знаменитой «шкалы землетрясений» Чарльз Рихтер высказал предположение, что именно «распределения с тяжелыми хвостами» ответственны за катастрофы. В дальнейшем теория риска установила, что этот закон распределения вероятностей имеет фундаментальный характер для процессов, подпадающих под категорию катастрофических. Сегодня исследователи сходятся во мнении, что степенные распределения «с тяжелыми хвостами» описывают не только природные, но и разнообразные техногенные катастрофы: аварии на атомных станциях и химических предприятиях, разрывы трубопроводов, неполадки в компьютерных сетях, более того, ими в значительной степени определяется развитие биосферы и поведение финансовых рынков. «Степенная» статистика существенно отличается от «нормальной» (это еще одно название Гауссового распределения). «Степенная» статистика описывает явления, при которых ущерб от одного самого крупного события может превосходить ущерб от всех остальных cобытий этого класса вместе взятых. Ответ на вопрос, откуда берется степенная статистика, удалось получить благодаря новой парадигме нелинейной динамики – теории сложности и построенной в ее рамках теории самоорганизованной критичности. Для всех степенных распределений общим является возникновение длинных цепочек причинно-следственных связей: одно событие может повлечь другое, третье и т.д., в результате чего происходит «лавинообразный» рост изменений, затрагивающих всю систему. Причем окончание «лавины изменений» – переход к новому состоянию равновесия – может произойти не скоро. Исследование сложных систем, демонстрирующих самоорганизованную критичность (т.е. все тех же систем, относящихся к классу процессов с ограниченным горизонтом прогноза), показало, что такие системы сами по себе стремятся к критическому состоянию, в котором возможны «лавины» любых масштабов. Поскольку к системам такого сорта относятся биосфера, общество, инфраструктуры различного типа, военно-промышленный комплекс, множество других иерархических систем, результаты теории самоорганизованной критичности очень важны для анализа управляющих воздействий, разработки методов прогнозирования и «упреждающей защиты» от этих явлений. Именно на базе нелинейной динамики теория рисков выработала своеобразную технику работы с незнанием, направленную на поиски закономерностей поведения произвольной нелинейной системы как целого. Оказывается, компьютерный анализ большого массива статистических данных позволяет выявить так называемые «предвестники» катастроф. Даже незначительный рост этих медленно меняющихся величин, рассчитываемых по определенным сложным формулам, сигнализирует о надвигающейся опасности. Одним из первых идею о подобном применении методов нелинейной динамики высказал более 20 лет назад Владимир Кейлис-Борок (ныне – академик РАН, директор Международного института теории прогноза землетрясений и математической геофизики). Под его руководством был создан алгоритм прогноза, основанный на накопленных за многие годы данных сейсмической активности. Этот метод получил название М8, поскольку предназначался для прогноза достаточно сильных (более чем в 8 баллов) землетрясений. С 1985 года началось систематическое применение разработанного российскими учеными алгоритма. За это время было успешно предсказано пять из семи происшедших крупнейших землетрясений, в том числе Спитакское и Калифорнийское. Впрочем, «удачные» предсказания едва ли могут серьезно облегчить работу соответствующим «службам спасения»: точность данного метода крайне невелика – прогноз выдается с неопределенностью по времени в один – два года и с неопределенностью в пространстве в 200...400 км. Не слишком успешно применение данного метода и к прогнозу землетрясений слабее 8 баллов. Но даже с учетом этих оговорок продемонстрированная алгоритмом Т8 возможность предсказывать землетрясения за несколько лет до их наступления представляется серьезным научным достижением. Более того, уже обкатанный на прогнозе природных катаклизмов алгоритм был применен Кейлис-Бороком с сотрудниками и в социально-экономической сфере. В рамках метода Т8 анализировались экономические рецессии в США с 1963 года по 1997 год. За основу были взяты 9 ежемесячных характеристик экономики США – объем ВВП, суммарный личный доход граждан, уровень безработицы и др. Расчеты на базе этих данных позволяли определить так называемые промежутки тревоги – периоды времени, за которыми должны были последовать рецессии. И действительно, все пять рецессий, происходивших с 1963 года по 1997 год, предварялись периодами тревоги. В одном случае тревога длилась 13 месяцев, в другом – 10, а в оставшихся трех случаях – по 3 месяца. Правда, данное исследование было ретроспективным, и пока вопрос о будущих катаклизмах в американской экономике группа Кейлис-Борока не изучала. Наиболее яркий пример взаимопроникновения точного естествознания и наук об обществе – возникшее в середине 90-х годов новое междисциплинарное направление, эконофизика. Официальной датой ее рождения считается 1997 год, когда в Будапеште была проведена первая «эконофизическая» конференция, а начиная с 1999 года Европейское физическое общество поставило организацию конференций «Применение физики в финансовом анализе» на поток – в декабре этого года в Лондоне состоится уже третья по счету «тусовка эконофизиков». Многочисленные зарубежные адепты новомодной дисциплины (подавляющее их большинство по образованию – физики), вооружившись методами нелинейной динамики, сегодня активно вторгаются в заповедную зону экономической науки – в анализ и прогнозирование разнообразных финансовых потрясений (ибо, как мы уже отмечали, финансовые рынки, согласно представлениям нелинейной динамики, – всего лишь одна из вариаций третьего класса процессов, систем с ограниченной предсказуемостью). Характерный пример подобных попыток – недавние исследования группы Дэвида Лэмпера из Оксфордского университета. Лэмпер создал модель, позволяющую, по его мнению, эффективно предсказывать финансовые катастрофы. Его модель базируется на анализе стандартной системы, состоящей из множества игроков, конкурирующих друг с другом за ограниченные ресурсы. «Всеобщая взаимозависимость» поведения игроков приводит к тому, что система в целом оказывается очень чувствительной к небольшим флуктуациям. И хотя подавляющее их большинство так и остается малозначимым для рынка, отдельные «мелочи» способны вызвать «лавины изменений». Декларируемая новизна подхода Лэмпера состоит в том, что ему якобы удалось «нащупать очаги будущей катастрофы» (те самые «предвестники», выявление которых – важнейшая задача «рискового прогнозирования») – ими оказались так называемые
Эконофизика использует современный математический аппарат нелинейной динамики и статистической физики, чем принципиально отличается от эконометрики, основанной на линейных моделях. В настоящее время преимущества использования современных физических концепций для описания и анализа финансовых систем не требуют дополнительных доказательств. Взаимный интерес физиков и экономистов к совместным исследованиям оказался обеспеченным большим количеством баз экономических данных и появлением новых физических результатов и парадигм, таких как критические явления, неупорядоченные системы, системы с нелинейной динамикой. Усилия многих исследователей направлены на анализ больших массивов эмпирических данных по обменным курсам валют, ценам акций, функционированию отдельных секторов финансового рынка. Математический аппарат включает методики корреляционного анализа, выявление тренда, мультифрактального анализа. Приложение к управлению рисками и прогнозированию осуществляется путем выявления аттракторов, определения ранних симптомов обвала рынка. Для моделирования финансового рынка используются многоагентные (тиlti-agent) и перколяционые модели. Рассматривается универсальность скейлинговых закономерностей во флуктуациях активов компаний, статистические распределения дохода фирм. Пристальное внимание уделяется результатам стохастического моделирования априорных ожиданий, новым подходам к определению цен опционов, анализу Леви-процессов в динамике цен. Сложившаяся в эконофизике ситуация во многом напоминает начальную стадию развития термодинамики и квантовой механики. По общему мнению, эконофизический подход к финансам должен в целом стать значительно более прибыльным, чем интуитивное прогнозирование, хотя в настоящее время нет достоверной информации о том, что кто-то сумел заработать большие деньги на данных теориях. Значительное увеличение количества научных статей, монографий, конференций за последние 4 года демонстрируют растущую популярность эконофизики. Согласно журналу Института физики Великобритании, финансовый сектор экономики стал одним из основных работодателей молодых физиков-теоретиков. Так одним из направлений эконофизики является фрактальный анализ структуры рынка (в т.ч. финансового), который показывает, что его общая емкость имеет тенденцию к бесконечному росту: суммарный объем мелких рыночных ниш может превышать суммарный объем крупных, поскольку чем меньше размер ниш, тем в большем количестве они присутствуют на рынке. Зная расположение «незанятого» пространства на рынке, можно «расположить» там новых агентов с соответствующим набором услуг и оборотом. При этом будет получена новая, более плотная конфигурация рыночной структуры. Такая процедура может продолжаться бесконечно. Практический интерес представляет получение плотных, оптимальных по заполнению конфигураций, размер ниш которых варьируется в ограниченных пределах. Представление многоукладного рынка как масштабируемой структуры взаимодействующих рыночных ниш позволяет оценить его емкость и структурировать как финансовую, так и производственно-торговую сферы. Совокупность действующих на рынке однородных агентов описывается распределением численных значений их характеристик. Известно, что сумма независимых случайных величин подчиняется вполне определенному закону, который назван распределением Гаусса. Вдали от среднего значения кривая Гаусса очень быстро убывает, большие отклонения столь редки, что ими пренебрегают. Однако выяснилось существенное значение и другого класса законов – степенное распределение (распределение Парето), описывающее фрактальные объекты (Тandelbrot, «The Fractal Geoтetry», 1982). Здесь «хвост» убывает гораздо медленнее, большие отклонения более вероятны и ими пренебрегать нельзя. Отличительной особенностью фрактальных распределения является бесконечная дисперсия. Именно такова, в частности, статистика биржевых крахов и многих других событий в экономике. Сами фрактальные распределения известны достаточно давно. В экономической литературе они носят названия «Парето», или «Парето-Леви», или «устойчивые паретовские распределения». Их свойства были изучены Леви и опубликованы в 1925 г. Работа Леви базировалась на наблюдениях Парето (1897), касающихся негауссового характера распределения доходов в области больших отклонений от среднего (3% наивысших доходов). Негауссово распределение характерно практически для всех экономических параметров, в том числе: курсы акций на бирже, цена золота, соотношение курсов валют, динамика розничных продаж и др. (Peters, «Fractal Тarket Analysis», 1994; Тandelbrot, «On Dollars, Тarks», 1997). Каждый из параметров имеет свой странный аттрактор в фазовом пространстве. Аттрактор может быть охарактеризован соответствующим значением фрактальной размерности. Оказалось, что рынки обыкновенных акций США, Англии и Германии имеют фрактальную размерность между 2 и 3. Это означает, что их динамика может быть смоделирована с использованием всего трех независимых параметров. Японский рынок акций сложнее – его фрактальная размерность равна 3.05 (и нужны 4 переменных для моделирования).
Таким образом, одна из центральных характеристик, позволяющих отличать фракталы друг от друга – это их размерность, которая описывает, как объект заполняет пространство и является продуктом всех влияющих на этот процесс факторов. Для экономики размерность определяет, например, как та или иная компания будет реагировать на микро– и макроэкономические изменения рынка. Поэтому акции двух компаний с одинаковой волатильностью (стандартным изменением стоимости ценной бумаги) могут очень по-разному реагировать на одни и те же новости и, соответственно, иметь совершенно разные модели прибыли по причине разных видов производства, состояний финансовых балансов и кадровых перспектив. В результате нелинейных законов, по которым могут быть приняты решения на финансовых рынках, график динамики рыночных цен и других показателей имеет вид смещенных случайных блужданий. Впервые эти процессы обнаружил и описал египетский гидролог Херст, разрабатывавший в первой половине ХХ века стратегию резервуарного контроля для Нильских резервуаров: его задача состояла в том, чтобы придумать алгоритм спуска воды из резервуаров так, чтобы они никогда не переполнялись и никогда не становились пустыми. Строя этот алгоритм, Херст выявил закономерность, по которой поднимался и опускался уровень воды в Ниле. Расширив это исследование, Херст показал, что большинство естественных явлений, включая речные стоки, температуру, осадки, солнечные пятна, следуют «смещенному случайному блужданию», то есть тренду с шумом. В дальнейшем выяснилось, что динамика показателей на рынках капитала столь же «естественное» явление, что и вода в Ниле, и также подчиняется этому закону. Херст вывел уравнение для этих нелинейных процессов. Оно выглядит так:
C = 22H-1 – 1
где C – мера корреляции, а Н – показатель Херста. Имеются три различных классификации для различных показателей Херста: при H = 0,5 получается истинно случайный ряд чисел, то есть события случайны и не коррелированны. Правая часть уравнения обращается в нуль и настоящее не влияет на будущее. при 0 < H < 0,5 происходит так называемый «возврат к среднему»: если система растет в какой-то период, то в следующий период надо ожидать спада. Если вчера шло снижение цен, то завтра ждите их повышения. Чем ближе Н к нулю, тем устойчиве эти колебания. Но таких процессов в реальности очень мало. в реальности обычно 0,5 < H < 1 – и это трендоустойчивые ряды. То есть если ряд начал возрастать, ждите, что он будет возрастать и дальше, если он убывает сегодня, завтра тоже будет убывать. Трендоусточивость тем больше, чем ближе Н к 1, потому что чем больше корреляция между процессами, тем более одинаково они себя ведут. Чем ближе Н к 0,5, тем более зашумленный и менее выраженный тренд получается на выходе. Интересно, что для имитации смещенного случайного блуждания Херст использовал колоду из 52 карт, пронумерованную числами +1,-1, +2, -2, +3, -3, +5, -5, +7, -7, поделенных по картам так, чтобы комплект давал нормальное распределение. .Херст провел на этой колоде шесть тысяч экспериментов, имитировавших случайные блуждания и получил свой коэффициент Херста Н = 0,714+/-0,091. Приблизительно такую же величину он получал в итоге природных наблюдений за естественными нелинейными процессами вроде воды в Ниле. В имитаторе Херста случайное событие (он перемешивал колоду и после этого делил ее пополам) определяет степень смещения. Другое случайное событие (он добавлял джокер в одну из половинок колоды) обусловливает длину смещенного пробега. Однако эти два случайных события имеют пределы. Степень смещения находится в границах +/-7, в результате комбинация случайных событий создает упорядоченную структуру.
Исследования показали, что рынки капитала также образуют статистики Херста. Смещения генерируются инвесторами, которые реагируют на текущую экономическую обстановку. Это смещение продолжается до тех пор, пока не появится случайная информация (экономический эквивалент джокера) и не изменит смещения по величине, направлению или в том и другом плане. То же самое происходит в популяциях при появлении полезной мутации генов, в семейной традиции при очень удачном браке – и в бизнесе компании при возникновении эффективной творческой идеи. Так, месячные значения индекса S&P 500 за 1950-1988 гг. имеют Н = 0.78, тогда как для абсолютно случайного ряда событий в точности Н = 0.5. За это же время акции IBТ имели Н = 0.72; Coca-Cola – Н = 0.70; ТcDonald’s – Н = 0.65. Изменение доходности 30-летних казначейских облигаций США дает Н = 0.68. Для средней доходности 3-, 6– и 12-месячных казначейских векселей США, выступающих доверенностью на получение дохода по краткосрочным обязательствам, Н = 0.65. Таким образом, статистика Херста показала, что рыночные прибыли являются временными рядами с фрактальным распределением вероятностей. Важно, что акции компаний из одной отрасли имеют схожие значения Н. Производства с высоким уровнем инноваций, которые сосредоточены на выпуске современной техники, имеют тенденцию к более высокому уровню Н. В противоположность им акции коммунальных предприятий, имеющих низкий уровень инноваций, отличаются меньшими величинами Н. Поскольку акции имеют Н > 0.5, применение стандартного статистического анализа становится проблематичным. Дисперсии неопределенны или бесконечны, что делает волатильность бесполезной или ошибочной оценкой риска. Поведение системы внешне кажется хаотичным, но при подробном рассмотрении в нем обнаруживаются элементы порядка (например, универсальность показателя Н, фрактальной размерности и др.), что позволило выделить экономические системы (и ряд других) в класс систем с детерминированным хаосом. Детерминированность проявляется, например, в периодичности изменений, а хаотичность – в неопределенной длине каждого цикла. Непериодичность не позволяет обнаружить циклы стандартными методами (например, спектральным анализом), поскольку не имеет характерного масштаба (фрактальна). Это – статистический цикл. Он измеряет влияние информации на рынок и то, как память о тех или иных событиях влияет на будущее поведение рынков. Для уже упоминавшегося индекса S&P 500 длина цикла составляет 42-48 месяцев (т.е. около 4-х лет), что соответствует длине цикла американского промышленного производства. Динамика индексов международного рынка капитала Моргана-Стенли (ТSCI) для Англии, Германии и Японии (1959-1990 гг.) выявила существование непериодических циклов длиной около 8, 6 и 4 лет соответственно. Академик В.Л. Макаров следующим образом охарактеризовал расхождение классической теории и реально наблюдающейся в экономике разномасштабности: «Теория общего экономического равновесия, которая в настоящее время доминирует как в науке, так и в экономическом образовании, как известно, не вполне согласуется с реальностью, по крайней мере, в ее классическом варианте … . В реальном экономическом мире наблюдается огромное разнообразие в эффективности, в частности, в прибыльности фирм, отраслей, регионов. Это разнообразие отнюдь не уменьшается со временем, а, скорее, наоборот, возрастает. Теория общего экономического равновесия не объясняет этот феномен. По классике должен происходить перелив капитала и труда от менее эффективных областей к более эффективным, что уравнивает эффективность».