Предлагается моделировать режимы при помощи модели переключающихся режимов Хамильтона, основанной в свою очередь на модели Маркова, а затем на основании принадлежности тому или иному режиму продавать/покупать стрэддлы

Во время тестирования выявилась одна большая проблема – state space модели хорошо определяют продолжительные интервалы с тем или иным режимом на ин-сэмпле, но стоит перейти к оцениванию аут-оф-сэмпл прогноза режима в окне, как прогнозирование начинает происходить нестабильно,  в результате чего прогнозируемый режим в день t в среднем в половине случаев будет отличаться от прогнозируемого режима в день t+1. Это не согласуется с предполагаемой логикой длительных bear и bull движений рынка(по крайней мере bull). Важно отметить, что в этих моделях состояние определяется на основании цепи Маркова, т.е. используются исключительно данные о состоянии в последний день наблюдений и матрица транзитных вероятностей. При этом как правило прогноз режима соответствует состоянию в последний день, поскольку на практике в большинстве случаев матрица переходов имеет значения больше 0.9 на диагонали, т.е. вероятности остаться в режимах очень высокие.

Тот факт, что при этом на практике режимы постоянно меняются говорит о том, что при сдвиге окна на один день вперед меняется и состояние в новый «последний день» для нового окна. Возможными причинами могут быть как проблемы оценивания таких моделей в целом при помощи максимального правдоподбия(невыпуклые функции с множеством локальных экстремумов), так и особенности построения моделей вцелом. Похожие попытки использования подобных моделей, обнаруженные в интернете показывают похожие результаты и для расширяющихся окон.

В связи с этим возможность использования таких моделей в общем случае вызывает большие вопросы к достоверности подобного прогнозирования. Хороших путей решения этой проблемы найти не удалось.

VIX представляет собой прогноз рынка годовой волатильности S&P 500 в течение следующих 30 (календарных) дней, основанных на ценах опционов SPX. VIX имеет высокую корреляцию как с исторической волатильностью (historical volatility), так и с будущей волатильностью (forward volatility). Excess VIX представляет собой остатки регрессии VIX на историческую волатильность, то есть то что не объясняется последней. Анализ Excess VIX показывает, что когда подразумеваемая волатильность (implied volatility)  намного выше, чем можно было бы ожидать, учитывая нынешний уровень исторической волатильности, это может быть хорошим торговым сигналом.

Проверяются 3 стратегии торговли фючерсами на VIX:

1. Просто шортим VX1. 

2. Шортим VX1 и одновременно лонгуем VX3

3.  Считаем отклонение = VX1-VIX за L дней. Считаем std от отклонений. Если std>porog*текущее отклонение – продаем VX1. Лучший порог в статье = 2, лучший L=4 дня. Закрываем за 1 день до экспирации или при исчезновении сигнала.

Проверил для продажи SVXY вместо VX1, аннуализированный Sharpe за дни нахождения в позиции = 1.27, CAGR = 28%.

График с 2006 по 19.03.2018:

 

Анализируется предикативная способность изменения волатильности волатильности (VVIX) для доходности опционов на SPX.

Рост VVIX на 1 стандартное отклонение вызывает на следующий день снижение доходности путов SPX на 1.32-2.19% (t статистика -4.48..-5.54. Лучшая для глубоких путов (-5.54). Глубокие путы 0.85..0.9. Краткосрочные: 8-90 дней до экспирации).

Дополнительно были проанализированы такие предсказатели как RVV (t статистика -3.23..-4.56) и VRP (-2.7..-3.32).

Если говорить о длительных периодах (3,6,12 мес горизонт) наиболее значимую зависимость доходность путов показывает от VRP

3 мес: -12.7% на 1 ст. откл. VRP, t-stat -2.97

6 мес: -21.79% на 1 ст. откл. VRP, t-stat -2.74

12 мес: -31.35% на 1 ст. откл. VRP, t-stat -2.24

Автор тестировал стратегии по покупкам инсайдеров. Скачал с Edgar за 11 лет 2.5 млн записей, обработал - оставил 650к записей о действиях инсайдеров, прогнал через random forest (что использовал как предикторы - не раскрывает). Отранжировал результаты и получил кросс-сектионал доходность за 3 мес (тестовая выборка) 3.09% (как я понимаю 12.36% годовых).

 

Исследуется возможность торговли акциями при предсказании на основании твитов (stocktwits.com). StockTwits позволяет маркировать твиты Bearish или Bulish. Собственно, самая простая стратегия - берем твиты по тикеру с прошлого открытия до текущего открытия и считаем S-Score=(#Bullish-#Bearish)/(#Bullish+Bearish), затем нормализуем (считаем z-score). Чувствительность меняется базовым периодом Z-score. Открываем на открытии, закрываем на закрытии. Используем бумаги с ценой>5$. Пороги подбирали индивидуально под акции. Если брать верхнюю квартлиь тикеров по объему - шарп 1.24  , если вся совокупность шарп 2.11 

Второй сценарий использования автор применяет в компании Social Market Analytics - считают sentiment scores с использованием машинного обучения (Natural Language Processing) - какую используют не раскрывают. Затем взвешивают сентимент экспоненциально. Далее акции делятся на квинтили на основании S-Score в отношении вселенной акций в этот день. Формируют лонг позицию из акций, которые в верхнем квинтиле и шортовую, из акций нижнего. Шарп 4.5. 

Простой способ оценки фьючерсов на викс, по эмпирической формуле:

a_0375_1.png

X- число дней до экспирации. Vix median берем на исторических значениях за весь доступный интервал (с 1990 года). 0.21 - эмпирический коэффициент, объяснение в статье  достаточно глупое "The resulting 0.21 factor is quite close to the historical VIX median volatility of 0.18, so it’s possible that it is an implied volatility factor that rests a few percentage points
above the historical value". Скорее тут должен учитываться наклон кривой (средний исторический) между фьючерсами на викс.

Вот так выглядят отклонения цены первого фьючерса от модели:

В принципе визуально похоже на mean-reverting. Но по-хорошему на стационарность надо бы проверить.

 

Фильтр для виксовых стратегий, основанный на mean-reveritng характере VIX. Берем две скользящие 10дневные средние-SMA и EMA. Если EMA>SMA, это говорит о том, что волатильность короткая выше средней и вероятно, вернется вниз. То есть если какая-то стратегия собирается шортить волатильность - делаем это только при условии EMA>SMA. Если собирается лонговать - при условии EMA<SMA. 

Прикинул на имеющихся виксовых стратегиях  -честно говоря особого эффекта не заметил.

Очередная стратегия в виксовых ETF. Основана на том, что хорошим индикатором уровня волатильности служит волатильность волатильности.

Покупаем VXX когда десятидневное стандартное отклонение VIXа превышает 11%, Покупаем XIV когда оно ниже.

Результаты в статье довольно неплохие, шарп 1.77, CAGR 98.4%. 

Но out-of-sample сильно хуже, ровно после публикации начинается флет: 

Шарп за весь период: 1.01, CAGR 59.3%

Достаточно простая стратегия по торговле ETF на VIX с использованием RSI(2) и пирамидинга позиции.

Делим базовый капитал на 6 лимитов. Если на дневках XIV RSI<10 заходим первым лимитом по цене p1 (покупаем XIV). Если после этого цена ушла ниже p1 - заходим еще двумя лимитами по цене p2. Далее, если цена ушла ниже p2 - заходим последними 3-мя лимитами. Позицию закрываем при RSI>50.

В статье результаты (по 2014 год): 

Протестировано: 

Шарп = 0.59 (если учитывать дни вне позиции), и 0.98 если такие дни выкидывать.

 

 

Очень простая стратегия ротации 4х ETF на VIX (XIV,VXX,VXZ,ZIV). Покупаем лучший из них по 83-х дневной доходности. Результаты в статье:

Однако, с момента публикации статьи все сильно хуже:

Общий шарп (с 2004 года) = 1.06.

CAGR c 2004 года = 57%

Презентация по некоторым аспектам волатильности:

1. Определение исторической волатильности: приведены способы оценки  с учетом hi и lo значений (Parkinson, Garman-Klass, Rogers-Satchell, Yang-Zhang). Но проблема в том, что использовать их в моменте проблематично - неизвестно, какой будет hi и low до закрытия дня. Предложен другой способ оценки:   (цены логнормированы).

2. Способы определения теоретической улыбки волатильности:

Break Even Volatility

  • Delta Hedge 
  • Gamma Weighted Average 

From Local Vols

  • Using forward PDE
  • Using harmonic mean approach 

3. Анализ по PCA индекса SnP 100 и отраслевых индексов. 

Небольшая статья о способах расчета волатильности. Ну то есть считать close-close изменения цен не очень хорошо, "более лучшие" способы кратко сведены тут:

Только непонятно, почему не приведен обычный способ расчета по пятиминутным RV. Но в целом полезная табличка. 

Презентация по использованию Total Least Squares (TLS) вместо OLS для стат. арбитража.

Частый способ определения коэффициентов количества акций при парной торговле - расчет по методу наименьших квадратов (OLS). Но проблема в том, что он не симметричен - если выбрать в качестве зависимой другую переменную - соотношение будет иным. TLS лишен этого недостатка и  легко может быть рассчитам методом главных компонент. Код на R для двух активов:

r <-princomp(~ x + y)
slope <-r$loadings[2,1] / r$loadings[1,1]
intercept <-r$center[2] – slope*r$center[1]

Простой анализ частой проблемы - запустили мы стратегию, а она в дродауне. Как определить ошиблись при тестировании или это ее обычное поведение? Очень легко реализуемый подход:

  1. Определяем длину текущего дродауна в днях (L)  и его глубину (D);
  2. Помещаем такой же отрезок длиной L  в начало бэктеста
  3. Определяем доход по тесту G за период L. Увеличиваем счетчик N если G<=D;
  4. Сдвигаем отрезок L в бэктесте на 1 день;
  5. Повторяем шаги 3 и 4 пока не достигнем конца бэктеста. Количество шагов фиксируем как M.

Теперь можно определить вероятность не встретить дродаун D  в T сэмплах из M, если стратегия ведет себя согласно тесту.

1-P=(M-N)!(M-T!)/(M!(M-N-T)!)

  • N - Количество G<=D случаев;
  • L - текущая продолжительность дродауна  в днях;
  • y - длительность теста, дни;
  • M - Общее количество сэмплов = y-L+1;
  • t -  общая продолжительность реальной торговли;
  • T= t-L+1

Небольшая статья с кодом на питоне для оптимального выставления и управления ордером для покупки внутри спреда. У автора сильно улучшала исполнение

Вкратце алгоритм такой (здесь все для покупки, продажа- аналогично, с другим знаком):

  • Если покупаем - ставим ордер по биду и переводим систему в пассивный режим;

Далее для пассивного режима:

  • Если ордер не исполнен за 5 минут - переводим в аггрессивный режим;
  • Если рынок двинулся против нас (бид поднялся) - переводим в аггрессивный режим;
  • Если перекос объемов против нас в 5 раз - в аггрессивный режим;

Аггресивный режим - это покупка с оффера.

Далее для аггрессивного режима:

  • Если ордер не исполнился 10 минут - снимаем (всего)
  • Если оффер поднялся не исполнившись - снова перемещаем бид, гонимся за ним (если мы слишком медленные).

Ссылка на статью

Анализ стат. арбитража с использование hidden markov model для определения порогов входа. Тестирование осуществлялось на 7 парах: CL-BRN; HO-RB;ZM-ZL;ZS-ZC; YM-NQ; YM-ES; ES-NQ, на 10 и 20-ти минутках.

К-ты считали по OLS;границы в зависимости от режимов волатильности (по HMM). Шарпы 2-3 без использования режимов и 3-5 при использовании режимов.

Небольшой обзор фундаментальных моделей обменных курсов. В принципе не сильно подробно (без данных по результатам исследования моделей), но как общий обзор пойдет.

Анализ возможности предсказывать отчетность компаний и реакцию на нее с помощью постов твиттера. Собирали посты в даты [-10..-2] до квартальной отчетности, по хэштегам названия компаний или тикеры, чистили затем определяли значение поста следующим способом:

  •  прогоняли через  Байесов классификатор (OPI1);
  • определяли негативную окраску с использованием словаря Loughran and McDonald (OPI2);
  • определяли негативную окраску с использованием словаря Harvard IV-4 (OPI3);
  • использовали комбинацию OPI1-OPI3 (OPI4).

Дальше в общем-то определяли взаимосвязь с сюрпризом на отчетности (SUE) и экстра-доходность за [-1..+1] дни. Статистики везде значимые, с SUE: OPI1 t-statistic = 5.56; OPI2: t-statistic = 2.93, OPI3: t-statistic = 2.71; OPI4: t-statistic = 4.07. Для экстра доходности: OPI1 t-statistic =4.04; OPI2: t-statistic = 7.48, OPI3: t-statistic =6.92; OPI4: t-statistic = 9.09. По OPI4 то есть годовая доходность в принципе может быть получена в размере 10-15% аннуализированно. По OPI1 всего ~5-6%

Попытка усовершенствовать факторную модель Фамы-Френча. Предлогают использовать два стандартных фактора (оставили MKT,SMB) и новых UMO1 и UMO2. Эти факторы они считают следующим образом:

  • Набор из 11 аномалий (net stock issues, composite equity issues, accruals, net operating assets, asset growth, and investment to assets; the second cluster includes distress, O-score, momentum, gross profitability, and return on assets) делят на 2 группы: 1-я: net stock issues, composite equity issues, accruals, net operating assets, asset growth, and investment to assets, 2 -я : distress, O-score, momentum, gross profitability, and return on assets.
  • Для 1-го и 2-го кластера ранжируют акции
  • Берут верхнюю и нижнюю квантиль в кластере 1. Считают доходность попавших в них бумаг. И считают разницу доходности. Называют UMO1. Для UMO2 аналогично. 

Вроде как результаты получились лучше чем в имеющихся факторных моделя. Но интересно не это - перечни аномалий, которые используют для анализа. По ним в статье указаны месячные альфы. Ну и дан список еще 74 аномалий.

Исследуется влияние таких событий как IPO, SEO (сезонные выпуски акций), слияния и поглощения и начало выплат дивидендов. Анализировали 4-мя разными способами, на 5-летнем периоде соответственно IPO, SEO, MA дают негативную доходность, старт дивидендов - позитивную. Кроме того, интересно, что при IPO и SEO можно наблюдать 1-месячную превышающую рынок доходность, затем начинает накапливаться отставание. 

Статейка об оптимизации портфеля по доходу-волатильности. Берем большой портфель etf, на базе от 1 до 12 мес. определяем доходность и волатильность, далее оптимизируем портфель определяя веса между активами (в статье только лонг онли). Алгоритм есть в статье. И вроде как на вселенной из 39 етф получаем шарп 1, доходность15.4%.  Авторы назвали этот подход Classical Asset Allocation (CAA).

Анализ шорт интереса как предиктора доходности акций. Out-of-sample регрессия дала R2 1.94% при использовании для 1-го месяца и 13.24% для 12 месяцев. Другие интересные показатели дали R2:

  • DP -2.06% (1m); -26.39% (12m)
  • DY -2.2% (1m); -25.82% (12m)
  • NTIS -3.23% (1m); -27.82% (12m).

Кроме того, предложена стратегия инвестирования либо в безрисковый актив или в акции с учетом прогноза по short-interest. Хотя шарп и ничего (0.66 для 1 мес, 0.53 для 12 мес), но доходность низкая - 3-4%. По остальным предикторам еще хуже.

Анализ связи ассиметрии и дисперсии предсказаний аналитиков о прибыли компаний с будущей доходностью компаний. При анализе дисперсии акции каждый месяц сортировались на квантили, затем лонг-шорт портфель приносил 0.59% в месяц. Если сделать дополнительное ранжирование на квантили по ассиметрии, то лонг-шорт портфель (покупка акций в квантили наименьшей дисперсии и шорт для наибольшей дисперсии все это для акций с наибольшей отрицательной ассиметрией) давал 0.65%   

Стратегия торговли на получасовой доходности - если доходность первой и 12-й получасовки в одном направлении - торгуем последнюю получасовку. Результат в первоначальном варианте не очень - 6.67%, шарп 1.08. Немного лучше если дополнительно анализировать волатильность - если в первой получасове она в верхем терциле - доходность растет до 14.73%, а шарп до 1.63. Примерно то же влияние у повышенного объема  - в верхнем терциле доходность 11.87%, шарп 1.29

Исследование дополнительных фильтров, улучшающих парную торговлю. Сама базовая стратегия очень простая - формируем пары по секторам, считаем показатель sum((p1(t)/p1(1))-(p2(t)/p2(1))^2) за 250 дней. Полученные результаты ранжируем, торгуем если отклонение больше 2х сигм за 125 дней. Это все не очень интересно. Важнее другое, автор считает, что эффективнее принудительно закрывать торговлю после некоторого периода удержания - иначе вероятно отклонение носило обоснованный характер. Лучшие результаты получаются при лимите =25 дней. 

Кроме того, еще исследуется фильтр от объема - мерием объем по каждой бумаге за 250 дней, дальше если сейчас объем по одной превосходит средний на какой-то уровнень (к примеру  1стандартное отконение) - скорее всего есть шок в одной бумаге. Это не очень  хорошо - признак влияния локальной новости и т.п. А вот если объем растет в обеих бумагах (обоюдный шок) - отлично, есть шансы, что общее событие неверно оценено рынком. Вариант при 1 сигме обоюдного шока в тесте дает вдвое лучший результат, чем одинарный шок.

В статье анализируется, каким образом лучше торговать моментумные стратегии розничному инвестору. Базовая стратегия - считаем доходность в период с февраля по конец июля, затем формируем портфели из (1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 15, 20, 30, 40, 50) лучших акций (не кросс-сектионал). Держим год, считаем доходность. Сам подход ничем не необычен, кроме пожалуй анализа влияния количества акций на результаты. Интересны результаты по шарпу: 

К-во лучших 1 2 3 4 5 6 7 8 9 10 15 20 30 40 50
Доходность, % мес 1.15 2.68 2.94 2.95 3.04 3.04 3.07 3.06 2.91 2.82 2.54 2.36 2.28 2.2 2.13
Std 0.7 0.44 0.34 0.29 0.24 0.22 0.2 0.19 0.18 0.17 0.14 0.12 0.11 0.1 0.1
Sharpe 0.057 0.211 0.299 0.352 0.439 0.479 0.532 0.558 0.560 0.574 0.628 0.681 0.718 0.762 0.738

В принципе, таблица показывает, что с точки зрения шарпа оптимальный размер портфеля 30 бумаг.

Кроме того, еще в статье анализируются косты и как влияет количество перетрясок портфеля (раз в месяц., в квартал,  в полугодие, в год, в два года, три года) на доходность портфеля. Ну мелкие портфели (5000-30000 долларов) с большим количеством бумаг множественные перетряски прогнозируемо убивают. Лучшие результаты для таких портфелей - держать 8-10 акций с перетрясками раз в год или два.

Половину статьи рассказывается о VIX и VXSTOXX. Вторую половину - анализируется спред VIX-VXSTOXX. Вроде он даже по ADF получается стационарным на уровне значимости 6%, а по Филипс-Перону даже на 1%. Дальше анализируется спред VIX-VXSTOXX  и делается попытка торговать арбитраж между ними. Загоняют в GARCH модель сам спред, пытаются прогнозировать его изменение. Результат визуально не очень, численные данные не приведены. Впрочем период теста очень небольшой, только 2012 год.

В статье определяется новый предиктор - размер гэпа по моментуму - разница средней доходности 1-го и 10-го дециле по моментуму (t-12:t-2). Соответственно, чем выше эта разница - тем хуже работает моментум. В статье приведена стратегия: измеряем этот гэп в каждый из месяцев за 30 месяцев, далее входим в моментум (покупка 10-го дециле, продажа 1-го) если гэп ниже чем 5-й квинтиль за 30 месяцев. Результат мерился на дневках с 1926 по 2012, при простом моментуме шарп 0.52, с добавкой гэпности 0.79. В принципе неплохо. Месячная доходность 1.28%, в принципе с некоторыми ухищрениями (в статье) может составить и 2%.

Макроанализ более чем 200 аномалий, исследованных на фондовом рынке. Можно использовать как некоторый классификатор этих аномалий, они все приведены в статье со ссылками на работы. В статье делается вывод, что для определения достоверности t-статистики на уровне 2 недостаточно. Надо использовать минимум уровень 3. Кроме того, из 296 факторов 158 по Bonferonni могут быть признаны нерабочими, 142, по Holm, 132 по BHY (1%) и 80 по BHY (5%) 

Страницы