Friday, November 18, 2016

Quant - At-Risk

GARCH (p, q) Modell und Exit-Strategie für die Intraday Algorithmic Trader Prognose zukünftiger war schon immer ein Teil der menschlichen ungezähmten Fähigkeit, besitzen. In einer angenehmen Hollywood Produktion von Next Nicolas Cage spielt einen Charakter Frank Cadillac hat eine Fähigkeit, die Zukunft nur bis zu ein paar Minuten früher zu sehen. Dies erlaubt ihm, fast sofortige Maßnahmen, um die Risiken zu vermeiden. Jetzt, nur für einen Moment vorstellen, dass Sie eine (algorithmischen) Intraday-Trader sind. Was würden Sie für einen Blick zu wissen, was los ist in folgenden paar Minuten geschehen anbieten? Welche Art von Risiko würden Sie unternehmen? Ist es wirklich möglich, um den nächsten Schritt auf Ihrem Trading-Schachbrett ableiten? Wahrscheinlich die beste Antwort auf diese Frage ist: ist es teilweise möglich ist. Warum dann teilweise? Nun, auch mit Hilfe von Mathematik und Statistik, offensichtlich Gott wollte nicht mit uns, um zukünftige, indem er seine Fingerabdrücke in unseren Gleichungen und nannte es eine Zufallsvariable kennen. Smart, nicht wahr? Daher ist es unser Ziel, härter zu arbeiten, zu erraten, was als nächstes passiert !? In diesem Beitrag werde ich kurz beschreiben, eine der beliebtesten Methoden der Prognose zukünftiger Volatilität der Finanzzeitreihen Einsatz eines GARCH-Modell. Als nächstes werde ich die Verwendung von 5-min Intraday-Bestandsdaten der Nähe Preise machen, um zu zeigen, wie man mögliche Bestandswert in der nächsten 5 Minuten schließen mit aktuellen Volatilitätsniveaus im Intraday-Handel. Letztlich werde ich eine Exit-Strategie aus einer Handels basierend auf prognostizierten schlimmsten Fall zu diskutieren (Aktienkurs wird prognostiziert, die davon ausgegangen, Stop-Loss-Niveau überschreiten). Aber zuerst, lässt Aufwärmen mit einigen niedlichen Gleichungen können wir nicht leben. Ableiten Volatilität Erfassung und Verdauen Volatilität ist irgendwie wie eine Kunst, die nicht versucht, externe, erkennbare Realität dar, sondern versucht, seine Wirkung mit Formen, Formen, Farben und Texturen zu erreichen. Die Grundidee wir beschreiben wollen, ist eine Volatilität $ \ $ sigma_t einer Zufallsvariablen (RV) von zB ein Vermögenswert Preis, am Tag $ t $ wie am Ende des Vortages $ t-1 $ geschätzt. Wie es in den meisten einfachste Weg, zu tun? Es ist einfach. Zunächst lässt vermuten, dass eine logarithmische Änderungsrate der Preise für Vermögenswerte zwischen zwei Zeitschritte ist: $$ Was entspricht der Rendite in Prozent wie $ R_ = 100 ausgedrückt [\ exp (r_) -1] $, und wir werden mit dieser Transformation in der gesamten Rest des Textes. Diese Schreibweise lässt uns mit einem Zeitfenster, um $ r_t $ als Innovation auf die Rendite unter der Bedingung, dass wir in der Lage sind, irgendwie zu bezeichnen, zu folgern, schließen, und prognostizieren einen zukünftigen Vermögens Preis von $ P_t $. Unter Verwendung der klassischen Definition einer Stichprobenvarianz, wir dürfen sie sich wie zu schreiben: \ sigma_t ^ 2 = \ frac \ sum_ ^ (r_ - \ langle r \ rangle) ^ 2 $$ Was unsere Prognose der Veränderungsgeschwindigkeit im nächsten Zeitschritt $ t $, basierend auf vergangenen $ m $ Datenpunkte und $ \ langle r \ rangle = m ^ \ sum_ ^ r_ $ ist eine Stichprobenmittelwert. Nun, wenn wir untersuchen, Rückgabe Serie, die jede 1 Tag abgetastet wird, oder eine Stunde oder eine Minute, ist es wert zu bemerken, dass $ \ langle r \ rangle $ ist sehr klein im Vergleich mit der Standardabweichung der Änderungen. Diese Beobachtung drängt uns ein bisschen weiter in Umschreiben der Schätzung von $ \ sigma_t $ als: \ sigma_t ^ 2 = \ frac \ sum_ ^ r_ ^ 2 $$ Wobei $ m-1 $ mit $ m $, indem ein zusätzliches Maß an Freiheit (entspricht einem Maximum-Likelihood-Schätzung) ersetzt worden. Was ist hervorragend wichtig zu dieser Formel ist die Tatsache, dass es gibt eine Gleichgewichtung der Einheit um jeden Wert von $ r_ $, wie wir können immer vorstellen, dass Menge, multipliziert mit einem. Aber in der Praxis, können wir einen kleinen Wunsch, einige Gewichte $ assoziieren haben \ alpha_i $ wie folgt: \ sigma_t ^ 2 = \ sum_ ^ \ alpha_i r_ ^ 2 $$ Wobei $ \ sum_ ^ \ alpha_i = 1 $, was einen Faktor von $ m ^ $ im vorherigen Formel ersetzt. Wenn Sie für eine Sekunde über die Idee der $ \ alpha $ s zu denken ist ziemlich einfach zu verstehen, dass jede Beobachtung von $ r_ $ hat einige wesentlichen Beitrag zum Gesamtwert von $ \ sigma_t ^ 2 $. Insbesondere, wenn wir wählen $ \ alpha_i j $, jeden letzten Beobachtung aus der aktuellsten Zeit von $ t-1 $ trägt immer weniger. Im Jahr 1982 R. Engle vorgeschlagen, eine winzige Verlängerung des diskutierten Formel, in Form von AutoRegressive bedingte Heteroskedastizität ARCH ($ m $) Modell abgeschlossen: \ sigma_t ^ 2 = \ omega + \ sum_ ^ \ alpha_i r_ ^ 2 $$ Wobei $ \ omega $ ist der gewichtete langfristige Varianz nimmt seine Position mit einem Gewicht von $ \ gamma $, etwa $ \ omega = \ gamma V $ und jetzt $ \ gamma + \ sum_ ^ \ alpha_i = 1 $. Was der ARCH-Modell ermöglicht die Schätzung von künftigen Volatilität $ \ sigma_t $ unter Berücksichtigung nur Vergangenheit $ m $ gewichtete Rendite $ \ alpha_i r_ $ und zusätzliche Parameter $ \ omega $. In der Praxis zielen wir auf der Suche nach Gewichten von $ \ alpha_i $ und $ \ gamma $ mit Maximum-Likelihood-Methode zur gegebenen Rück Reihe von $ \ $. Dieser Ansatz, der in der Regel erfordert ungefähr $ m> 3 $, um effizient zu beschreiben $ \ sigma_t ^ 2 $. So entsteht die Frage: können wir tun, viel besser? Und die Antwort ist: natürlich. Vier Jahre später, im Jahr 1986, trat ein neuer Spieler den Ring. Sein Name war Mr T (Bollerslev) und er buchstäblich zermalmt Engle in der zweiten Runde mit einer Innovation der Generalized AutoRegressive bedingte Heteroskedastizität GARCH ($ p, q $) Artikelnummer: \ sigma_t ^ 2 = \ omega + \ sum_ ^ \ alpha_i r_ ^ 2 + \ sum_ ^ \ beta_j \ sigma_ ^ 2 $$, Die auf Basis von $ p $ Rückblick von $ r ^ 2 $ und $ q $ jüngsten Schätzungen der Varianz Rate ihrer $ \ sigma_t ^ 2 $ leitet. Die abgeleitete Rückkehr ist dann gleich $ r_t = \ sigma_t \ epsilon_t $ wobei $ \ epsilon_t \ sim N (0,1) $, was lassen Sie uns mit einem ziemlich blass und verzog das Gesicht, als wir wissen, was in der Praxis, das wirklich bedeutet! A eine Art von Vereinfachung Treffen eine große Applaus in finanziellen Streit liefert die Lösung von GARCH (1,1) - Modell: \ sigma_t ^ 2 = \ omega + \ alpha r_ ^ 2 + \ beta \ sigma_ ^ 2 $$, Was deren Wert ausschließlich auf die jüngste Aktualisierung der $ r $ und $ \ sigma $ basierend leitet. Wenn wir für einen kürzeren, während denke, GARCH (1,1) sollte uns mit einem guten Geschmack des prognostizierten Volatilität zu liefern, wenn die Reihe der letzten paar Renditen waren ähnlich, aber ihre Schwäche entsteht in den Momenten der plötzliche Sprünge (Schocks) im Preis ändert, was bewirkt, zu hoch angesetzten Volatilität Vorhersagen. Nun, das ist kein Modell perfekt. Ähnlich wie im Fall der ARCH-Modell, für GARCH (1,1) können wir die Maximum-Likelihood-Methode verwenden, um die besten Schätzungen der $ \ alpha $ und $ \ beta $ Parameter führt uns auf eine langfristige Volatilität $ find [\ Omega / (1- \ alpha \ beta)] ^ $. Es wird normalerweise in den iterativen Prozess der Suche nach dem Höchstwert der Summe aller Summen berechnet werden, wie folgt erreicht: \ sum_ ^ \ left [- \ ln (\ sigma_i) \ frac \ right] $$ Wo $ N $ bezeichnet die Länge der Rückserie $ \ $ ($ j = 2, N $) für uns zur Verfügung. Es gibt spezielle dedizierte Algorithmen dafür, dass und wie wir später sehen werden, werden wir Gebrauch von einer von ihnen in Matlab zu machen. Für die restliche Diskussion über Prüfungsverfahren der GARCH-Modell als Werkzeug, um die Volatilität in der Rücklaufzeitreihen zu erklären, Vor-und Nachteile, und andere Vergleiche der GARCH zu anderen ARCH-Derivate Ich verweise Sie auf die unsterbliche und berüchtigt Quants Bibel von John Hull und mehr in die Tiefe Lehrbuch von einem Finanzzeitreihen Vorbild Ruey Tsay. Die Vorhersage der Unberechenbare Das Konzept der Vorhersage der nächste Schritt in der Vermögenspreise auf Basis von GARCH-Modell scheint spannend und aufregend sein. Die einzige Sorge wir haben und wie es wurde bereits von uns anerkannt, ist die Tatsache, dass die prognostizierten Rückgabewert $ r_t = \ sigma_t \ epsilon_t $ mit $ \ epsilon_t $ zu werden ein rv aus einer Normalverteilung von $ gezeichnet N (0,1) $. Das bedeutet, $ r_t $ ein rv wie $ r_t \ sim N (0, \ sigma_t) $ sein. Dieses Modell dürfen wir weiter auf einem attraktiven Form zu verlängern: r_t = \ mu + \ sigma_t \ epsilon_t \ \ \ \ sim N (\ mu, \ sigma_t) $$ Wo von $ \ mu $ werden wir ein einfaches Mittel über die vergangenen $ k $ Datenpunkte zu verstehen: \ mu = k ^ \ sum_ ^ r_ \. Gap-on-Öffnen Profitable Trading-Strategie Nach einer längeren Zeit, ist QuantAtRisk zurück zum Geschäft. Als algo Händlers Ich habe immer versucht, eine Lücke gegenüber dem offenen Handelsstrategie zu testen. Es gab verschiedene Gründe, die hinter ihm, aber der bekannteste war immer omni-diskutiert: gute / schlechte Nachrichten auf dem Lager. Und was? Der Aktienkurs schnellte / fiel an den folgenden Tagen. Wenn wir nähern solchen Kursmuster, die wir über Trigger oder ausgelösten Ereignisse zu sprechen. Der Kern des Algorithmen-Aktivität ist der Auslöser Identifikation und nehmen angemessene Maßnahmen: zu gehen lang oder kurz. Das ist es. In beiden Fällen wollen wir Geld zu verdienen. In diesem Beitrag werden wir die Anfangsbedingungen für unsere Lücke-on-offenen Handelsstrategie, die als Auslöser zu entwerfen, und wir werden ein realistisches Szenario der Wetten unser Geld für die betreffenden Bestände, die höher auf der nächsten Handelstag eröffnete Backtest. Unser Ziel ist es, die optimale Haltedauer für solche Trades mit Gewinn geschlossen zu finden. Unsere Strategie kann rückgetesteten werden mit jeder $ N $ - Asset Portfolio. Hier wird der Einfachheit halber wollen wir verwenden eine zufällige Teilmenge von 10 Aktien (portfolio. lst) ein Teil eines aktuellen Dow Jones Index: Applied Portfolio-Optimierung mit Risk Management mit Matlab Das eBook stellt die Ins und Outs der Portfolio-Optimierung Problem in der Praxis. Es beschreibt detailliert die wesentlichen theoretischen Grundlagen, die hinter der Suche nach einer optimalen Lösung für jede Vermögensportfolio. Es beinhaltet umfangreiche MATLAB-Codes bereit, erneut ausgeführt und gelten als Teil des Asset-Allocation-Strategie. Das eBook beschreibt die Fallstricke und allgemein unterschätzt Konzepte der Risiko in den Anlageprozess. Geschrieben in einem äußerst kompakten, aber hervorragend effiziente Weise. Konzipiert als ready-to-use praktische Ratgeber für quantitative Analysten, Finanzinvestoren und algorithmischen Handel. 1st Edition. QuantAtRisk Unterschrift Qualität. 350 + Zeilen MATLAB-Code enthalten. Was werden Sie in der E-Book zu finden. Einfachheit der Komplexität, Ätherische Matlab, Annäherung an die Ziel Portfolio im Bau Hong Kong 6.32 (eine Einführung in Asset-Trading-Konzept), Finanzzeitreihen (Definitionen, Web-Zugriff, das Herunterladen, Pre-Processing), Analyse des Return-Series (wesentliche Datenverarbeitung), 2-Asset-Portfolios (modernen Portfoliotheorie , portfoliobezogene Maßnahmen), Efficient Frontier für 2-Asset Portfolio (Theorie und Auswirkungen der Korrelation zwischen Vermögenswerten), die Einschätzung der Efficient Frontier für N-Asset Portfolio (Implementierung Portfolio Objektbau) Optimierung unter Risiko New York City 9.06 (30-Asset-Portfolio in der Praxis, Risiko und Rendite, historische Auswirkung der Eingangsdaten, Aspekte der Portfolio-Auswahl), Risiko und Ertrag für die N-Asset Portfolio (Algebra, MATLAB-Codes in Aktion), Optimierung Problemformulierung, Standard-Optimierung Problem, Portfolioallokation Problem am Arbeitsplatz (Auswahl der Ziel, Optimierungsprozess, dem Risiko oder Rückkehr?), Portfolio-Optimierung mit Risiko im Griff (Verständnis von Risikomanagement in Live-Anwendungen) Erste Kundenreferenzen Wie üblich Pawel übertrifft die Erwartungen mit dem Form und Inhalt. Ich fand dieses ebook sehr handlich und Matlab-Code ist sehr gut geschrieben. Jim Reynolds, NYC Ich wurde von einer geringen Anzahl von Seiten überrascht, aber enorm durch den Gehalt belohnt! MATLAB-Code ist einfach großartig! Im großer Fan von Pawel Website und seine erste ebook erstreckt sich seine Glaubwürdigkeit als ein Quant mit tiefes Verständnis für finanzielle Probleme. Ricardo de Ferri, Rio de Janeiro Ich bin derzeit Studium für meine CFA Level 2, in dem die meisten Konzepte sind in Ihrem Buch nicht behandelt, wie gut und daher ist es leicht, sie zu beziehen. Rebinning Tick-Daten für FX Algo Trader Wenn Sie arbeiten oder beabsichtigen, mit FX Daten, um zu bauen und Backtest Ihre eigenen FX-Modelle arbeiten, ist die historische Tick-Daten von Pepper wahrscheinlich der beste Ort zum Auftakt Ihrer algorithmischen Erlebnis. Was jetzt bieten sie tick-Datensätze von 15 am meisten gehandelten Währungspaare seit Mai 2009 Einige der entpackt Dateien (eine Monatsdaten) zu erreichen über 400 MB groß, dh die Speicherung 8.5+ Millionen von Zeilen mit einem Häkchen Auflösung sowohl Geld - und Briefkurse. Eine gute Sache ist, Sie können sie alle kostenlos herunterladen und deren Qualität wird als sehr hoch angesehen. Eine schlechte Sache ist, gibt es 3 Monate Verzögerung bei der Datenverfügbarkeit. Der Umgang mit einem Rebinning Prozess der tick-Daten up, das ist eine andere Geschichte und das Thema von diesem Post. Wir werden sehen, wie effizient Sie Pepperstones Tick-Daten (e) in 5-Minuten-Zeitreihe als Beispiel drehen. Wir machen Gebrauch von Scripting in bash (Linux / OS X) mit der Datenverarbeitung in Python ergänzt. Sie können Pepperstones historischen Tick-Daten von hier herunterladen. Monat für Monat, paarweise. Ihre innere Struktur folgt dem gleichen Muster, und zwar: Die Säulen, von links nach rechts, stellen jeweils: ein Paar Namen, das Datum und die Tick-Zeit, den Angebotspreis und der Briefkurs. Lets play mit AUDUSD-2014-09.csv Datendatei. Die Arbeit in der gleichen Verzeichnis, in dem sich die Datei befindet wir beginnen mit dem Schreiben ein Bash-Skript (pp. scr), die enthält:


No comments:

Post a Comment