Trade or not to Trade?

Trade or not to Trade?

Eigentlich keine Frage, oder!

Es gibt bei mir immer wieder Trade Signale, welche sich für mich nicht „richtig“ anfühlen, andere wiederum werden förmlich herbeigesehnt.

Zum Beispiel der letzte Trade Long S&P500 fühlte sich sich aus meiner Sicht nicht „richtig“ an. Der Grund lag wahrscheinlich darin, dass noch eine Short-Position im EuroStoxx50 besteht.

Die typisch hohe Korrelation zwischen den beiden Indizes lässt vermuten, dass entweder dieser Trade nicht besonders gut funktionieren wird, oder der andere die Gewinne abgibt.

Es könnte jedoch auch sein, dass sich der amerikanische Aktienmarkt, zumindest zeitweise anders verhält als der europäische.

Als zweites „Indiz“ kann angeführt werden, dass am Montag der Handel im Minus startete. Das ist erstmal gut für eine Eröffnung einer Long-Position i.S. von Slippage, aber generell schlecht i. S. einer Trendfolgeposition. Prinzipiell nehme ich lieber etwas Slippage in Kauf, habe aber genügend Dynamik in die gehandelte Richtung.

Damit kommen wir zur Frage: Trade or not to trade?

Ohne länger nachzudenken, muss jedes Trade-Signal natürlich umgesetzt werden. Das System hat kein second guessing. Das System ist so wie es ist konzipiert und der Backtest beinhaltet sowohl die gefühlt „richtigen“ Trades als auch die gefühlt „falschen“ Trades.

Bei etwas längerem Nachdenken kann man die ganze Frage auch ganz logisch lösen bzw. sogar spirituell (dazu später).

Rein logisch gibt es 2 Input-Komponenten und 2 Output-Komponenten.

Input: 1. Trade und 2. No Trade

Das Grundprinzip von Trendfollowing ist:
Verluste begrenzen und Gewinne laufen lassen.

Wenn man diesen Grundsatz befolgt ergeben sich aus jedem Trade zwei mögliche Outputs:

Output: 1. Big-Win oder 2. Small-Loss

Geht man jetzt die Optionen durch, dann hat man im Fall von „No Trade“ keinen Verlust, aber auch keinen Gewinn – also Ergebnis EUR 0,0.

Die 2. Variante „Trade“ führt zu einem kleinen Verlust (xs-R Multiple) oder einem großen Gewinn (XXL-R Multiple).

Damit ist der Ergebnis-Vektor: (xs-R; 0; 0; XXL-R)

Die Darstellung als Diagramm:

Trade-or-not-Trade

Somit ist die Frage rein rational beantwortet. „Trade“ ist die einzige richtige Option, da dort der größte Profit aus allen möglichen Kombinationen zu erwarten ist.

In meinem Fall kann ich den Trade auch – bei Annahme einer hohen Korrelation der beiden Aktienmärkte – als ein Schließen der offenen Risiko-Position sehen, d.h. wenn die Aktienmärkte tatsächlich weiter steigen, bin ich mit dem SP500 Trade gehedged und verliere in der Summe kein Geld.

Sollten die Märkte sich trotzdem in unterschiedliche Richtung bewegen, dann hieße das ein Gewinn auf beiden Positionen.

Der Worst-Case bliebe, dass sich beide Trends umkehren, aber dann gilt die obige Logik: Big-Win vs. Small Loss.

Nun zum spirituellen Teil:

Hier sind die Überlegung als Pascals Wette bekannt.

Dabei wird der Glaube an Gott hinterfragt:

Glaube ich an Gott und er existiert wirklich, dann kommt man in den Himmel
Glaube ich an Gott und er existiert nicht, dann entsteht kein Gewinn, aber auch kein Verlust
Glaube ich nicht an Gott und er existiert auch nicht entsteht ebenfalls kein Verlust, aber auch kein Gewinn.
Glaube ich jedoch nicht an Gott, aber existiert, dann landet man in der Hölle (unendlicher Verlust)

Der Ergebnis-Vektor lautet also: (Hölle; 0 ; 0 ; Himmel).

Unterstellen wir mal, dass niemand freiwillig in die Hölle möchte – also das weitaus größere Risiko darstellt, dann folgt daraus, dass man besser an Gott glauben sollte.

Um es jetzt nicht vollständig esoterisch werden zu lassen, sei gesagt, dass dieses Logik-Beispiel natürlich auch schon oft wiederlegt bzw. kritisiert worden ist. Der Link zur Wikipedia gibt einige Hinweise, in welche Richtung sich die Kritik bewegt.

Ich wollte mit dem Beispiel niemanden zum Glauben bekehren, sondern nur zeigen, dass es das gleiche logische Grundprinzip wie die Frage: trade or not to trade verfolgt.

Übrigendes gibt es auch oft (genauso oft) Situationen, wo man Wochenlang auf einen Einstieg wartet. Ein Beispiel hierfür ist sicher die letzte Bewegung im JPY/USD. Der Short war schon einige Wochen vor dem eigentlichen Trade für mich (gefühlt) „richtig“. Aber auch hier werden natürlich nur Trades umgesetzt, welche als Signal vom getesteten System vorgegeben werden – auch wenn das manchmal meine Nerven beansprucht.

Denn hier ist die Lage genau andersherum:

Geht der Trade gut, dann hat man einen kleinen Vorteil gegenüber dem System, da das System den Trade ebenfalls irgendwann finden würde (wahrscheinlich 2-3 Wochen später). Entwickelt sich der Trade jedoch völlig in die andere Richtung, stehen wir plötzlich ohne klare Regeln da, den Trade einzufangen – sprich den Verlust zu begrenzen. Dann hat dieser Trade das Potential zu einem großen Verlust zu werden.

Ich kann mich noch gut erinnern, da erschien mir eine Long-Position im Rohstoff-ETF als „richtig“. Der Preis bewegte sich nach oben und war kurz davor die Trendlinie von unten zu durchstoßen. Ich erwartete, dass am Monatsende der Trigger erreicht ist und ich Long gehen konnte. Kurz vor dem Monatswechsel, drehte der Preis jedoch wieder und es kam zu keinem Signal des Systems. Zum Glück habe ich mich an meine Regeln gehalten und war noch nicht  investiert!

Im Buch „Reminiscences of a Stock Operator“, beschreibt der Autor auf Seite 57 ähnliche Erfahrungen unter dem Schlagwort: Sitting tight.

 

Also: Stay Calm – Trust Your System!

Wenn das System richtig konzipiert ist, dann wird es große Marktbewegungen immer erkennen. Wenn die Situation nur gefühlt „richtig“ ist, aber eben aus Sicht des Systems nicht objektiv, dann ist es eben noch zu früh zum handeln. Die Risiken mit diesem Trade schief zu liegen sind noch zu hoch, bzw. wurden nicht getestet. Im Fall von einem möglichen Stopp gilt das gleiche. Der Trade ist nach objektiven Gründen eben noch nicht beendet.

Bevor man der Spannung nachgibt, kann man die gefühlte Trade-Idee testen. Also die Programierung so anpassen, dass der aktuelle Trade in der gewünschten Richtung ausgeführt würde. Wenn man Glück hat, dann führt dies zu einer Verbesserung des Systems, in den meisten Fällen führt es meiner Erfahrung nach zu langfristig schlechteren, oder instabilen Ergebnissen.

Vorsicht ist geboten, wenn die aktuelle Situation nur sehr selten, bzw. nur 1 mal in der Historie vorkam. Dann ist davon auszugehen, dass dies kein systematisch handelbares Setup ist.

MAQS – Global Trend Following

Signale im wöchentlichen System:

  • keine

 

Eure Kommentare sind herzlich willkommen.

Risk Parity Kritik

Zur Vervollständigung des letzten Blogs, möchte ich nochmals auf das Risk-Parity Konzept eingehen. Natürlich ist dieses auch kein Allheilmittel und natürlich gibt es Marktphasen, in welchen andere Asset-Kombinationen besser funktionieren – aber a priori lässt sich m.E. die optimale Asset-Allokation nicht finden.

Die Turbulenzen führten zu hohen Ausschlägen bei allen Asset Klassen.

Mit der Rein-Raus-Politik von Ben Bernanke kam es zu deutlichen Verwerfungen am Kapitalmarkt. Auch Risk Parity kam aufgrund der hohen Gewichtung von Fixed Income Assets um hohe Drawdowns nicht herum.

Ist jetzt aber die generelle risiko-paritätische Gewichtung Schuld, oder liegen die Ursachen nicht wo anders?

Ein Pauschalurteil hilft sicher nicht weiter. Zuerst muss man mal sehen, wie die betroffenen Fonds strukturiert waren. Einige dieser Vehikel waren natürlich deutliche gehebelt d.h. haben versucht die etwas risikoärmere Risk-Parity-Strategie auf die Vollatilität von Aktien zu bringen um höhere Erträge zu erwirtschaften.

Zum anderen trafen die Entscheidungen der Zentralbank(en) viele unterschiedliche Assets in gleichem Maße und v.a. zum gleichen Zeitpunkt und führten damit zu steigenden Korrelationen der Assets untereinander.

Jede einigermaßen an MVO (Mean Variance Optimisation) ausgerichtete Strategie sollte mit einer derartigen Zunahme an Variuanz und Kovarianz Probleme gehabt haben.

Die als Vergleichsmaßstab herangezogenen 60/40 Portfolien (60% Aktien und 40% Renten) waren deutlich weniger von den Auswirkungen betroffen. Dies lag zum einen daran, dass die steigende Volatilität bei Aktien im Vergleich weniger stark stiegen und dass die gestiegene Korrelation ebenfalls eine untergeordnete Rolle spielt, da diese Portfolien zu >80% vom Aktienrisiko dominiert sind.

Ein 60/40 Portfolio, welches im angelsächsischen Raum oft Anwendung bei Pensionskassen etc. vorkommt, ist aus meiner Sicht nicht theoretisch fundiert. Es war in der Vergangenheit zufällig das Portfolio, welches den Renditeansprüchen der genannten Pensionskassen entsprach, aber aus Risiko-Ertrags-Gesichtspunkten war und ist dieses Portfolio nicht effizient.

Während man MVO-Portfolien noch die Schwächen der Theorie (Parameter etc.) vorwerfen kann so beginnt die Kritik an den 60/40 Portfolien m.E. schon vorher – es gibt einfach keine schlüssige Theorie.

Umso erstaunlicher finde ich es, dass die Akademische Welt bei Vorstellung Ihrer neuen Erkenntnisse diese Portfolio immer wieder als Referenz heranzieht.

Dabei wird dann natürlich jedes mal bewiesen, inwieweit eine Strategie dem 60/40-Portfolio überlegen ist.

Das ist auch nicht schwer!

Zurück zur Kritik an den Risk-Parity Portfolien:

Manchmal habe ich den Eindruck es geht in der Industrie darum die Dinge möglichst kompliziert zu machen. Es werden immer weitere Optimierungsschritte unternommen, bis die Probleme überbestimmt sind und wieder instabile Ecklösungen gefunden werden.

Ein Beispiel aus der Autoindustrie:

Die meisten heutigen Navigationssysteme sind mathematische Optimierungs- Idioten.

Es werden je nach Einstellung des Nutzers unter Berücksichtigung verschiedener Parameter Optimierungsmodelle hinsichtlich Weg und Zeit genutzt.

Leider sind die Parameter schon äußerst Fehleranfällig.

  1. Geschwindigkeiten pro km auf einem definierten Stück Straße gelten nur im Mittel
  2. Die Straßenverhältnisse können von saisonalen Mustern (im Winter kann es schneien oder stark regnen etc) beeinflusst sein
  3. Es können Tagesbaustellen auf der Strecke sein, welche zu Verzögerungen führen, ohne eine Staumeldung auszulösen
  4. Die Staumeldungen sind ungenau hinsichtlich Zeitpunkt und Länge
  5. Als letztes werden ggf. viele Navigationssysteme mit den gleichen oder sehr ähnlichen Parametern auf die gleiche Lösung kommen und damit das Ergebnis gleich wieder verfälschen, da deren „Korrelation“ nicht beachtet wird

Leider werden diese Ungenauigkeiten nur unzureichend berücksichtigt.

Wenn man sich ein Optimierungsproblem visualisieren möchte, kann man sich einen umgekehrten Kegel vorstellen – so wie ein Trichter. In den werden dann die Parameter oben rein gekippt und kräftig gerührt.

Durch die Schwerkraft wird die Mischung dann nach unten befördert. Die beste Mischung oder das optimale Ergebnis liegt immer genau am untersten Punkt.

Soweit so gut.

Da vielleicht nicht alle relevanten Parameter in den Trichter wandern, bzw. die darin befindlichen Parameter nicht in der richtigen Dosis vorhanden sind, sollte man sich von rein mathematischen Optimierungen verabschieden.

Diese These wird auch von Herrn Giegerenzer („Risiko„) gestützt. Sein Beispiel ist der Hund der den Frisbee fangen will. Diesem ist sicher zu unterstellen, dass er keine einzige mathematische Gleichung in seinem Leben gelöst hat und trotzdem den Frisbee fängt.

Na so was!

Können wir den Hund zur Streckennavigation einsetzen, oder einen Affen mit Dartpfeilen auf den Kursteil der Zeitung werfen lassen, um aussichtsreiche Investitionen zu  finden?

Die Frage dahinter ist letztlich: Gibt es ein Verfahren oder Prozess den wir verwenden können?

In meinem Bild mit dem Trichter / Kegel würde es schon reichen, wenn man den Trichter unten abschneidet. Damit vergrößert sich der Lösungsraum, der dann zwar auch aus mathematischer Sicht nicht optimale Lösungen erhält, aber eben immer noch gute.

Der Größe des abgeschnittene Bereichs steht in direktem Zusammenhang mit der Fehleranfälligkeit des Systems.

Bei Navigationsystemen findet in neueren Versionen schon ein Umdenken statt. Dem Nutzer werden Alternativrouten vorgeschlagen (unter Berücksichtigung des oben gesagten immer noch gute Lösungen). Damit fließen die Erfahrungen, Vorlieben des Fahrers bzw. eine Einschätzung über die Fehleranfälligkeit des Systems  in die Entscheidung mit ein.

Die nächste Generation wird dann wohl auch das Problem der Korrelationen z.b. über Rückmeldung von den Nutzern lösen (Schwarmintelligenz).

Also was nun? Funktioniert Risk-Parity oder nicht?

Für mich habe ich die Frage beantwortet. Ich nutze Risk-Parity, da weniger Parameter nötig sind als bei vielen anderen Optimierungen.

Mir ist auch bewusst, dass die Inputparameter ungenau sind und somit die optimale Lösung nur ein Zufallsergebnis darstellt.

Für mich ist Risk-Parity ein sehr pragmatischer Ansatz, welcher durch Theorie gestützt ist und einfach genug umzusetzen ist.

 

MAQS – Global Trend Following

Signale im wöchentlichen System:

  • Long S&P 500, SL: 1.986

 

Eure Kommentare sind herzlich willkommen.

MAQS & Risk-Parity

Zuerst ein Hinweis in eigener Sache

Seit dieser Woche, genau genommen seit 06.04.2016 habe ich die komplette Strategie in einem Wikifolio abgebildet.

Die Strategie habe ich MAQS getauft – MAQS steht für Multi-Asset-Quant-System.

Für den erfolgreichen Start bei Wikifolio benötigt es neben einer guten Performance auch ein paar Unterstützer.

Also! Bitte dort kurz kostenlos registrieren und als unverbindlicher Unterstützer eintragen.

Vielen Dank

 

Risk Parity

Risk Parity ist in den letzten Jahren zuerst zu enormer Prominenz aufgestiegen. Mit den Marktturbulenzen nach den Ankündigungen von Ben Bernanke – aus dem QE auszusteigen und darauf mitzuteilen, dass alles falsch verstanden wurde – kam die Strategie in die Kritik. Das Hin und Her der Zentralbanker sorgte für enorme Wellen bei allen Asset Klassen – allen voran natürlich bei Renten und führte zudem noch zu erhöhten Korrelationen.

Damit waren gerade die bei Renten relativ hoch investierten Risk Parity Konzepten von deutlichen Verlusten und Drawdowns betroffen.

Darauf hin witterten alle Kritiker Morgenluft und schlugen auf die Risk-Strategie ein. Vor allem wurden Vergleiche zu dem im amerikanischen  typischen 60/40 also 60 Aktien und 40 Renten gezogen.

Die ganze Diskussion wurde zum Glück von dem neuen Hot-Topic „Smart Beta“ verdrängt.

Da ich ein großer Verfechter der Risk Parity Philosophie bin, möchte ich im heutigen Blog nochmal eine Lanze dafür brechen. Meine Präferenz für die Strategie kommt aus den Kenntnissen über das Money Management der Trader. Somit lag mir schon vor dem Hype um Risk Parity was an dieser Philosophie.

Aber first things first

In den 50er Jahren wurde von Harry Markowitz die „moderne“ Portfolio Theorie geschaffen. Haupt-Input dieser Theorie, der Mean Variance Optimization (MVO) sind 3 Faktoren – Rendite, Volatilität (Risiko) und Korrelation bzw. die gesamte Kovarianzmatrix.

Für die Portfolio Rendite gilt das gewichtete Mittel der einzelnen Portfoliobausteine.

Im Fall von Aktien (A) und Renten (R):

(1) Portfolio-Return

x: Gewichtung, r: Ertrag

und für das Risiko gilt:

(2) Portfolio-Risiko

x: Gewichtung, s²: Risiko bzw. s: Kovarianz

Das große Problem der MVO waren immer die Schätzung der 3 Parameter. Meist wurden diese aus der Vergangenheit abgeleitet und führten zu hinreichend leidlichen Diskussionen unter den Marktteilnehmern, wer denn am besten schätzen kann.

Dabei wurden unzählige Verfahren entwickelt, die einzelnen Parameter möglichst genau zu schätzen. Rückblickend muss man natürlich feststellen, dass kein mathematisches Verfahren die Zukunft vorher sagen kann. Somit waren die Ansätze alle zum Scheitern verurteilt.

Was jedoch bei der Schätzung der Parameter deutlich machte, war der Unterschied in der Höhe der Schätzfehler. Insbesondere der vermeintlich einfachste Parameter, der Rendite war der am schwierigsten zu bestimmende. Die Schätzungen hatten den höchsten Impact auf die Modellierung und kleine Abweichungen führten zu deutlichen Unterschieden in der optimalen Allokation.

Harry Markowitz hatte seinerzeit die MVO nicht als Prognose geschaffen, sondern nur festgestellt, wie das optimale Portfolio in Kenntnis der Parameter aussehen müsste.

Das ist ein enormer Unterschied, aber so arbeitet die Finanzindustrie  – weitere Beispiele der kürzeren Vergangenheit sind sicher die ABS Krise und an aktuellen Rand sehen wir das Verhalten beim Thema Smart Beta.

OK. Was lernen wir daraus? Prognosen sind unsicher und verursachen problematische Portfolio Allokation.

Die bisherige Strategie im Portfolio Management waren Bandbreiten als min und max. Abweichungen von der Benchmark. Das machte zwar große Abweichungen unmöglich, führte aber zu sogenannten Ecklösungen, welche von Optimalität meilenweit entfernt waren.

Wenn die Rendite ein großes Problem ist, aber Risiko und Kovarianz einigermaßen gut aus der Historie abgeleitet werden können, dann sollte man die Prognose für die Rendite lieber sein lassen.

Rein logisch kann man sicher begründen, dass mehr Rendite mit mehr Risiko einhergeht. Also auch andersherum für ein höheres Risiko wird eine höhere Rendite erwartet.

Wenn der Markt diesem Zusammenhang folgt, dann steht das Marktportfolio schon fest. Über ein reverse Engenieering lassen sich aus diesem Marktportfolio Markterwartungen ableiten:

(3) Risikoprämie

Das bedeutet: Die Risikoprämie einer einzelnen Portfolio Komponente ergibt sich aus der Kovarianz und den Gewichten der anderen Komponenten multipliziert mit einem Faktor T. Damit das ganze funktioniert, muss man ein Wert für T so kalibrieren, damit eine sinnvolle Risikoprämie z.b. für den Aktienmarkt = 3% entsteht.

Wenn das Verhältnis zwischen Rendite und Risiko (allgemein als Sharpe-Ratio bezeichnet) in the long run über alle Asset Klassen konstant ist, dann ergeben sich gleiche Risikobeiträge.

Gleich Sharpe-Ratios entstehen durch ständige Arbitrage-Geschäfte. Klingt erst mal ganz einfach, hat jedoch auch so ein paar Probleme:

Gibt es sicher auch Asset Klassen, welche nicht täglich gehandelt werden, bzw. es keinen liquidien Markt gibt, an dem Marktwerte bzw. Risiken ablesbar sind.

Es gibt sogar Asset Klassen z.B. Human-Kapital, welche nicht einfach zu greifen sind.

Gibt es Marktteilnehmer, welche nicht so sehr auf das Verhältnis von Rendite und Risiko schauen – z.B. Zentralbanken haben meist andere Ziele mit ihren Aktivitäten auf dem Kapitalmarkt.

Gehen wir davon aus, dass diese oben genannten Ungenauigkeiten einigermaßen vernachlässigbar sind, dann können wir dieses Marktportfolio bestimmen.

Aufbauend von dieser Logik, lassen sich optimale Portfolien aus dem Risiko und der Kovarianz-Matrix ableiten. Diese Konzept würden wir als Equal-Risk-Contribution bezeichnen.

Soweit so gut. Das Prinzip dahinter: Allokiere verschiedene Assets so, dass diese einen gleichen Risikobeitrag unter der Berücksichtigung Ihrer Paarweisen-Korrealation zum Gesamtportfolio leisten.

Für die optimale ex-ante Allokation benötigt der Portfoliomanager „nur“ das Risiko der einzelnen Portfolio-Komponente, sowie die Kovarianz oder Korrelation der verschiedenen Komponenten untereinander.

Es geht noch einfacher!

Die Schätzung der Kovarianz ist natürlich auch nicht ohne und weniger stabil über kurze Zeiträume als angenommen. Das hat übrigens schon Harry Markowitz erkannt. Zum Glück gibt es hierzu ebenfalls schon akademische Studien (Honey I shrunk the Covariance Matrix), welche zeigen, das der Schätzfehler die Nachteile einer einfachen sogenannten Constant Correlation Matrix übersteigt.

Mit dieser Erkenntnis landen wir bei einem sehr einfachen Zusammenhang oder Regel:

Gewichte alle Komponenten des Portfolios mit der inversen Volatilität. Damit lässt sich, unter der Annahme, dass die paarweisen Korrelationen im großen und ganzen sehr ähnlich sind ein effizientes Portfolio erstellen.

Warum verzichten wir dann nicht auch noch auf die Schätzung der letzten verbliebenen Komponente Risiko?

Das kann man machen und wird sogar gemacht. Dann spricht man von Equal Weight Portfolien oder 1/N bzw. naiver Allokation.

Diese Art von Allokation wird in der akademischen Welt gern als Benchmark benutzt, um verschiedene Konzepte zu testen bzw. deren Überlegenheit zu demonstrieren.

Dem Ansatz kann ich persönlich sehr viel abgewinnen, denn bei relativ homogenen individuellen Risiken der einzelnen Portfolio-Komponenten ist auch dieser Ansatz ein optimaler.

Equal Weight funktioniert also bei homogenen Risiken (Risk Parity funktioniert bei homogenen Kovarianzen). Damit disqualifiziert sich der Ansatz bei stark unterschiedlichen Volatilitäten, wie bei Multi-Asset Portfolien zu beobachten.

Die von mir genutzten Asset-Klassen oder Strategien haben z.T. deutlich unterschiedliche Volatilitäten. Währungen und Renten sind weniger volatil als Aktien und diese wiederum weniger volatil als Rohstoffe.

Damit jedoch die Diversifikations-Eigenschaften (die Korrelation ist zwar konstant, aber nicht = 1) voll zum tragen kommen, muss die Gewichtung im Risk Parity Stil (1/Risiko) erfolgen. Die Schätzung für das Risiko wird gewöhnlich aus der eigenen Historie abgeleitet. Als gutes Maß haben sich Zeiträume von 3 besser noch 5 Jahren gezeigt.

Vielleicht noch ein Wort zu den Überlegungen des Marktportolios. Wenn man konsequent die Kapitalmarkt-Theorie anwendet, stellt man fest, das dieses Portfolio das Tangential-Portfolio darstellt. Somit gibt es nur ein Mean-Variance optimales Portfolio.

Jeder Marktteilnehmer sollte dann eben auch genau in dieses Portfolio investieren.

Benötigt er weniger Risiko, dann mischt der konservative Investor einen größeren Teil risikolose Anlagen hinzu. Benötigt er mehr Risiko (und damit auch mehr Rendite), dann greift er zur Kreditaufnahme –  letztlich alles eine Frage des Leverages.

Das Levrage per se nicht so riskant ist wie man allgemein denkt, zeigt sich hier erneut. Warum sollte man in ein weniger effizientes Portfolio investieren, wenn durch eine simple Kreditaufnahme, der gleiche Ertrag mit weniger Risiko erzielt werden kann?

 

MAQS – Global Trend Following

Signale im wöchentlichen System:

  • keine

 

Eure Kommentare sind herzlich willkommen.

Monte Carlo zum II, DAX Analyse

In der Analyse der Monte-Carlo-Analyse zum wöchentlichen Handelssystem war ich überrascht, wie einerseits stabil die Ergebnisse auf die Parameter reagierten aber der Minimalwert nach 160 Trades gerade noch profitabel war. Mit leicht anderen Abschlägen (z.B. 0,10R) statt 0,05R für Handelskosten incl. Slippage kann der Minimalwert auch unter der Nulllinie liegen.

Nach dieser Ernüchterung, habe ich erstens überlegt, dass dies ein normaler Wert sein muss, solange die Wahrscheinlichkeit besteht einen Verlust zu machen, denn selbst 160x hintereinander ist ein Verlust möglich! Dies würde den Endwert dann auf jeden Fall ins Minus drücken.

Das andere war, dass sich mir die Frage nach der Alternative stellte. Zum Beispiel könnte ich untersuchen, wie ein Buy-and-Hold Ansatz simuliert aussieht.

Damit stand das Test-Setup für den heutigen Blog.

Ich generiere eine Verteilung der monatlichen Dax Renditen über die letzten x Jahre und ziehe aus der Verteilung 108 Renditen. Diese werden zu einem Index verknüpft um daraus eine Performance von 9 Jahre (9 x 12 Monate) zu generieren.

Dann wiederholen wir das a la Monte-Carlo-Simulation 5.000 mal und schauen auf die Ergebnisse.

Ralph Vince verfolgt mit seinem Leverage Space Modell eine ähnliche Strategie und ist damit Grundlage meiner Überlegungen zur Portfolio-Konstruktion. Ralph bezieht seine Untersuchungen auf ganze Portfolien, um die optimale Gewichtung der einzelnen Komponenten zu ermitteln.

Also wenn man z.B. den Dax mit einem Rentenindex kombiniert, dann hat man 2x 9 Jahre Monatsrenditen und damit die Verteilung der beiden Strategien bzw. in diesem Fall Asset Klassen.

Daraus werden dann wieder in der gewählten Gewichtung Renditen gezogen, um die Performance des gesamten Portfolios zu ermitteln. (Themenspeicher)

Die Wahl des optimalen Mix ist somit vergleichbar mit der Frage nach der richtigen Positionsgröße. Leider wird das ganze mit zunehmender Anzahl an Komponenten im Portfolio relativ komplex und verlangt dann doch nach einer analythischen Lösung a la Leverage Space Modell.

Zurück zur Analyse der Dax-Monatsrenditen.

Für meine Analyse habe ich die Dax Monatsrenditen zurück bis Anfang 1980 untersucht.

In diesem Zeitraum lagen große Bewegungen (1987, 1998, 2000, 2007 etc.). Damit waren Bullen- und Bären-Markt-Phasen vorhanden und das Renditespektrum auch dementsprechend breit. Handelskosten bleiben unberücksichtigt – diese spielen im Buy-and-Hold Fall keine wesentliche Rolle, da diese nur am Anfang anfallen.

Im Mittel hat der Dax ca. 70bp pro Monat zugelegt d.h. ca. 8,6% p.a. Die Standardabweichung lag bei ca. 21% und der tiefste Drawdown bei -68%.

Zuerst ein Blick auf die historischen Monatsrenditen des Dax seit 01/1980 bis 03/2016.

 

DAX_Monatsrenditen
Historische Dax-Monatsrenditen, Quelle: Bloomberg, eigene Berechnungen

Die Ergebnisse der Monte-Carlo-Simulation zeigen einen mittleren Ertrag der Verkettung von 9,25% (Median: 9,10%). Als Maximalwert wird ca. 40% beobachtet und als Minimum -16,4%.

Scary?!

Während der Mittelwert schon deutlich hinter dem Trendfolge-Modell zurück bleibt und auf ähnlichem Niveau wie die tatsächliche Historie liegt, ist der minimal mögliche Wert deutlich unter der Nulllinie und beweist einmal mehr, warum Buy-and-Hold keine geeignete Strategie langfristig ist.

Die Equity-Line sieht entsprechend aus:

DAX_Monte-Carlo-Simulation
Monte-Carlo-Simulation: (Dax) Verlauf: Min-Median-Max

Die Verteilung der Simulierten-Renditen sieht sehr nach Normal-Verteilung aus:

DAX_Monte-Carlo-Retrun_Distribution
Monte-Carlo-Simulation: (Dax) Ertragsverteilung

Median und Mittelwert liegen sehr nahe beieinander. Allerdings wird durch die Monte-Carlo-Simulation immer (Gesetz der großen Zahlen) eine Normal-Verteilung entstehen.

Ein Blick auf die Ertragsverteilung zeigt, dass die Verteilung deutlich mehr Extremwerte aufweist als im Fall des Trendfolge-Portfolio.

Das Risiko ist ebenfalls in allen Ausprägungen deutlich erhöht. So liegt der Mittelwert bei ca. 20%. Das Minimum liegt bei ca. 19% und der Maximalwert bei deutlichen 36% – alle höher als bei der Verteilung der Renditen in der Trendfolge-Strategie.

DAX_Monte-Carlo-Risk_Distribution
Monte-Carlo-Simulation: (Dax) Risikoverteilung

Der für mich immer wichtigste Parameter ist natürlich der Drawdown. Wie oben schon beschrieben lag dieser in der Vergangenheit bei ca. 68%. Die Monte-Carlo-Simulation zeigt jedoch was prinzipiell möglich ist und erreicht einen Wert von -87% (Mittelwert: 34%).

DAX_Monte-Carlo-DD_Distribution
Monte-Carlo-Simulation: (Dax) Drawdown-Verteilung

Da habe ich mich vor den 28% DD der Trendfolge-Strategie noch erschreckt. Die fast 90% DD der Buy-and-Hold Strategie sollten jedem Investor klar machen, auf was er sich einlässt. Ein solcher Drawdown führt m.E. zu einer Abkehr von der Strategie – also zum Verkauf nahe den Tiefpunkten. Die anschließende Aufwärtsbewegung wird dann meist verpasst, was die schon magere Rendite von 9% noch weiter nach unten drücken sollte.

Wenn ich nicht schwimmen kann, nützt es eben nicht viel, wenn  der Fluss im Mittel nur 1 Meter tief ist. An der tiefsten Stelle, könnte ich ertrinken.

Signale des wöchentlichen Handelssystems:

keine

 

Eure Kommentare sind herzlich willkommen.