Risk Parity Kritik

Zur Vervollständigung des letzten Blogs, möchte ich nochmals auf das Risk-Parity Konzept eingehen. Natürlich ist dieses auch kein Allheilmittel und natürlich gibt es Marktphasen, in welchen andere Asset-Kombinationen besser funktionieren – aber a priori lässt sich m.E. die optimale Asset-Allokation nicht finden.

Die Turbulenzen führten zu hohen Ausschlägen bei allen Asset Klassen.

Mit der Rein-Raus-Politik von Ben Bernanke kam es zu deutlichen Verwerfungen am Kapitalmarkt. Auch Risk Parity kam aufgrund der hohen Gewichtung von Fixed Income Assets um hohe Drawdowns nicht herum.

Ist jetzt aber die generelle risiko-paritätische Gewichtung Schuld, oder liegen die Ursachen nicht wo anders?

Ein Pauschalurteil hilft sicher nicht weiter. Zuerst muss man mal sehen, wie die betroffenen Fonds strukturiert waren. Einige dieser Vehikel waren natürlich deutliche gehebelt d.h. haben versucht die etwas risikoärmere Risk-Parity-Strategie auf die Vollatilität von Aktien zu bringen um höhere Erträge zu erwirtschaften.

Zum anderen trafen die Entscheidungen der Zentralbank(en) viele unterschiedliche Assets in gleichem Maße und v.a. zum gleichen Zeitpunkt und führten damit zu steigenden Korrelationen der Assets untereinander.

Jede einigermaßen an MVO (Mean Variance Optimisation) ausgerichtete Strategie sollte mit einer derartigen Zunahme an Variuanz und Kovarianz Probleme gehabt haben.

Die als Vergleichsmaßstab herangezogenen 60/40 Portfolien (60% Aktien und 40% Renten) waren deutlich weniger von den Auswirkungen betroffen. Dies lag zum einen daran, dass die steigende Volatilität bei Aktien im Vergleich weniger stark stiegen und dass die gestiegene Korrelation ebenfalls eine untergeordnete Rolle spielt, da diese Portfolien zu >80% vom Aktienrisiko dominiert sind.

Ein 60/40 Portfolio, welches im angelsächsischen Raum oft Anwendung bei Pensionskassen etc. vorkommt, ist aus meiner Sicht nicht theoretisch fundiert. Es war in der Vergangenheit zufällig das Portfolio, welches den Renditeansprüchen der genannten Pensionskassen entsprach, aber aus Risiko-Ertrags-Gesichtspunkten war und ist dieses Portfolio nicht effizient.

Während man MVO-Portfolien noch die Schwächen der Theorie (Parameter etc.) vorwerfen kann so beginnt die Kritik an den 60/40 Portfolien m.E. schon vorher – es gibt einfach keine schlüssige Theorie.

Umso erstaunlicher finde ich es, dass die Akademische Welt bei Vorstellung Ihrer neuen Erkenntnisse diese Portfolio immer wieder als Referenz heranzieht.

Dabei wird dann natürlich jedes mal bewiesen, inwieweit eine Strategie dem 60/40-Portfolio überlegen ist.

Das ist auch nicht schwer!

Zurück zur Kritik an den Risk-Parity Portfolien:

Manchmal habe ich den Eindruck es geht in der Industrie darum die Dinge möglichst kompliziert zu machen. Es werden immer weitere Optimierungsschritte unternommen, bis die Probleme überbestimmt sind und wieder instabile Ecklösungen gefunden werden.

Ein Beispiel aus der Autoindustrie:

Die meisten heutigen Navigationssysteme sind mathematische Optimierungs- Idioten.

Es werden je nach Einstellung des Nutzers unter Berücksichtigung verschiedener Parameter Optimierungsmodelle hinsichtlich Weg und Zeit genutzt.

Leider sind die Parameter schon äußerst Fehleranfällig.

  1. Geschwindigkeiten pro km auf einem definierten Stück Straße gelten nur im Mittel
  2. Die Straßenverhältnisse können von saisonalen Mustern (im Winter kann es schneien oder stark regnen etc) beeinflusst sein
  3. Es können Tagesbaustellen auf der Strecke sein, welche zu Verzögerungen führen, ohne eine Staumeldung auszulösen
  4. Die Staumeldungen sind ungenau hinsichtlich Zeitpunkt und Länge
  5. Als letztes werden ggf. viele Navigationssysteme mit den gleichen oder sehr ähnlichen Parametern auf die gleiche Lösung kommen und damit das Ergebnis gleich wieder verfälschen, da deren „Korrelation“ nicht beachtet wird

Leider werden diese Ungenauigkeiten nur unzureichend berücksichtigt.

Wenn man sich ein Optimierungsproblem visualisieren möchte, kann man sich einen umgekehrten Kegel vorstellen – so wie ein Trichter. In den werden dann die Parameter oben rein gekippt und kräftig gerührt.

Durch die Schwerkraft wird die Mischung dann nach unten befördert. Die beste Mischung oder das optimale Ergebnis liegt immer genau am untersten Punkt.

Soweit so gut.

Da vielleicht nicht alle relevanten Parameter in den Trichter wandern, bzw. die darin befindlichen Parameter nicht in der richtigen Dosis vorhanden sind, sollte man sich von rein mathematischen Optimierungen verabschieden.

Diese These wird auch von Herrn Giegerenzer („Risiko„) gestützt. Sein Beispiel ist der Hund der den Frisbee fangen will. Diesem ist sicher zu unterstellen, dass er keine einzige mathematische Gleichung in seinem Leben gelöst hat und trotzdem den Frisbee fängt.

Na so was!

Können wir den Hund zur Streckennavigation einsetzen, oder einen Affen mit Dartpfeilen auf den Kursteil der Zeitung werfen lassen, um aussichtsreiche Investitionen zu  finden?

Die Frage dahinter ist letztlich: Gibt es ein Verfahren oder Prozess den wir verwenden können?

In meinem Bild mit dem Trichter / Kegel würde es schon reichen, wenn man den Trichter unten abschneidet. Damit vergrößert sich der Lösungsraum, der dann zwar auch aus mathematischer Sicht nicht optimale Lösungen erhält, aber eben immer noch gute.

Der Größe des abgeschnittene Bereichs steht in direktem Zusammenhang mit der Fehleranfälligkeit des Systems.

Bei Navigationsystemen findet in neueren Versionen schon ein Umdenken statt. Dem Nutzer werden Alternativrouten vorgeschlagen (unter Berücksichtigung des oben gesagten immer noch gute Lösungen). Damit fließen die Erfahrungen, Vorlieben des Fahrers bzw. eine Einschätzung über die Fehleranfälligkeit des Systems  in die Entscheidung mit ein.

Die nächste Generation wird dann wohl auch das Problem der Korrelationen z.b. über Rückmeldung von den Nutzern lösen (Schwarmintelligenz).

Also was nun? Funktioniert Risk-Parity oder nicht?

Für mich habe ich die Frage beantwortet. Ich nutze Risk-Parity, da weniger Parameter nötig sind als bei vielen anderen Optimierungen.

Mir ist auch bewusst, dass die Inputparameter ungenau sind und somit die optimale Lösung nur ein Zufallsergebnis darstellt.

Für mich ist Risk-Parity ein sehr pragmatischer Ansatz, welcher durch Theorie gestützt ist und einfach genug umzusetzen ist.

 

MAQS – Global Trend Following

Signale im wöchentlichen System:

  • Long S&P 500, SL: 1.986

 

Eure Kommentare sind herzlich willkommen.

Kommentar verfassen

Trage deine Daten unten ein oder klicke ein Icon um dich einzuloggen:

WordPress.com-Logo

Du kommentierst mit Deinem WordPress.com-Konto. Abmelden /  Ändern )

Google+ Foto

Du kommentierst mit Deinem Google+-Konto. Abmelden /  Ändern )

Twitter-Bild

Du kommentierst mit Deinem Twitter-Konto. Abmelden /  Ändern )

Facebook-Foto

Du kommentierst mit Deinem Facebook-Konto. Abmelden /  Ändern )

Verbinde mit %s