Répondre

Test de permutation de Monte Carlo pour les maîtres de la fléole des prés

1 réponses

TP

Abonné, bbp_participant, client, communauté, sq-ultimate, 8 réponses.

Visiter le profil

il y a 1 an #281476

J'espère que tout va bien !

Deux questions sur le test de permutation de Monte Carlo :

1. Je me demande si SQ envisage d'ajouter le test de permutation MC des maîtres de la phléole des prés comme test de robustesse ?

2. Le test de permutation de Monthe Carlo utilise des variations de prix relatives plutôt que des points de prix absolus. Cela signifie que les signaux de trading, les règles et les indicateurs techniques doivent être conçus pour fonctionner sur des changements de prix relatifs plutôt que sur des points de prix absolus. Je me demande si les signaux mis en œuvre dans SQ sont compatibles avec une telle analyse ?

Merci d'avance !

Plus d'informations sur le test de permutation de Monte Carlo

Le test de permutation de Monte Carlo de Timothy Masters est une technique statistique utilisée pour tester l'importance et la robustesse des performances d'une stratégie de trading. Le test consiste à simuler de multiples itérations de la stratégie en utilisant des versions permutées aléatoirement de données historiques, ce qui permet au trader d'évaluer les performances de la stratégie dans différents scénarios et de déterminer la signification statistique des résultats.

Pour réaliser ce test, Masters transforme d'abord les points de prix absolus en points de prix relatifs en prenant le logarithme des points de prix absolus et en prenant ensuite les différences entre les logarithmes consécutifs. Cette transformation permet d'obtenir une série de rendements logarithmiques qui peuvent être interprétés comme des variations de prix relatifs. L'avantage d'utiliser des rendements logarithmiques plutôt que des rendements simples est qu'ils sont additifs dans le temps et qu'ils sont normalement distribués, ce qui les rend plus adaptés à l'analyse statistique.

Ensuite, les données historiques sont permutées de manière aléatoire pour créer plusieurs ensembles de données simulées, chacun avec une disposition différente des prix historiques. Pour chaque ensemble de données simulé, la stratégie de négociation est exécutée pour générer un ensemble de transactions et les valeurs de portefeuille qui en résultent. Le processus est répété pendant de nombreuses itérations, en utilisant à chaque fois une permutation aléatoire différente des données historiques.

Enfin, les résultats des transactions simulées sont comparés à la performance réelle de la stratégie de trading. L'objectif de cette comparaison est de déterminer si la performance observée de la stratégie de négociation est statistiquement significative ou si elle aurait pu être obtenue par hasard. Si les résultats des transactions simulées sont significativement différents de la performance réelle de la stratégie de trading, cela suggère que la performance observée de la stratégie peut ne pas être robuste et peut avoir été influencée par l'arrangement spécifique des prix historiques utilisés dans l'analyse.

0

JON

Abonné, bbp_participant, client, communauté, sq-ultimate, 3 réponses.

Visiter le profil

Il y a 3 mois #285220

Hi  TP

This “step” (or similar) is almost a must for data mining of large number of strategies since luck will be part of the strategy population. T Masters approach seem very simple yet robust. I also vote for this to be implemented. Note that in your step 2 there is no need for any changes to handle the relative price point. The relative price point is only necessary when building the population of the modified historical data, once you have those you just exponentiate these and they are normal “fake” historical data. Only difference is that your randomization of the relative price changes have erased the “signal” in the data. The signal/pattern that your robust strategy should be picking up and thus running the strategy on 500 or 1000 of these should result in worse performance for >>90%… if not, your strategy does not pick up a “signal” and does ~not have a real edge. (assuming I understand T Masters MC approach to filter out lucky strategies) What is necessary is to handle a large number of historical data-series in SQX which I have not seen yet.. but I have limited experience with it.  Anyone know any similar robust test that is statistically sound and does not use the OOS data?

0

Affichage d'1 réponse (sur un total de 1)