Respuesta

Prueba de permutación Monte Carlo de los maestros timothy

1 respuesta

TP

Abonado, bbp_participant, cliente, comunidad, sq-ultimate, 8 respuestas.

Visitar el perfil

hace 1 año #281476

Espero que todo vaya bien.

Dos preguntas sobre la prueba de permutación de Monte Carlo:

1. Me pregunto si SQ está considerando añadir la prueba de permutación MC de los maestros timothy como prueba de robustez.

2. La prueba de permutación de Monthe Carlo utiliza cambios de precios relativos en lugar de puntos de precios absolutos. Esto significa que las señales de trading, las reglas y los indicadores técnicos deberían estar diseñados para trabajar con cambios de precios relativos en lugar de puntos de precios absolutos. Me pregunto si las señales que se implementan en SQ son compatibles con este tipo de análisis.

Gracias de antemano.

Más información sobre la prueba de permutación de Monte Carlo

La prueba de permutación de Monte Carlo de Timothy Masters es una técnica estadística utilizada para comprobar la importancia y la solidez del rendimiento de una estrategia de negociación. La prueba consiste en simular múltiples iteraciones de la estrategia utilizando versiones permutadas aleatoriamente de datos históricos, lo que permite al operador evaluar el rendimiento de la estrategia en diferentes escenarios y determinar la significación estadística de los resultados.

Para realizar esta prueba, Masters transforma primero los puntos de precio absoluto en puntos de precio relativo tomando el logaritmo de los puntos de precio absoluto y luego tomando las diferencias entre logaritmos consecutivos. Esta transformación da como resultado una serie de rentabilidades logarítmicas que pueden interpretarse como variaciones de precios relativos. La ventaja de utilizar rentabilidades logarítmicas en lugar de rentabilidades simples es que son aditivas a lo largo del tiempo y se distribuyen normalmente, lo que las hace más adecuadas para el análisis estadístico.

A continuación, los datos históricos se permutan aleatoriamente para crear múltiples conjuntos de datos simulados, cada uno con una disposición diferente de los precios históricos. Para cada conjunto de datos simulado, se ejecuta la estrategia de negociación para generar un conjunto de operaciones y los valores de cartera resultantes. El proceso se repite durante muchas iteraciones, cada vez utilizando una permutación aleatoria diferente de los datos históricos.

Por último, los resultados de las operaciones simuladas se comparan con el rendimiento real de la estrategia de negociación. El objetivo de esta comparación es determinar si el rendimiento observado de la estrategia de negociación es estadísticamente significativo o si podría haberse obtenido por casualidad. Si los resultados de las operaciones simuladas difieren significativamente del rendimiento real de la estrategia de negociación, ello sugiere que el rendimiento observado de la estrategia puede no ser sólido y puede haberse visto influido por la disposición específica de los precios históricos utilizados en el análisis.

0

JON

Abonado, bbp_participant, cliente, comunidad, sq-ultimate, 3 respuestas.

Visitar el perfil

hace 3 meses #285220

Hi  TP

This “step” (or similar) is almost a must for data mining of large number of strategies since luck will be part of the strategy population. T Masters approach seem very simple yet robust. I also vote for this to be implemented. Note that in your step 2 there is no need for any changes to handle the relative price point. The relative price point is only necessary when building the population of the modified historical data, once you have those you just exponentiate these and they are normal “fake” historical data. Only difference is that your randomization of the relative price changes have erased the “signal” in the data. The signal/pattern that your robust strategy should be picking up and thus running the strategy on 500 or 1000 of these should result in worse performance for >>90%… if not, your strategy does not pick up a “signal” and does ~not have a real edge. (assuming I understand T Masters MC approach to filter out lucky strategies) What is necessary is to handle a large number of historical data-series in SQX which I have not seen yet.. but I have limited experience with it.  Anyone know any similar robust test that is statistically sound and does not use the OOS data?

0

Viendo 1 respuesta (de un total de 1)