Durante los últimos meses hemos asistido a una evolución de los mercados por completo extraordinaria y atípica; plagada de acontecimientos inusuales para los que no existe referente histórico ni modelo macroeconómico capaz de explicar sus numerosas variables de manera satisfactoria.
Indudablemente, no estamos ante una pregunta sencilla. Ni siquiera creo que sea posible traducir este interrogante a meros análisis estadísticos sobre formaciones precios en diferentes productos. En realidad, a día de hoy, confieso que no tengo una respuesta concluyente. Sin embargo, la que mejor se acomoda a mi percepción actual del tema tiene mucho que ver con las "verdades del barquero": El mejor mercado es aquel en el que, sintiéndome cómodo, consigo obtener beneficios de manera consistente... Y punto.
El proceso de evaluación de una estrategia pasa por tres fases consecutivas en las que intentaremos obtener datos relevantes que permitan acreditar la robustez del sistema y su capacidad para generar beneficios en las condiciones cambiantes del mercado: (a) Pruebas de validez interna empleando el mayor histórico disponible, (b) pruebas de validez externa mediante simulaciones en tiempo real y (c) pruebas a pequeña escala con una fracción del capital disponible.
Por favor, lean despacio este interrogante y reflexionen unos minutos. Les aseguro que no se trata de una pregunta retórica, sino del dilema central del trading sistemático: Cuando desarrollamos un estrategia buscamos en ella la máxima generalidad, por lo que intentaremos que funcione en muchos productos diferentes. Pero, también somos conscientes de que cada mercado responde a pautas intrínsecas de acción y dinámicas cíclicas muy cambiantes. ¿Qué hacer, pues?
Cuando empeñamos demasiado tiempo y esfuerzo en diseñar una "excelente" estrategia, nos resulta muy difícil evaluarla con objetividad, actuando como jueces implacables de nuestra propia obra. Por ello, recomiendo a mis lectores que, antes de lanzarse a operar, sometan su modelo al veredicto -desde la distancia siempre más objetivo- de otros operadores experimentados.
En el anterior artículo hemos analizado la importancia de evaluar nuestras estrategias aplicando comisiones y deslizamientos que resulten verosímiles y que sirvan para modelizar el peso de los gastos de operativa en las condiciones más realistas posibles. Ahora, vamos a ver con algunos ejemplos cómo el slippage acaba destruyendo de manera dramática las expectativas de beneficio, especialmente en sistemas -sobre el papel- muy brillantes, pero, en realidad, poco robustos y fiables.
En mi lista de prioridades, una tarea ineludible consiste en seguir muy de cerca los gastos de la operativa. Supongo que quienes se dedican a operar sistemas en time frames muy cortos también lo estarán haciendo, pues de lo contrario, habrían sido barridos del mercado hace mucho tiempo. Con todo, llama poderosamente la atención comprobar que este es uno de los conceptos a los que menor tiempo se dedica y sobre el que menos se escribe. Es como si la gente estuviese empeñada, en un hilarante ejercicio de autoengaño, en esconder la realidad de las cifras debajo de la alfombra.
Una de las situaciones más comunes a las que se enfrenta la operativa intradiaria, es la proliferación de sesiones con un rango de precios tan estrecho que resulta impracticable cualquier modalidad de posicionamiento. Los choppy days pueden definirse como aquellos días en los que a penas existe volatilidad y la diferencia entre el valor máximo y mínimo que alcanzan los precios en dicha jornada no supera el 50% del ATR de las últimas 20 sesiones.
Hace tiempo que esta pregunta me ronda en la cabeza. Aprecio una gradual disminución –o cuando menos estancamiento– del interés que suscita este tema en la Blogosfera, en diversos foros y, en general, en la prensa de habla inglesa especializada en mercados financieros.
No tomarse la operativa como lo que es: Un juego, en lugar de una actividad científica avalada por complejos cálculos matemáticos y brillantes estadísticas que, a fuerza de machacar cifras, nos dirán lo que queremos oír en forma de bellos cantos de sirena.
El flujo de datos en tiempo real constituye la materia prima sobre la que trabajan casi todos los sistemas de trading. La calidad de las series empleadas, el tipo de compresión, el modo en que se realizan los ajustes entre vencimientos o los algoritmos para corregir errores y rellenar huecos, son factores decisivos que contribuirán al éxito de nuestra operativa.
En todo sistema de trading, la distribución de resultados se mueve en una difícil dialéctica: Si su normalidad es alta, entonces nuestra operativa será más aleatorios e impredecible, pero si pierde por completo la normalidad, posiblemente estaremos ante un sistema demasiado pegado a la curva de precios y, en consecuencia, sobreoptimizado.
Wilfredo Pareto, puso el dedo en la llaga cuando descubrió -quizá de manera demasiado empírica y aproximativa- que, en muchos procesos económicos y sociales, el 20% de las causas son responsables del 80% de los resultados. En las siguientes líneas, intentaré comprobar si esta relación se cumple también en el ámbito de los sistemas y las implicaciones prácticas que pudiera tener.
Agrupamos bajo este lema genérico dos aportaciones que nuestro buen amigo David ha tenido la amabilidad de cedernos desde su estupendo Blog Espacio de Trading, y que llevan por título: "La volatilidad rondando mínimos históricos" y "Localizando máximos de volatilidad." Mi más profundo agradecimiento al autor y mi deseo de que todos las disfrutéis.