Cálculo del exponente de Hurst mediante la metodología wavelets para la validación de la regla de la raíz del tiempo y su aplicación al riesgo de mercado*
Javier Eliécer Pirateque Niño**
* Los resultados y opiniones son responsabilidad exclusiva del autor y su contenido no compromete al Banco de la República ni a su Junta Directiva. El autor agradece los comentarios y sugerencias de Carlos León, Héctor Cárdenas, Germán Guerrero, Carlos A. Gómez y Hernando Bayona. De igual forma, los comentarios de los integrantes del Departamento de Estabilidad Financiera del Banco de la República en particular los de Estéban Gomez.
** Profesional del Departamento de Estabilidad Financiera de la Subgerencia Monetaria y de Inversiones Internacionales del Banco de la República. Los comentarios y sugerencias pueden ser enviados a jpiratni@banrep.gov.co.Resumen
Bajo el supuesto de que una serie de retornos es independiente e idénticamente distribuida (iid), la dimensión temporal del riesgo es irrelevante. De esta forma, la volatilidad calculada sobre un intervalo de tiempo (e.g. mensual) puede ser estimada a partir de la calculada sobre otro intervalo (e.g. diario), mediante la regla de la raíz del tiempo. El presente documento presenta una metodología avanzada, que al igual que las más tradicionales, evidencia que la utilización de dicha raíz es errónea debido a que existe dependencia de largo plazo en algunas de las series financieras colombianas. Asi mismo, se exponen algunas de las consecuencias más importantes de dicha dependencia (en especial sobre el cálculo del riesgo de mercado) y se proponen algunos parámetros de escalamiento.
Palabras clave: Wavelets, dependencia de largo plazo, análisis multi-resolución y riesgo de mercado.
Clasificación jel: G11, G14, G32, C16, C52.
Abstract
Under the assumption that returns are independent and identically distributed (iid), the temporal dimension of risk is irrelevant. Thus, the volatility calculated over a time interval (eg monthly) can be estimated from the calculated on another interval (eg daily) by the following rule time. This paper presents an advanced methodology, which like most traditional, evidence that the use of the rule time is incorrect because there is long-term dependency on some of the Colombian financial series. It also describes some of the most important consequences of this dependence (especially on the calculation of market risk) and some scaling parameters are proposed.
Keywords: Wavelets, long-term dependency, multiresolution analysis and market risk.
Clasification jel: G11, G14, G32, C16, C52.
1. Introducción
La teoría tradicional sugiere que una serie de tiempo, afectada por un gran número de eventos (o en términos estadísticos con muchos grados de libertad), tiende a volverse totalmente aleatoria. Un caso particular de series con tales características son las financieras, que al ser generadas por la interacción de muchos agentes, tienden a tener un comportamiento de tan difícil predicción bajo las herramientas tradicionales, que se define como una caminata aleatoria. Dicha concepción se racionaliza mediante la teoría de los mercados eficientes, que sugiere que dicho comportamiento es el resultado natural de las fuerzas del mercado.
Una consecuencia clave del mencionado análisis es la llamada regla de la raíz del tiempo, que dice que si una serie se comporta como una caminata aleatoria, su volatilidad diaria puede ser reescalada a la de n días simplemente multiplicando por √n. Dicha consecuencia generó tantas aplicaciones prácticas que algunos trabajos buscaron responder si en realidad esta tenía sentido.
Tales trabajos han formulado diversas metodologías que, además de pretender demostrar que tal concepción no es válida, buscan identificar cuál sería el verdadero parámetro de escalamiento. A pesar de que globalmente no existe una metodología superior para la validación de la regla de la raíz del tiempo y para la estimación de los parámetros de dependencia de largo plazo, el presente trabajo busca implementar una metodología que, además del análisis tradicional de las series en el dominio tiempo, toma en cuenta también el dominio de la escala1 o frecuencia.
Dicha metodología se eligió principalmente debido a las propiedades de los estimadores (que son consistentes y de baja varianza, pese a estar sesgados como se mostrará más adelante), y en razón de la capacidad de adaptación local de los wavelets, que facilita el análisis de los saltos y los clusters de volatilidad presentes en las series financieras. Cabe anotar que esta elección también se debió a trabajos como el de Racine (2011), Boutahary Khalfaoui (2011) y Bardet et ál. (2000), que demuestran que esta metodología tiene una mayor convergencia en comparación con otras. El análisis se complementa con una de las aplicaciones prácticas más importantes, que es el re-escalamiento del VaR (valor en riesgo, por sus siglas en inglés), y con el análisis de su validez para distintas series financieras colombianas.
El presente documento se compone de siete secciones, incluida la presente introducción. La segunda sección presenta una descripción de la regla de la raíz del tiempo y su relación con el modelo de caminata aleatoria. La tercera analizalas consecuencias prácticas de la dependencia de largo plazo en algunos de los principales modelos económicos y financieros. La cuarta se ocupa de dar una introducción a la metodología wavelets y el análisis tiempo-frecuencia. La quinta contiene un análisis de la relación entre los procesos de memoria larga, los fractales y el análisis multi-resolución. La sexta sección desarrolla y presenta los resultados del cálculo del exponente de Hurst (H). Por último, la séptima sección investiga el desempeño y la aplicabilidad del H encontrado para reescalar el riesgo de mercado en comparación con la regla de la raíz del tiempo.
2. La regla de la raíz cuadrada del tiempo y el modelo de caminata aleatoria
La regla de la raíz del tiempo se usa para escalar la volatilidad de las series financieras, especialmente de aquellas en las que no es posible obtener series extensas para lograr estimaciones confiables. Esta regla nace del supuesto de movimiento browniano como dinámica que explica los cambios en los precios de los activos, y simplemente consiste en multiplicar la volatilidad estimada para una serie de periodicidad d por √n para hallar la volatilidad con una periodicidad n (León y Vivas, 2010).
A pesar de que muchas aplicaciones de dicha regla van más allá de la sola estimación de volatilidades e incluyen modelos ampliamente difundidos, como el modelo Black & Scholes para la valoración de opciones financieras y el VaR, aún persisten las dudas sobre si el supuesto que la sostiene es coherente con la realidad.
Tal supuesto nace de la hipótesis de los mercados eficientes, en la que se menciona que los cambios en los precios de los activos financieros, son independientes debido a que toda la información disponible es descontada, y ni compradores ni vendedores tienen ventajas2. Esta hipótesis da como resultado que si el precio de un activo financiero se comporta como una caminata aleatoria (sin importar si está normalmente distribuida o no), dicho supuesto se cumple3.
Si el precio de un activo financiero sigue una caminata aleatoria4 de la forma: yt = yt-1 + μ, donde μt~N(0,σ2) y y0 = 0. Por sustitución recursiva se tiene que: yt = yt-1 + μt = yt-2 + μt-1 + μt = … = y0 + μ1 + μ2 + … + μt. Substituyendo y0 = 0 y aplicando la propiedad de la varianza para procesos independientes se obtiene: Var(yt) = Var(μ1) + Var(μ2) + … + Var(μt) = tσ2. Si se caracteriza el proceso por la desviación estándar se obtiene: √tσ. Este es el origen de la raíz cuadrada del tiempo.
Como se muestra claramente en el razonamiento anterior, la regla de la raíz del tiempo se basa totalmente en la idea de que los precios se comportan como una caminata aleatoria y que los retornos son independientes; es decir, en la hipótesis de los mercados eficientes. Dicha teoría no solo ha sido muchas veces descartada para el caso colombiano (ver Uribe y Ulloa, 2011 o Pérez y Mendoza, 2010), sino que ha sido establecida como el paradigma más frágil de la teoría de las finanzas modernas. En este último aspecto, por ejemplo, Ball (1995) menciona que las limitaciones de dicha teoría son muchas y que incluso pueden ser clasificadas en tres categorías: i) las que se relacionan con la falla en la explicación del comportamiento de los precios, ii) los defectos en la eficiencia como modelo de mercados y iii)los problemas en las pruebas de eficiencia para explicar los modelos de mercado.
Los problemas de la teoría en la explicación de los comportamientos del mercado se suman a los de los métodos econométricos tradicionales para hacer menos válida su aplicación en la práctica. Dichos problemas tienen que ver, según Peters (1991), con los conceptos de equilibrio que subyacen a dichos métodos, y la fijación del horizonte de inversión como irrelevante o como una variable cualquiera. El primero tiene que ver con la idea de que los choques en los modelos tradicionales son temporales y decaen exponencialmente en el tiempo, lo que es contradictorio con la característica evolutiva de este tipo de sistemas, y el segundo que tiene que ver con la idea de una memoria limitada del pasado para unos casos o la no importancia de la tendencia en otros.
Esto último es de gran importancia, ya que la retroalimentación real de un inversionista considera correlaciones de largo plazo y eventos pasados para la toma de decisiones. De igual forma, es importante anotar que el primer problema aparece no solo en la econometría tradicional, sino que viene desde la definición de la teoría de los mercados eficientes, pues se supone que el arbitraje siempre corregirá las desviaciones que haya en los valores justos (los que descuentan toda la información disponible), lo cual genera un equilibrio estocástico permanente.
Aunque una forma de comprobar fácilmente si una serie de precios es una caminata aleatoria, es hacer una prueba de raíz unitaria para comprobar el parámetro que acompaña ayt-1, y una prueba de normalidad de los precios, tales pruebas no servirían para establecer cuál debería ser el verdadero parámetro de escalamiento5. De igual forma, dicha prueba solo se ocuparía de problemas de autocorrelación de corto plazo, y no de la dependencia de largo plazo, que es la que concierne a este trabajo. Por último, Summers (1986) demuestra que las pruebas estadísticas comúnmente usadas para evaluar la eficiencia de los mercados especulativos tienen muy bajo poder. Es por esta razón que han surgido otros métodos que, además de demostrar que los retornos no son independientes, calculan el grado de dependencia de estos.
En Colombia, los trabajos sobre este tema se han enfocado hacia la estimación del exponente de Hurst ajustado y el estadístico Vq de Lo (1991) para distintas series financieras. Los trabajos de León y Vivas (2010) y Leiton (2011) realizan las estimaciones del primer coeficiente mediante la metodología de rango reescalado clásico (R/S) y modificado (mR/S)6, mientras el primer trabajo lo complementa hallando el estadístico Vq mencionado.
El exponente de Hurst se define en términos del comportamiento asintótico del rango reescalado de una serie de tiempo. Dicho rango reescalado clásico se define como el rango (R) de la desviación acumulada de una serie de tiempo yt frente a su media ȳ durante un período n; ajustado por la desviación estándar (S) de yt. Empíricamente Hurst (1951) encontró que dicho rango podía ser representado por medio de la siguiente ecuación:
Donde, H = 0,5 representa incrementos independientes (gaussianos o no gaussianos) como los de una caminata aleatoria, 0,5 < H < 1 procesos en los que la memoria de largo plazo muestra persistencia7 y 0 < H < 0,5 procesos en los que la memoria de largo plazo muestra antipersistencia8. A partir de una linealización por medio de logaritmos y una estimación por MCO (mínimos cuadrados ordinarios) los trabajos mencionados estiman H como el índice de dependencia de largo plazo, y Hadj9 para corregir por el sesgo que se origina en la estimación con series finitas de propiedades asintóticas. A través de la metodología mR/S se estimó, de una manera similar, dicho parámetro, al cambiar el parámetro usual de estandarización (que era la desviación estándar) por un estimador que incluía la varianza y la autocovarianza de los datos hasta un rezago q a fin de hacer robusta la estimación ante dependencias de corto plazo.
Ambos trabajos encontraron que las series de tiempo financieras colombianas tienen un Hadj > 0,5, por lo que concluyen que existe memoria de largo plazo y que el parámetro de escalamiento de dichas series debe ser el encontrado. De igual forma, este resultado fue reforzado con el estadístico Vq para el caso del IGBC e IDXTES (índices del mercado de renta variable y fija, respectivamente), más no para la TRM. Este último estadístico se estimó en razón de la dificultad para realizar pruebas estadísticas sobre el exponente H estimado mediante mR/S.
Pese a que la metodología mR/S supone que el proceso de la variable aleatoriaes de tipo gaussiano y que se basa en un estadístico sesgado (Taqqu et ál., 1999), y pese a que esta no captura el proceso de memoria de largo plazo de ciertos procesos (Peters, 1991), los trabajos descritos concluyen que el mercado accionario y de renta fija colombianos presentan memoria de largo plazo. Esto no se extiende al mercado cambiario debido a que el resultado de la metodología mR/S no es sustentado por el estadístico Vq, el cual no es concluyente para ningún rezago q. En este sentido, el trabajo de Leiton (2011) recomienda explorar otras metodologías para cuantificar la dependencia de largo plazo y fortalecer los resultados encontrados en los primeros trabajos.
Es de destacar que para el caso específico de la TRM, Castaño et ál. (2008) calculan la volatilidad multiperíodo y encuentran que los pronósticos de las varianzas multiperíodos son diferentes a los obtenidos por la regla de la raíz, concluyendo que la serie presenta evidencia de memoria de largo plazo.
3. Consecuencias prácticas de la dependencia de largo plazo
En general, existen pocos trabajos que tratan el tema de la dependencia de largo plazo de las series financieras10. Así, las mediciones que se han hecho sobre estas se han dado solo para ver si se comportan o no como caminatas aleatorias, usando la metodología tradicional que las caracterizan como: débil, semifuerte y fuerte. Dichas caracterizaciones utilizan pruebas que se basan únicamente en dependencias de corto plazo (e.g. modelos GARCH) y usan el supuesto de que por el teorema del límite central los cambios en los precios son normales con media estable y varianza finita, lo que es inválido si existiese dependencia de largo plazo.
El resultado de no tomar en cuenta la dependencia de largo plazo se refleja en el amplio uso de la regla de la raíz del tiempo. Entre los temas que más utilizan este supuesto están aquellos relacionados con análisis de volatilidades, medición de riesgos y optimización de portafolios. En cuanto al análisis de volatilidades, esto se refleja en la idea de que el cambio en la variabilidad de una serie es explicado por los choques más recientes (e.g. modelos GARCH y EWMA), y la irrelevancia de los ciclos de longitud no periódica en la explicación de la misma.
En la medición de riesgos este supuesto se refleja en la utilización de dicha práctica para re-escalar el VaR de corto plazo a fin de obtener el de largo plazo. Dicha práctica resulta poco confiable, pues existen muchos problemas al intentar extrapolar las volatilidades. De hecho, en la revisión realizada durante 2009 por el Comité de Basilea a los estándares cuantitativos del cálculo del riesgo de mercado se encontró que la regla de la raíz del tiempo subestima significativamente el riesgo, por lo que en la actualidad el uso de dicha regla debe realizarse bajo un sustento técnico adecuado que satisfaga los requerimientos del ente supervisor (BIS, 2009). En el caso colombiano, Melo y Granados (2011) encuentran que dicha regla no genera estimaciones apropiadas, pese a que es sugerida por la Superintendencia Financiera11.
Los problemas que tiene el uso de la regla de la raíz del tiempo para escalar el VaR, tienen que ver con los supuestos en los que esta se basa. A pesar de que la regla aplica para la volatilidad, sin importar la distribución subyacente de los datos (siempre y cuando sean iid), esta no aplica para el VaR a menos que los retornosestén normalmente distribuidos12. De esta forma, su uso solo tiene sentido si se logra demostrar que los retornos son normales e iid.
Sumado a lo anterior, se debe tener en cuenta que la agregación de los datos en el tiempo cambia las propiedades de los mismos. En este sentido, por ejemplo, si los datos diarios muestran clústeres de volatilidad, los semanales o mensuales no los tendrán en el mismo grado.
A pesar de todas las dificultades que conlleva el uso de la regla, esta sigue siendo usada para escalar el VaR debido a que para hacer estimaciones a diez días la mayoría de técnicas necesitan información de al menos 3.000 días de negociación o cerca de 12 años, lo cual resulta implausible para la mayoría de las aplicaciones. De la misma manera, para hallar un VaR anual se necesitarían al menos 300 años y para niveles de probabilidad extremos (e.g. 0,1%) los requerimientos de datos también se incrementarían de forma abrupta (Danielsson, 2011).
Para el caso de la optimización de portafolios, el uso de la regla de la raíz del tiempo se deriva de la idea de que los precios recogen toda la información disponible. Si se supone que los retornos de los activos no siguen una caminata aleatoria gaussiana, anualizar la volatilidad, mediante la regla de la raíz cuadrada del tiempo, no genera un estimativo real del nivel de riesgo asociado con la inversión, por lo que inversionistas que desean valorar posiciones basados en un nivel objetivo de volatilidad no logran buenos estimativos. Holton (1992) demuestra que una de las implicaciones es que el riesgo de la inversión es una función no solo del tipo de activo considerado, sino también del horizonte de inversión preferido por el inversor. Peters (1991) igualmente demuestra que incluso pequeñas desviaciones de un comportamiento puramente aleatorio puede llevar a que los inversionistas mal interpreten su nivel de riesgo real.
Si el período de inversión es irrelevante, la consecuencia es que para un nivel dado de volatilidad todos los inversionistas son recompensados con una prima de riesgo idéntica, sin importar si están invirtiendo a corto o a largo plazo. Esto es contra intuitivo, pues a mayor plazo se espera que aumente el valor de la prima de riesgo de mercado. Igualmente, como demuestra Gregoriou (2009), portafolios de media-varianza que se hallan con la regla de la raíz exhiben niveles exagerados de media y volatilidad.
Otras aplicaciones comunes de las reglas de escalamiento de la volatilidad en economía financiera están relacionadas con la estimación de la volatilidad de largo plazo en modelos como el CAPM (Capital Asset Pricing Model) y el modelo de valoración de opciones de Black-Scholes-Merton, los cuales son típicamente estimados con base en medidas anualizadas del retorno de los activos y de la volatilidad de estos. Gregoriou (2009) demuestra que en el caso del CAPM, si los retornos poseen una dependencia negativa de largo plazo (H < 0,5), las inversiones mantenidas en el largo plazo son relativamente menos riesgosas y las mantenidas en el corto plazo son relativamente más riesgosas que lo predicho por la raíz cuadrada del tiempo. Alternativamente, si los activos tienen dependencia positiva de largo plazo (H > 0,5), las inversiones mantenidas en el corto plazo son relativamente menos riesgosas e inversiones mantenidas en el largo plazo son relativamente más riesgosas que lo predicho por la regla de la raíz del tiempo. Batten y Ellis (2005), de igual forma, demuestran que el inapropiado escalamiento del riesgo subestima el preciode las opciones put y call en los mercados de divisas.
En Colombia, León et ál. (2012) estiman el sesgo del CAPM en cuanto a los betas y los retornos esperados, y demuestran que el supuesto de neutralidad del horizonte del tiempo es inválido. Este trabajo resalta la importancia del horizonte de inversión para el manejo del riesgo y la asignación del capital, y realiza pruebas estadísticas con un 99% de confianza que demuestran que más del 60% de las acciones exhiben betas que son estadísticamente diferentes de aquellos que incorporan el efecto de la dependencia de largo plazo. Por esta razón se enfatizan los resultados de Holton (1992) sobre la doble dimensión del riesgo, que abarca tanto la clase de activo, como el período de tenencia, y se propone una metodología paracrear un modelo CAPM dependiente del horizonte de inversión.
Puesto que el uso del modelo CAPM y Black-Scholes-Mertones amplio y abarca temas que van desde la selección de portafolio hasta la fijación de precios de servicios públicos13, su correcta especificación debe ser revalidada pues, como se demuestra más adelante, algunas de las series colombianas tienen un alto grado de dependencia. Dicha revalidación debe buscar que los modelos expliquen situaciones tradicionales del mercado, como los comportamientos de manada o la heterogeneidad en el horizonte de tiempo de los agentes, pues en realidad estas son algunas de las causales de dicha dependencia14.
4. Introducción a la metodología wavelets y el análisis tiempo-frecuencia
En general, las técnicas estadísticas usadas en economía están diseñadas para modelar las series de tiempo en el dominio del tiempo. Esto es proveer una descripción adecuada de cada componente de la serie (de forma conjunta o separada), según corresponda a la parte irregular, cíclica, tendencial o estacional.
Para hacer esto generalmente se usan modelos estructurales (e.g. filtro de Kalman) u otros enfoques clásicos que se enmarcan dentro de la regresión (e.g. arima). El primer tipo de modelo se enfoca en la representación de alguna componente de la serie, siendo su principal característica el dinamismo que permite que los coeficientes evolucionen a través del tiempo, mientras que el segundo es más general, pues mediante la diferenciación de la serie intenta eliminar la parte tendencial y estacional a fin de modelar todo en conjunto.
A pesar de que estas técnicas son las más usadas, no son las únicas, pues existen otras que estudian el comportamiento de la serie, pero en el dominio de la frecuencia. Dichas técnicas, como el análisis de Fourier, simplemente descomponen la serie de tiempo en términos de funciones seno y coseno de diferentes frecuencias en vez de las componentes tradicionales. Al igual que ocurre con las componentes del dominio del tiempo, la serie inicial se puede obtener como la suma de cada una de las funciones seno y coseno.
Las técnicas del dominio de la frecuencia son usadas generalmente para encontrar la contribución de cada frecuencia a la varianza total de la serie y para el análisis de los componentes cíclicos y estacionales. En el primer caso son bastante útiles debido a que señalan qué frecuencias de la serie, y por tal qué períodos15, son los que más explican la variabilidad de la misma. En el segundo caso, son útiles para crear filtros, como el de Hodrick y Prescott, que remueven componentes de frecuencia que están en un rango en particular y que se consideran no pertenecen a las componentes que se quieren aislar.
Existe una metodología que realiza el análisis simultáneamente en el dominio del tiempo y en el dominio de la frecuencia, y se conoce como transformación wavelet. Esta técnica tiene la particularidad de hacer un análisis local (es decir se enfoca en tramos de la serie) frente al global que hacen las técnicas del dominio de la frecuencia (se enfocan en obtener características conjuntas de toda la serie), y también la particularidad de que no usa estrictamente frecuencias para presentar sus resultados, sino escalas o niveles de resolución.
Dicha transformación, como su nombre lo indica, se basa en un tipo especial de funciones conocidas como funciones wavelet (ψ(t)), caracterizadas por dos propiedades conocidas como la condición de la integral igual a cero (∫-∞∞ψ2(t)dt = 0) y energía unitaria (∫-∞∞ ψ2(t)dt = 1). Al contrario de las funciones seno y coseno, las funciones wavelet no oscilan alrededor de cero sino que se desvanecen alrededor de este (poreso su nombre). El Gráfico 1 presenta algunos ejemplos de funciones wavelet.
La transformación wavelet se descompone en dos grandes tipos de transformaciones: la transformación wavelet continua (CWT) y la transformación wavelet discreta (DWT). La primera usa una sola función wavelet que se conoce en la literatura como función wavelet madre, mientras que la DWT usa dos funciones: la función wavelet madre y la función wavelet padre (φ(t)), que se diferencia de la madre en que su integral sobre t es igual a uno.
Desde un enfoque matemático, la CWT se define como la proyección de la función wavelet madre en la serie de tiempo analizada, mediante el producto interior de los elementos de las mismas (ver ecuación 2). Esta proyección se basa en la dilatación (W(x)) → W(2x))y translación de una función (W(2x) → W(2x - 1)), que genera como resultado lo que en la literatura se conoce como coeficientes wavelets o detalles.
Donde
Los pasos para obtener todos los coeficientes son los siguientes16:
Desde un enfoque estadístico los coeficientes wavelet de la CWT se interpretan como promedios ponderados de una serie que cambia de un período a otro. Entérminos simples, los coeficientes wavelet se pueden interpretar con base en una línea de tiempo que contiene información de una serie de tiempo dividida en dos intervalos adyacentes como la presentada en el Gráfico 2.
El coeficiente wavelet en el momento t y la escala λ/2 (suponiendo que se utiliza el wavelet Haar), correspondiente a la serie descrita, sería igual a la diferencia entre el promedio 2 menos el promedio 1. Al cambiar el momento (translación), se obtiene un nuevo coeficiente al igual que al cambiar la escala (dilatación).
Un ejemplo sencillo de cómo funciona la CWT es tomar una serie de tiempo de longitud 1000 compuesta por ceros y un salto igual a 1 en el momento 500. La CWT (nuevamente usando el wavelet Haar) es la presentada en la Gráfico317.
Los colores cálidos representan cambios grandes y los fríos cambios pequeños, según la barra de la derecha. Como se puede observar, alrededor de la observación 500 se encuentran todos los coeficientes diferentes a cero, pues es el único punto donde hay un salto que crea diferencia en los promedios adyacentes. De igual forma, se observa que a medida que aumenta la escala aumenta el número de coeficientes diferentes de cero, pues la longitud de los promedios aumenta, permitiendo que capturen el efecto del salto en la serie.
Si, por ejemplo, la serie de tiempo analizada representa la tasa de cambio mensual, un gráfico de C(λ = 3, t) contra el tiempo dirá qué tan rápido varíala tasa de cambio promedio sobre el trimestre de un trimestre a otro; al incrementar la escala λ hasta un año, el gráfico de C(λ = 12,t) dirá cuanto varía la tasa de cambio promedio anual de un año al siguiente.
Debido a la gran versatilidad de esta herramienta, que permite capturar detalles importantes y darnos una idea general del comportamiento de una serie, Schleicher (2002) la compara con unos lentes de cámara de amplio alcance que permiten tomar fotos de un paisaje extenso, a la vez que permite realizar un zoom sobre los detalles microscópicos que normalmente son imperceptibles para el ojo humano. Igualmente, Graps (1995) define el análisis wavelets como mirar el bosque para detectar grandes particularidades y a la vez los árboles para detectar las pequeñas.
Para cada wavelet particular se tiene una interpretación diferente, pero en todos los casos la idea es analizar la diferencia entre promedios. Por ejemplo, “el sombrero mexicano”, da como resultado una diferencia entre un promedio ponderado en una unidad de escala y el promedio de dos promedios ponderados alrededor de esta.
Debido a que la CWT es redundante, en el sentido de que hace una representación bidimensional (tiempo y escala) de una serie que tiene solo una dimensión (tiempo), y debido a que discontinuidades como las presentadas en el primer ejemplo son observadas en algún grado en cada escala, se creó una versión más simplificada de la CWT, conocida como DWT18 (transformación wavelet discreta por sus siglas en inglés). La submuestra de los elementos de la CWT que se usan en la DWT, W(λ, t), son aquellos cuyas escalas de dilatación son binarias (2j), y donde t es tal que es múltiplo de 2j-1.
La forma eficiente de implementar tal esquema fue desarrollado por Mallat(1988) mediante el algoritmo que lleva su nombre, y que consiste de dos filtros:un filtro pasa bajos (lowpassfilter) y un filtro pasa altos (highpass), en el que elprimero filtra los coeficientes obtenidos con base en la función wavelet padre y elsegundo los coeficientes obtenidos con base en la función madre. En la prácticatales coeficientes son muy importantes, pues los primeros representan la tendenciasuavizada de la serie (conocidos como aproximaciones) y los segundos las desviaciones de dicha tendencia (conocidos como detalles)19. Gráficamente, el algoritmo de Mallat se puede representar como en la Gráfico 4.
Con las aproximaciones obtenidas a partir de la DWT es posible realizar una nueva DWT a fin de obtener nuevos niveles de resolución para cada componente. Estose conoce en la literatura como análisis multi-resolución (MRA) (ver Gráfico 5).
Según Lahura y Vega (2011) el MRA es la formalización matemática de una idea simple: obtener sucesivas aproximaciones de una serie, de tal forma que cada nueva aproximación es mejor que la última. Si {…, SJ, SJ-1, SJ-2, …} representa un MRA, entonces SJ-1 es una mejor aproximación que SJ, esto es con una mejor resolución. Las diferencias entre las varias aproximaciones son los detalles y pueden ser denotados como DJ = SJ-1 - SJ, por lo que una aproximación puede ser expresada como la suma de una resolución más baja más un detalle, SJ-1 = DJ + SJ. En general, si SJ denota la mejor aproximación (una con la mejor resolución) deuna serie f(t), entonces f(t) = S1 + D1. Si un MRA existe para una serie, entonces es posible obtener diferentes aproximaciones de la serie expresada como la suma de una aproximación de menor resolución y un detalle. En particular, la secuencia S1 = D2 + S2, S2 = D3 + S3,…, Sj-2 = Dj-1 + Sj-1, Sj-1 = Dj + Sj. De esta forma, el análisis multi-resolución es capaz de expresar una serie f(t) como la suma de una aproximación Sj y diferentes detalles Dj:
La interpretación de los detalles es qué tanta información es ganada (perdida) si la serie f(t) fuese muestreada más (menos) frecuentemente. Por ejemplo, si cada dos oservaciones de los valores de f(t) son pto mediados de tal forma que t/2 = (f(t) + f(t+1))/2 para diferentes t, los detalles serían las cantidades faltantes para obtener la serie original f(t) = S(t) + Dj.
La aproximación, de igual forma, puede ser vista como la serie suavizada o como la parte cíclica y de tendencia de una serie, mientras que los detalles como la parte irregular de la misma. Según esta interpretación, cada detalle corresponde a variaciones de la serie que ocurren con determinada frecuencia (la de la escala j), siendo el primer detalle el correspondiente a la mayor frecuencia y el último al de la menor. La descomposición de la serie en aproximación y detalles tiene la propiedad de que la suma de la varianza de cada uno de estos componentes es la varianza total de la serie.
5. Procesos de memoria larga, fractales y su relación con el análisis multi-resolución
Para realizar un análisis de la dependencia de largo plazo de una serie temporal se debería conocer el proceso generador de datos de la misma o, en su defecto, una serie de observaciones lo suficientemente larga, de forma que esta pudiese ser caracterizada de manera fiable. Como esto no es posible en la mayoría de aplicaciones, se debe asumir que esta se comporta como un fractal, de forma que los comportamientos de corto plazo se extienden a los de largo plazo. Dichos fractales son procesos de memoria larga que tienen algunas propiedades particulares al ser analizados mediante un análisis multi-resolución, como se muestra en esta sección.
Los procesos de memoria larga son series que por naturaleza tienen observaciones que dependen de otras separadas por grandes intervalos de tiempo, lo que se puede traducir en autocorrelaciones que de caen de forma lenta (decaimiento hiperbólico). En el dominio de la frecuencia, estas series se caracterizan por tender a infinito al acercarse a frecuencias cercanas a cero. Es importante destacar que esta definición solo implica que la suma del valor absoluto de las autocovarianzas noconverge, pero no fija ninguna restricción en las autocorrelaciones individuales.
Matemáticamente, y en el dominio del tiempo, la condición antes mencionada para las autocovarianzas se pueden expresar así:
γ(τ) ≈ |τ|2d-1, cuando |τ| → ∞
Donde τ es el rezago del tiempo de un proceso estacionario x(t), y d el parámetro de memoria de largo plazo. En el dominio de la frecuencia, la presencia de memoria de largo plazo se expresa mediante el comportamiento de la función de densidad espectral ƒ(ω):
ƒ(ω) ≈ c|ω|2d, cuando ω → ∞
Donde ω ∈ (π, π) y c > 0
Como se desprende de las ecuaciones anteriores, la dependencia de largo plazo depende del comportamiento de largo plazo de la función de autocorrelación para rezagos muy grandes, el cual es difícil de estimar en la práctica ya que los datos que se analizan son muestrales y el comportamiento que se quiere analizar es asintótico. Asi mismo, como demuestra León y Reveiz (2012), la estimación estándar pormedio de las autocovarianzas o las autocorrelacciones tiene poca consistencia y robustez para detectar y medir dependencia, especialmente dependencia de largo plazo, pues esta se encuentra restringida a un mundo gaussiano; lo que significa, en otra palabras, que dicha estimación no es robusta a cambios en la distribución y debería usarse con precaución si las series de tiempo no son normales.
Por las anteriores razones, modelos con dicha dependencia son usualmente formulados en términos de procesos autosemejantes (self-similar process, en inglés)21 u otro tipo de procesos más generales como los fractales, que permiten deducir comportamientos de largo plazo a partir de comportamientos de corto plazo mediante la extrapolación, pues estos últimos son más fácilmente observables.
Según Peters (1991), los fractales aleatorios (los usados en series de tiempo) se definen con base en los fractales determinísticos de las matemáticas. Dichos objetos se entienden como aquellos en los cuales las partes están, en alguna forma, relacionadas con el todo y no son explicables mediante la geometría euclidiana tradicional, que vuelve más simple los objetos al acercarse más al detalle (e.g. un bloque tridimensional se vuelve un plano de dos dimensiones, y este a la vez sevuelve una línea en una sola dimensión hasta que finalmente se vuelve un punto).
Los fractales, por lo contrario, son objetos que muestran más detalle entre más cerca se está (e.g. los árboles se enraman de acuerdo con una estructura fractal, pues cada rama con sus ramas más pequeñas, es similar al árbol completo en un sentido cualitativo). De igual forma, muestran autosemejanza, que en el caso de los objetos se da con respecto al espacio, y que en el caso de las series de tiempo fractales se da con respecto al tiempo (ver Gráfico 6).
Una medida de qué tan irregular es una serie es la dimensión fractal. Dicha dimensión tradicionalmente se define en términos de la relación que existe entre la cantidad de círculos necesarios para cubrir una serie de tiempo y su radio. Si se cuenta el número de círculos con determinado diámetro que se necesitan para cubrir la serie completa; y luego se incrementa el diámetro y se cuenta nuevamente el número de círculos, se encuentra que el número de círculos tiene una relación exponencial con el radio del círculo mediante: N(2r)Dƒ = 1. Despejando se encuentra que la dimensión fractal es igual a:
Donde, N es el número de círculos, r el radio de los círculos.
Esta medida es importante en el caso de las series que presentan memoria de largo plazo, ya que como demuestra Peters (1991), H puede ser reescrito en términos de Dƒ como: H = 2 - Dƒ. En este sentido, H sirve para cuantificar el grado de heterogeneidad de una serie, pues a medida que H aumenta la dimensión fractal disminuye hasta llegar a una serie que es totalmente homogénea, es decir, que no cambia en el tiempo.
La estimación del exponente H y, por lo tanto, de Dƒ, puede realizarse utilizando análisis en varios dominios: el del tiempo, el de la frecuencia o el de tiempo-escala (ver Cuadro 1). En el dominio del tiempo, los análisis se centran en los primeros y segundos momentos de la serie, corregidos por tendencia en algunos casos (e.g. R/S). En el dominio de la frecuencia, el análisis se enfoca en las características del periodograma22 o en las características de otros estimadores que mejoran el desempeño de este23. Por último, el análisis wavelet basa totalmente su análisis en la transformada wavelet (Arango et ál., 2001).
El análisis en el dominio tiempo-escala, además de poseer ventajas frente a los otros análisis, por sus propiedades de localidad y de captura de características de los estimadores del resto de dominios, tiene la ventaja de estar relacionado con los procesos más importantes de la literatura financiera.
Uno de estos procesos, y que es ejemplo de proceso fractal autosemejante, es el movimiento browniano fractal (fBm), definido por Mandelbrot y Van Ness (1968) como la extensión de la caminata aleatoria tradicional a la caminata aleatoria sesgada. Dicho proceso se caracteriza por ser un proceso estocástico gaussiano, con parámetro de escalamiento H, de media cero y no estacionario, en el que las principales propiedades estadísticas dependen del tiempo24. Según León y Reveiz (2012), el fBm describe mejor el comportamiento de los precios, pues cambios significativos y sostenidos son más probables que los que el modelo browniano estándar y de caminata aleatoria asumen.
El incremento derivado del fBm, se denomina ruido fractal gaussiano (fGn), que es un proceso similar a un ARFIMA(0,d,0) en la medida que las covarianzas de ambos procesos tienen un comportamiento similar (Taqqu et ál., 1995).
Procesos como el fBm se pueden definir a través de sus dos primeros momentos estadísticos, sin embargo, este se puede generalizar como un modelo multifractalal generar el movimiento fraccional Levy. Este modelo representa procesos en los que la autosemejanza puede tener diferentes orígenes: puede aparecer a partir de la alta variabilidad en situaciones donde los incrementos son independientes y de colas pesadas, o puede aparecer a partir de solo fuerte dependencia, incluso en la ausencia de alta variabilidad (Cont, 2002). Dichos modelos se alejan de la caminata aleatoria tradicional, por lo que tienden a ser considerados ajenos a la teoría tradicional y se pueden considerar como puramente empíricos.
Jensen (1999) demostró que, en general, toda serie fraccionalmente integrada,definida por (1 - B)d y (t) = ε(t) (donde B representa el operador de rezago), con -0,5 < d < 0,5 y ε(t) ~ i.i.d. N(0, σ2), luego del análisis multi-resolución basado, en wavelets, genera detalles que se distribuyen N(0, σ22-2jd), donde j es el parámetro de escalamiento de los wavelets25. Al tomar la transformación logarítmica, en base 2, de la varianza de los detalles a escala j, se obtiene la siguiente relación, donde el parámetro de integración fraccional d puede ser estimado mediante una regresión por MCO:
Donde γ(j) es la varianza de los detalles a escala j; d es el parámetro de integración fraccional; y j es el parámetro de escalamiento de los wavelets. Según Abry et ál.,(2009) para el caso particular de procesos autosemejantes como el fBm o el fGn,con base en d se puede obtener el exponente de Hurst H como:
En términos prácticos la ecuación (6) describe la relación que existe entre la varianza correspondiente a cada escala o frecuencia (que se traduce en la varianza para diferentes períodos de muestreo), y dicha escala. Si se cumpliera la regla de la raíz del tiempo dicha relación describiría la forma funcional de la raíz cuadrada, pues a medida que se incrementa el período de muestreo la varianza se incrementaría en forma proporcional a dicha raíz. De esta forma, el supuesto de que es una serie fractal simplemente nos ayuda para que al solo observar una parte de esta relación se pueda concluir sobre toda la serie, pues esta se mantiene.
Como se dijo anteriormente, si el proceso subyacente de los retornos es el de un fGn en el que las estructuras de las autocovarianzas y las autocorrelaciones dependen del parámetro H, esta medida no solo indicaría el grado de dependencia de largo plazo, sino que correspondería al exponente de autosemejanza del proceso. En este sentido, un H = 0,5 no solo indicaría que no existe dependencia de largo plazo, sino que el proceso no es autosemejante en la medida que el procesono tendría memoria.
A fin de corroborar las ventajas de la metodología wavelets para el análisis de la dependencia de largo plazo, que ya han sido demostradas por trabajos como los de Racine (2011) o los de Bardet et ál.,(2000), se realizó una simulación de 1000 procesos fBm con parámetro H = 0,5 de longitud 10000, mediante el algoritmo propuesto por Abry et ál., (2009), y se estimó el valor de H para cada uno mediante la ecuación (6) y (7). El histograma que resume los resultados se presenta en el Gráfico 7.
Como se puede observar la distribución de los parámetros encontrados tiende a comportarse como normal26, y la media de la estimación se encuentra sesgada en relación con la poblacional. Dicho sesgo es analizado por Jensen (1999), quien demuestra que este disminuye a medida que el parámetro poblacional aumenta. El mismo autor justifica el estimador en razón a que tiene una varianza mucho menor a las del resto de estimadores, que hace que el error cuadrático medio caiga en relación con los mismos. En el presente ejercicio, la desviación estándar de los estimadores es de 0,02.
6. Estimación del parámetro H para el caso colombiano
El exponente de Hurst (H), muestra el grado de persistencia o antipersistencia que tienen las series que presentan dependencia de largo plazo. En el presente apartado este se calcula con base en la metodología descrita antes, para más adelante ser usado para reescalar el riesgo de mercado. Dicho parámetro se ajusta por el sesgo que existe en la metodología propuesta.
En el presente análisis se utilizaron datos diarios de algunas de las series financieras más importantes del mercado colombiano. Estas corresponden al Índice General de la Bolsa de Valores de Colombia (IGBC), la Tasa Representativa del Mercado (TRM) y el índice representativo del mercado de deuda pública interna (IDXTES)27. Se tomaron series de periodicidad diaria debido a la facilidad de obtener series largas con este plazo.
La longitud de las series se eligió con base en los experimentos numéricos realizados por Arango et ál., (2001), que demuestran que los estimadores de H son confiables cuando el número de datos es mayor a 1024. Por lo anterior, en la estimación se usaron datos que van desde enero del año 2000 hasta octubre del 2013, a excepción de la serie del IGBC, que se tomó desde junio de 2001 dado que en esta fecha se creó el índice.
Los resultados de la aplicación de la metodología anterior a las series mencionadas se resumen en el Cuadro 2 (ver Anexo 1)28. Cabe resaltar que los parámetros encontrados no se deben interpretar directamente como una probabilidad, dado que al ser mayores a 0,5 únicamente indican que los retornos tienen un carácter persistente.
Con el fin de corregir el sesgo del H antes descrito (que incluye el sesgo por uso de series finitas y el sesgo por el uso de la metodología wavelets) y con el fin de validar la significancia de los resultados, se usa el ajuste propuesto por León y Vivas (2010) y el estadístico t definido por los mismos autores.
El ajuste se implementó con base en una simulación29 que utilizó un algoritmo que “barajó” cada una de las series (100 veces), sin que las características de la serie original (v.g. media, desviación estándar, sesgo, curtosis) fuesen alteradas a fin de eliminar la memoria del proceso, con el propósito de encontrar el sesgo, definido como la diferencia del valor promedio de los parámetros encontrados Hƒ (es decir, el H para series independientes y finitas) y 0,5. Luego de eso se encontró el parámetro ajustado definido como: Hadj = H - (Hƒ - 0,5); es decir, como el valor del parámetro inicial de la muestra menos su sesgo30 (Cuadro 3).
De otra parte, la validación de la significancia de los resultados se hace mediante el estadístico t, con base en los hallazgos de Ellis (2007) y Peters (2004) que demostraron que los valores estimados del exponente de Hurst se distribuyen como una normal. Cabe anotar que esta prueba es útil, incluso si no se conoce la función de distribución de H, debido a que como demuestra Conti et ál. (2008), los intervalos hallados con esta metodología tienen un buen desempeño asintóticamente hablando31. El estadístico t se calcula con base en el Hadj estimado, y con base en μˆ(Hi) y σˆ(Hi) que son el valor esperado y la desviación estándar del Hadj según el algoritmo antes expuesto. Dado que al 95% de confianza se rechaza la hipótesis nula cuando ti excede ± 1,96%, se rechaza la hipótesis nula de independencia únicamente para el caso del IDXTES, es decir, estadísticamente se comprueba que H ≠ 0,5 solo para esta serie32.
7. Validación de la regla de la raíz del tiempo y su aplicación al cálculo del riesgo de mercado
Como se mencionó en un comienzo, la regla de la raíz del tiempo tiene muchas aplicaciones, entre las que se encuentra la relacionada con el cálculo del VaR. Apesar de que esta se encuentra supeditada al supuesto de que los retornos sean iid, Tsay (2002) demuestra que la regla también puede ser satisfecha por el modelo de Risk Metrics® que no supone retornos iid. Este autor prueba que bajo esta metodología, el VaR para k períodos es igual al VaR para un período multiplicado por la raíz de k. Dicho en términos matemáticos: VaR(k) = √kVaR. Como demuestran Kidnateder y Wagner (2012), dicha regla se puede generalizar para el caso en el que los retornos no se consideran independientes, quedando de la siguiente manera:
Donde H es el exponente de Hurst ajustado.
Con el fin de validar si la regla de la raíz del tiempo aplica para el caso colombiano y si el parámetro encontrado mejora las predicciones de esta, se realizó la estimación de un VaR con la metodología de RiskMetrics®, que cumple teóricamente con la regla de la raíz, y para efectos comparativos otros VaR con las metodologías de normalidad y de simulación histórica33. Cada uno de los VaR se comparó en el tiempo con los retornos negativos34, mediante diferentes pruebas de backtesting para elegir los mejores modelos en términos de su correcta especificación. Con base en estos últimos, se proyectó el VaR de un día para hallar el de 10 días usando laregla de la raíz del tiempo y el parámetro encontrado a fin de realizar nuevamente las pruebas de backtesting para ver si dicha proyección fue acertada o no.
Específicamente los pasos que se siguieron para realizar el procedimiento anterior fueron los siguientes:
Para realizar el backtesting se usó, en primer lugar, la prueba de fallos de Kupiec (LRuc), que estima si el número de violaciones del VaR para un modelo de riesgo, en particular, es significativamente diferente del α correspondiente al nivel de confianza utilizado (hipótesis nula). Esta se distribuye como una χ2 con un grado de libertad, y se usaron tres niveles de significancia (10%, 5% y 1%). En segundo lugar, se realizó una prueba de independencia LRIND, que valida si las violaciones o fallos del modelo (pérdidas que superan el VaR) ocurren cerca del mismo momento en el tiempo o de forma aleatoria. Esta prueba, al igual que la anterior, se distribuye como una χ2 con un grado de libertad. En tercer lugar, se realizó una prueba conjunta propuesta por Christoffersen (2003) que, además de validar si el número de violaciones es significativamente distinto del esperado, valida si estas son independientes entre sí o no. Esta prueba conocida como LRCC, resulta de la suma de las dos pruebas anteriores, y se contrasta, de igual forma, con una χ2 con dos grados de libertad.
El Cuadro 3.1, presenta los p-values para los estadísticos de razón de verosimilitud LRUC , LRIND, LRCC y entre paréntesis se indica la diferencia absoluta entre el número de fallos esperados y los ocurridos. Los resultados de la estimación muestran que la metodología RiskMetrics®, presenta un adecuado desempeño según las tres pruebas LR, para el caso del IDXTES y la TRM usando un α = 0,95. En el caso del IGBC, esta presenta un buen desempeño únicamente al ser evaluada mediante la prueba de fallos de Kupiec. Por su parte, la metodología de simulación histórica no rechaza la hipótesis de cubrimiento incondicional (LRUC), aunque no supera ninguna de las otras pruebas para cada una de las series analizadas. Finalmente, la metodología de normalidad, en general, presenta un desempeño pobre en cada unade las pruebas, por lo que se descarta para la siguiente parte del análisis.
De otra parte, al analizar las proyecciones del VaR de un día a diez días se encuentra que ni la proyección con la regla de la raíz del tiempo, ni la realizada conel parámetro encontrado permiten hacer estimaciones adecuadas del riesgo. En elcaso de la metodología RiskMetrics®, ninguna proyección supera las pruebas LR,en tanto que con la metodología de simulación histórica solo se obtienen buenos resultados para el caso de la prueba LRUC para el caso del IDXTES y la TRM con un α = 0,95. En el caso del IGBC dicha prueba obtiene buenos resultados para el caso de la regla de la raíz del tiempo con un α = 0,95 (Cuadro 4).
Se destaca que en el caso del IDXTES y el IGBC, tanto las proyecciones con la reglade la raíz del tiempo como las realizadas con el parámetro encontrado, tienden a sobreestimar el riesgo en la medida que el número de fallos es menor al esperado. En el caso de la TRM, la proyección con la regla de la raíz del tiempo subestima el riesgo, en tanto que la realizada con el parámetro encontrado sobreestima el riesgo.
De esta forma, no existe ningún indicio claro que demuestre la superioridad de los parámetros encontrados frente a la regla de la raíz del tiempo. Por otro lado, se observa que pese a que en algunos casos las propiedades de cubrimiento incondicional del VaR son extrapoladas al hacer la proyección a diez días, en ningún caso esto ocurre con las propiedades de independencia. Este resultado podría responder a que el parámetro de escalamiento no es constante en el tiempo, por lo que se necesitaría otro tipo de modelo para explicar dichas series (e.g. un modelo multifractal).
8. Conclusiones
El presente trabajo mostró una metodología diferente para la estimación de la dependencia de largo plazo, que demostró que la serie del mercado de renta fija IDXTES posee dependencia de largo plazo que se puede caracterizar como persistente (caminata aleatoria sesgada). En las otras dos series analizadas no existe evidencia estadística que rechace la hipótesis nula de independencia. Esto es importante, pues las implicaciones con respecto a los diferentes modelos económicos y financieros son de gran magnitud; en particular con respecto al resultado que sustenta el uso de la regla de la raíz del tiempo. Cabe anotar que dicha metodología no había sido usada antes para el caso colombiano, por lo que este trabajo contribuye, de forma importante, a la escasa literatura existente sobre el tema.
Dando alcance a la regulación prudencial internacional, específicamente al CBSB (Comité de Basilea en Supervisión Bancaria), en cuanto a su determinación de exigir sustento técnico adecuado para realizar el escalamiento del riesgo de mercado mediante la regla de la raíz del tiempo, este artículo también demuestra que el uso de cualquier método de escalamiento (ya sea la regla de la raíz del tiempo o el parámetro encontrado) no es coherente con el comportamiento de las series financieras analizadas.
Las investigaciones futuras deberán seguir explorando la estructura de dependencia de largo plazo de las series colombianas, para analizar si un parámetro constante es capaz de capturar la complejidad de estas. En este sentido, hace falta ver si dicho parámetro es cambiante en el tiempo o si se explica por estructuras mucho más complejas (modelos multi fractales, por ejemplo) que no se explican únicamente por sus primeros momentos estadísticos.
ANEXO 1. Estimación del parámetro de dependencia de largo plazo (detalles vs escala)
Pie de página
1 En la teoría wavelets el dominio de la frecuencia se conoce también como escala y difiere del concepto usado en otras metodologías.
2 Aunque esta es la definición tradicional, al momento de hacer estimaciones empíricas esta se caracteriza como fuerte, semi-fuerte o débil.
3 Lo contrario no necesariamente es cierto, pues la eficiencia de mercado solo requiere de independencia.
4 En el caso de una trayectoria continua si se supone que los cambios en los precios son independientes, se esperaría que estos fueran normales con media estable y varianza finita por el teorema del límite central. Por otro lado, en procesos discretos para que el reescalamiento por la regla de la raíz sea posible se necesita que además de independencia, el segundo momento de la distribución escogida exista y el comportamiento de los cambios en los precios sea estacionario. Lo anterior, debido a que la independencia es necesaria para expresar la varianza de la suma como la suma de varianzas, pero para que esta cuenta tenga sentido se necesita la segunda condición y para tomar factor común de la varianza se necesita la tercera.
5 En cualquier caso, estas pruebas no deberían ser concluyentes, pues como se mencionó anteriormente, una caminata aleatoria no necesita el supuesto de normalidad.
6 La ventaja de la segunda metodología se encuentra en la capacidad de excluir la incidencia de procesos de memoria de corto plazo en la estimación de la dependencia de largo plazo.
7 Persistencia significa que un retorno de signo positivo tiene una alta probabilidad de ser seguido por otro del mismo signo, y viceversa.
8 Antipersistencia significa que un retorno de signo positivo tiene una alta probabilidad de ser seguido por uno negativo, y viceversa.
9 Hadj = H - (Hf - 0,5).
10 La literatura internacional se ha enfocado en la realización de pruebas para determinar la presencia de memoria de largo plazo en series financieras que van desde tasas de interés hasta otras que miden la volatilidad del mercado accionario. Una recopilación de los más importantes trabajos que se han hecho sobre el tema puede ser encontrada en Baillie (1996).
11 Circular externa 51 de 2007.
12 Danielsson, J. (2011), presenta una demostración formal en el teorema 9.1 de su libro.
13 En Colombia la CRA (Comisión de Regulación de Agua Potable y Saneamiento Básico) y la CRC (Comisión de Regulación en Telecomunicaciones) usan el CAPM para el cálculo de los cargos de acceso a algunos servicios públicos.
14 Cont (2002) considera que los mecanismos económicos que explican la dependencia de largo plazo son los siguientes: la heterogeneidad en los horizontes de tiempo de los agentes, el comportamiento evolutivo de los mismos, los cambios en las estrategias de trading y la inercia de los inversores.
15 La frecuencia es una magnitud que es inversa al período.
16 Tomado de Misiti et ál. (2011).
17 Evidentemente la representación tridimensional es necesaria, pues los coeficientes están en función del tiempo y la escala.
18 Algunos autores entienden la DWT como una CWT en la que la integral no se calcula entre -∞ e ∞ sino en cualquier otro intervalo, mientras que otros la entienden como una versión discreta de la CWT (definiéndola únicamente para un conjunto de escalas y tiempos). En este documento, se toma la segunda definición.
19 Para ver más detalles y ejemplos numéricos del algoritmo de Mallat remitirse a Schleicher (2002).
20 cA: Coefientes de Aproximación. cD: Coeficientes de Detalles.
21 Formalmente un proceso estocástico (Xt)t≥0 se define como autosemejante si existe un H>0 tal que para cualquier factor de escalamiento c>0, el proceso (Xct)t≥0 y (cHXt)t≥0 tienen la misma distribución:
(Xct)t≥0 ~ (cHXt)t≥0
Donde H es el exponente de autosemejanza del proceso H.
22 El periodograma muestra la relación entre las distintas frecuencias de las funciones seno y coseno que componen una serie de tiempo y su aportea la serie completa.
23 En muchas aplicaciones el periodograma puede describir bien las frecuencias dominantes, pero puede no describir muy bien el resto. De igual forma, este es demasiado ruidoso por lo que otros estimadores de la magnitud de frecuencia generan mejores resultados.
24 La estructura de las autocovarianzas es γ(τ) = (σ2/2)(|t|2H + |t -τ|2H -|t|2H ) y la de las autocorrelaciones ρ(τ) = 22H-1 - 1.
25 Jensen (1999) demostró, mediante simulaciones Monte Carlo, que el estimador basado en los wavelets tiene un menor error cuadrático medio que el estimador GPH (Geweke y Porter-Hudak) que es uno de los más frecuentemente usados.
26 De hecho al realizar la prueba Jarque Berano se rechaza la hipótesis nula con un nivel de confianza de 95%.
27 El IDXTES es un índice de retorno total desarrollado por Reveiz y León (2010) para el análisis del mercado de deuda pública colombiano.
28 La estimación del parámetro anterior se realizó usando el wavelet Haar, debido a que Gencay et ál., (2002) demuestra que este funciona bien para series de carácter financiero.
29 Se usaron 10,000 simulaciones.
30 Para realizar los cálculos presentados se utilizó el toolbox de wavelets del programa Matlab.
31 Contiet ál. (2008), compara dos estimadores empíricos con base en simulaciones Monte Carlo. En vez de la función de distribución de los parámetros que no es conocida, en el primer caso usa los valores estimados de media y desviación estándar de una serie de simulaciones tipo bootstrap y en el segundo caso los valores obtenidos por medio de una simulación como la propuesta en este trabajo.
32 Con un 90% de confianza la hipótesis nula se rechazaría para el caso del IDXTES y la TRM.
33 Ver Melo, L. y Granados, J. (2011), para mayor información sobre cada una de las metodologías mencionadas.
34 Dado que se usan retornos negativos, valores altos de la serie indican pérdidas grandes.
9. Bibliografía
Abry, P.;Goncalves, P. y Levy V. J. (2009). Scaling, Fractals and Wavelets. 1a Ed. Edit. John Wiley & Sons. USA.
Arango M.; Restrepo D.P. y Mesa, O. (2001). “Conjuntos Fractales en el Tiempo y en el Espacio”. Dyna. N.o 68.
Baillie, R. (1996). “Long Memory Processes and Fractional Integration in Econometrics”. Journal of Econometrics, vol. 73, 127-154.
Ball, R. (1995). “The Theory of Stock Market Efficiency: Accomplishments and Limitations”. Journal of Applied Corporate Finance, vol. 8, n.o 1, Bank of America.
Batten, J.A. y Ellis, C.A. (2005). ”Parameter Estimation Bias and Volatility Scaling in Black-Scholes Option Prices”. International Review of Financial Analysis, vol. 14, n.o 2.
Bardet, J. M.; Lang, G.; Moulines, E. y Soulier, P. (2000). ”Wavelet Estimator of Long Range Dependent Processes”. Statistical Inference for Stochastic Processes, n.o 85-89.
BIS. (2009). “Revisions to the Basel II Market Risk Framework”, Basel Committee on Banking Supervision. Bank for International Settlements.
Boutahar, M. y Khalfaoui, R. (2011). ”Estimation of the Long Memory Parameter in non Stationary Models: A Simulation Study”. Groupment de Recherche en Economie. N.o 2011-24.
Christoffersen, F. (2003). Financial Risk Management. Academic Press.
Castaño, E.; Gómez, K y Gallón, S. (2008). “Pronóstico y estructuras de volatilidad multiperíodo de la tasa de cambio del peso colombiano”. Revista Cuadernos de Economía, vol. 27, n.o 48, 241-266.
Cont, R. (2002). “Long Range Dependance in Financial Markets”. Fractals in Engineering. Springer.
Conti, P.; De Giovanni, L.; Stilian, S.; y Taqquu, M. (2008). “Confidence Intervals forthe Long Memory Parameter Based on Wavelets and Resampling”. Statistica Sinica, n.o 18.
Craig E., y Sundmacher, M. (2010). “The Economic Implications of volatility Scaling by the Square Root of Time rule”. Stock Market Volatility, n.o 7.
Crowley, P. (2005). “An Intuitive Guide to Wavelets”. Discussion papers. Bank of Finland Research.
Danielsson, J.(2011). Financial Risk Forecasting, 1.ª ed., Edit. Wiley Finance.
Ellis, C. (2007). “The Sampling Properties of Hurst Exponent Estimates”, Physica A. N.o 375.
Fernandez, V. (2005). “The International CAPM and a Wavelet Base Decomposition of Value at Risk”. Studies of Nonlinear Dynamics & Econometrics, 9(4), article 4.
Gencay, R.; Selcuk, F. y Brandon, W. (2002). An Introduction to Wavelets and Other Filtering Methods in Finance and Economics. Academic Press.
Graps, A. (1995). “An Introduction to Wavelets”. IEEE Proceedings Computational Sciance and Engineering. No. 2.
Green, W. H. (1999). Análisis econométrico, 3a.ed. Madrid, Edit. Prentice Hall.
Gregoriou, N. G. (2009). Stock Market Volatility, 1.ª ed., Nueva York, Edit CRC Press.
Holton, G. A. (1992). “Time: the Second Dimension of Risk”. Financial Analyst Journal. N.o 48, vol. 6.
Hurst, H.E. (1951). “Long Term Storage Capacity of Reservoirs”. Transactions of the American Society of Civil Engineers, n.o 116.
Jensen, M. J. (1999). “Using Wavelets to Obtain a Consistent Ordinary Least Squares Estimator of the Long Memory Parameter”. MPRA Paper, n.o 39152.
Kaiser, G. (1994). A Friendly Guide to Wavelets, 1.a ed. Berlin, Edit Birkhauser.
Kidnateder, H. y Wagner, N.(2012). “Market Risk Predictions Under Long Memory: Whern VaR is Higher than Expected”. Social Science Research Network. Working Paper Series.
Lahura, E. y Vega, M. (2011). “Evaluation of Wavelet Based Core Inflation Measures: Evidence from Perú”. Documento de Trabajo. N.o 320. Lima, Pontificia Universidad Católica del Perú.
Leiton, K. (2011). “Validez del supuesto de neutralidad del horizonte de tiempo en el CAPM y la metodología del rango reescalado: aplicación a Colombia”. Borradores de Economía, n.o 672. Banco de la República.
León, C.; Leiton, K. y Alejandro R.(2012). ”Investment horizon dependent CAPM : Adjusting beta for long-term dependence,” Borradores de Economía, n.o 730. Banco de la República.
Léon, C. y Reveiz, A. (2012). “Monte Carlo Simulation of Long-Term Dependent Processes: A Primer”. Wilmott, 48-57.
León, C. y Vivas, F. (2010). “Dependencia de largo plazo y la regla de la raíz del tiempo para escalar la volatilidad en el mercado colombiano”. Borradores de Economía, n.o 603. Banco de la República.
Lo, A. (1991). “Long-Term Memory in Stock Market Prices”. Econométrica, vol. 59, n.o 5.
Mallat, S.G. (1989). “A Theory for Multiresoltion Signal Decomposition: the Wavelet Representation”. IEEE Transactions on Pattern Analysis and Machine Inteligence,vol. 11.
Mandelbrot, B. y Van Ness, J.W. (1968) “Fractional Brownian Motions, Fractional Noises and Applications”. SIAM review,vol. 10, No 4.
Melo, L. y Granados, J. (2011). “Regulación y valor en riesgo”. Ensayos Sobre Política Económica, vol. 29, n.o 64, 110-177.
Misiti, M.; Misiti, Y.; Oppenheim, G. y Poggi, J.M. (2011). “Wavelets: A New Tool for Signal Analysis”. Math Works, Inc.
Palma, W. (2007).Long Memory Time Series: Theory and Methods, 1.ª ed. Edit.Wiley-Interscience.
Peters, E. (1991). Chaos and Order in the Capital Markets, 2.ª ed. USA, Edit. John Wiley & Sons.
Peters, E. (1994). Fractal Market Analysis, USA, John Wiley & Sons.
Peña, D. (2010). Regresión y diseño de experimentos 2.ª ed., Madrid, Alianza Editorial.
Pérez, J. y Mendoza, J. (2010). “Efecto día en el mercado accionario colombiano: unaaproximación no paramétrica”. Borradores de Economía, n.o 585, Bogotá, Banco de la República.
Racine, R. (2011). “Estimating the Hurst exponent”. Tesis de pregrado. Swiss Federal Institute of Techcnology, Zurich (Suiza).
Reveiz, A. y León, C. (2010). “Índice representativo del mercado de deuda pública interna: IDXTES”. Pensiones y portafolio: la construcción de una política pública (Eds. Laserna, J.M. y Gómez, M.C.). Bogotá, Banco de la República y Universidad Externado de Colombia.
Scheleicher, C. (2002). An Introduction to Wavelets for Economists. Working Paper 200203, Bank of Canada.
Summers, Lawrence H. (1986). “Does the Stock Market Rationally Reflect Fundamental Values?”, The Journal of Finance, vol. 41, n.o 3.
Taqqu, S.; Teverovsky, V. y Willinger, W. (1999). “A Critical Look at Lo’s modified R/Sstatistic”. Journal of Statistical Planning and Inference, n.o 80.
Taqqu, S.; Teverovsky, V. y Willinger, W. (1995). “Estimators of Long Range Dependance: An Empirical Study”. Fractals, vol. 3, 785-798.
Tsay, R.S. (2002) Analysis of Financial Time Series. 1a. Ed. USA, Edit. John Wiley & Sons.
Uribe, J. M. y Ulloa, I. M. (2011). “Revisando la hipótesis de los mercados eficientes: nuevos datos, nuevas crisis y nuevas estimaciones”. Cuadernos de Economía, 30(55), 127-154.