El supuesto de normalidad estacionaria y los Black Swans en finanzas

The stationary-normality assumption and the Black Swans in finance

José Carlos Ramírez Sánchez*
Olga Patricia Chacón Arias **

*Doctor, profesor-investigador Universidad Anáhuac México-Norte, y profesor afiliado del Departamento de Economía del CIDE, México. Correo-e: jose.ramirez@anahuac.mx.
**Doctora, profesora asistente Universidad Industrial de Santander, Colombia. Correo-e: opchacon@uis.edu.co.

Para citar el artículo: Ramírez, J.C.; Chacón, O.P. (2014). "El supuesto de normalidad estacionaria y los Black Swans en finanzas", en Sotavento MBA, n.º 24, pp. 24-43.

Recibido: 26 de febrero de 2014, aceptado: 3 de septiembre de 2014.


Resumen

El supuesto de normalidad estacionaria es esencial para diversas áreas del análisis financiero.Desde el cálculo del valor en riesgo de una posición hasta la simulación estocástica del precio de un activo financiero, la inclusión del supuesto es recurrente y definitiva. Su enorme influencia en las técnicas tradicionales del Valor en Riesgo (VaR) o de la proyección del precio de un subyacente, lo han convertido en una piedra angular de las finanzas modernas. Los efectos de la crisis hipotecaria de los eeuu en 2007 y 2008 han cambiado; sin embargo, no pocos claman su eliminación de las técnicas de medición de riesgo o de fijación de precios. En particular se insiste en que cualquier intento de predicción de los precios es estéril si se sigue confiando en lécnicas basadas en la distribución normal. El objetivo de este documento es analizar esas críticas y establecer en qué medida la existencia de los Black Swans destruye las bases normales de la práctica financiera. Las conclusiones del documento señalan que las evidentes fallas predictivas del supuesto en situaciones de crisis no son, sin embargo, un mero asunto estadístico sino, también, son explicadas por la propia dinámica de los mercados y de la liberalidad como se conducen los distintos agentes (especuladores, empresas calificadoras y reguladores) responsables de la fijación de los precios de los activos.

Palabras clave: Normalidad estacionaria, Black Swans, Incertidumbre, Regularidad probabilística.


Abstract

The stationary-normality assumption is essential to many areas of financial analysis, from the most simple asset value-at-risk calculation to the stochastic pricing of a portfolio. Its outstanding influence on estimation techniques which are addressed to developing risk-return profiles has placed this assumption as a building block of the modern finance theory, from the outset. However, after the 2007-2008 financial crisis some authors have criticized its longstanding validity in financial analysis, especially because the real performance of the market variables is not regularly stationary-normal in presence of Black Swans. In particular, it is argued that any price forecasting technique which is based on normality it is doomed to failure.This paper aims at analyzing the points of views which seek to take this assumption out of the theoretical core by stressing the link between stationary-normality and the true nature of Black Swans.

Keywords: Stationary-Normality, Black Swans, Uncertainty, Probabilistic Regularity.


Introducción

En la literatura financiera sobre el tema de la predictibilidad de los rendimientos es posible reconocer a tres grupos de autores que, con mayor o menor énfasis, apoyan alguna de las siguientes posiciones: los precios son predecibles de acuerdo con el comportamiento de sus valores fundamentales (dividendos y tasas de interés); los precios son predecibles por ventajas informacionales o competitivas, y, finalmente, los precios, como cualquier otra variable financiera, son impredecibles1. Las conclusiones en determinados casos pueden cambiar dependiendo de las variables y los horizontes de tiempo considerados.

La primera posición es privativa de los defensores de la hipótesis de mercados eficientes (HME) que consideran a los rendimientos como una caminata aleatoria con incrementos independientes y estacionarios2. De acuerdo con esta concepción, los rendimientos son variables aleatorias cuya predicción en el período t + 1 depende enteramente de la información del activo que fluya en ese momento, por lo que la posibilidad de realizar arbitraje con datos del periodo inmediatamente anterior t es prácticamente nula, a menos que haya imperfecciones o anomalías en el mercado. Con precios de los activos que nunca se desvían de cierto rango de sus valores fundamentales y que tienden a actualizarse con la última información, no puede haber ventaja para nadie, ya que "aun los inversionistas peor informados que adquieren un portafolio diversificado a los precios vigentes [están en posibilidad de obtener] una tasa de rendimiento tan generosa como la de los inversionistas expertos"(Malkiel, 2003: 59)3.

En términos formales, la HME supone que la serie de precios reales p, es la esperanza condicional de la serie de precios racionales ex post pt en relación con toda la información disponible en el tiempo t o, brevemente, que pt = E(pt*) (Shiller, 1981)4. Esto equivale a decir que pt, es el pronóstico óptimo de pt, y que cualquier movimiento sorpresivo en el mercado de valores obedece a alguna información procedente del valor fundamental p*t (Shiller, 2003). Las desviaciones aleatorias de los dividendos alrededor de una tendencia conocida impiden que la condición pt = pt* se cumpla para cada momento del horizonte de inversión, por lo que es más factible esperar que pt* = pt+ ut*, en donde ut es el error de pronóstico5. Y dado que ut no debe estar correlacionada con la información disponible en el tiempo t (a causa de los supuestos de la caminata aleatoria), esta tampoco debe estar correlacionada con pt, con lo que var(p*) = var(u) + var(p) o equivalentemente:

De aquí que, como lo sugiere (1), la máxima varianza posible de un pronóstico óptimo no puede ser mayor que la varianza de la variable pronosticada y, como consecuencia, las volatilidades de la series de los precios reales y racionales deben encontrarse dentro de ciertos límites establecidos. El desarrollo de varios modelos de la HME ha conducido a varios autores a fijar los límites de (1) considerando los dividendos descontados ya sea por tasas de interés o por tasas marginales de consuméase Cochrane, 2001). Los resultados obtenidos con diferentes pruebas, variables y criterios han puesto en evidencia la violación de esos límites y, aún más, la capacidad predictiva de la HEM. Entre esos estudios destacan los elaborados por autores que afirman, con base en la hipótesis de la eficiencia relativa (HER) y algunos modelos conductuales de la psicología, que la volatilidad de los precios es, por lejos, mucho mayor a la supuesta por los límites de (1) y que, por tanto, existen elementos predecibles distintos a los valores fundamentales (Shiller, 2003 y Cochrane, 2008).

En el caso particular de la HER, sus adeptos sostienen que la violación a los límites superiores –cuando se consideran los efectos de las sorpresas sobre los precios– o inferiores –cuando se considera la tasa marginal de substitución– es sistemática y rebasa hasta 20 veces los límites teóricos impuestos por (1) (Shiller, 2003). La alta volatilidad de los precios no explicada por los fundamentales abre, en consecuencia, la posibilidad de arbitraje por parte de los agentes que cuentan con ventajas informacionales sobre las causas que explican la violación a los límites y no solo por imperfecciones del mercado. Entre estas ventajas destacan el conocimiento pormenorizado del movimiento de los precios de los activos líderes y el uso de técnicas pertinentes para aprovechar patrones de rachas y esquemas de lead-lag entre portafolios que comparten títulos comunes (ver, por ejemplo, Lo, 1997 y Campbell et al., 1997). De la misma manera, los conductualistas aseguran que no hay razón para creer que cuando los optimistas irracionales compran un título, los traders inteligentes (smartmoney) venden o viceversa para compensar los efectos nocivos de los primeros, tal como lo predice la HEM, pues los últimos no tienen el poder de estabilizar los precios en torno a los valores fundamentales (Goetzmann & Massa, 1999). De hecho, es probable que en lugar de disminuir el impacto negativo de los inversionistas ordinarios, los traders inteligentes lo amplifiquen debido al llamado efecto retroalimentador; esto es: que en lugar de vender, estos últimos decidan comprar títulos en anticipación a posibles incrementos en sus precios, con lo que la burbuja iniciada por los inversionistas ordinarios puede llegar a incrementarse al extremo de alejar, por un largo periodo, los precios de sus valores fundamentales.

Finalmente, existe la tercera opción, la más pesimista y ajena al análisis económico de todas, que niega toda posibilidad exitosa de realizar cualquier pronóstico sobre los precios debido a la existencia de Black Swans o eventos raros, de impacto extremo y de predictibilidad solo retrospectiva. Su principal expositor es N. Taleb, cuyo libro The Black Swan (2010) está dirigido a mostrar la inutilidad de la teoría financiera tradicional después de la crisis hipotecaria desatada entre 2007 y 2008 en EEUU. En el libro, Taleb sostiene que todo pronóstico no pasa de ser un ejercicio de adivinanza en virtud de que no es posible fundar ninguna teoría de los precios de los activos sobre eventos normales. En concreto, asegura que los modelos de predicción de la industria financiera están condenados al fracaso debido a que están diseñados para operar en un mundo gaussiano (Mediocristán), donde se minimiza el impacto provocado por los Black Swans, y no en un mundo mandelbrotiano (Extremistán) donde lo excepcional es parte de la práctica financiera. Es, de hecho, la resistencia de los analistas a abandonar el Mediocristán una de las razones principales que explican, según Taleb, las recientes quiebras bancarias y de fondos de inversión en el mundo, pues al confiar más en lo que saben (eventos normales) que en lo que ignoran (eventos raros), actúan como si el azar pudiera ser completamente domesticado6.

En consecuencia, la posición del autor es contraria a las dos anteriores en la medida que refuta la credibilidad de cualquier hipótesis fundada sobre el supuesto de que los precios de los activos son normales estacionarios, como en efecto sucede con los defensores de la HEM. Para Taleb, es imposible pronosticar los precios no porque el mercado sea eficiente o presente anomalías, sino simplemente porque estos son impredecibles en términos de normalidad. Cualquier ensayo de extrapolación del pasado con base en las desviaciones alrededor de la media de una distribución normal no deja de ser, para Taleb, una entelequia, pues los grandes cambios producidos por un evento extremo, que por definición es impredecible, pueden echar abajo cualquier posibilidad de arbitraje.

El objetivo de este documento es revisar de forma crítica los argumentos contenidos en The Black Swan en relación con el supuesto de normalidad-estacionaria y a los efectos previsibles de su eliminación sobre algunos aspectos prácticos de la predictibilidad de las variables financieras. Se trata de un objetivo que permite valorar la importancia del supuesto en las finanzas, así como entender el real impacto de las crisis sobre las técnicas tradicionales de predicción que asumen normalidad-estacionaria. Cabe aclarar que no interesa de ninguna manera hacer una exégesis de las ideas de Taleb sino, más bien, tomarlas como punto de referencia para explicar la trascendencia del supuesto de normalidad-estacionaria en el ámbito financiero, ya sea en épocas estables o de crisis.

El documento se divide en dos secciones adicionales. La segunda trata los conceptos fundamentales de incertidumbre y normalidad con el fin de esclarecer el significado de predictibilidad en finanzas y los usos y violaciones del supuesto de normalidad estacionaria.La tercera sección, por su parte, centra la discusión en torno a las características de las anormalidades presentes en las distribuciones empíricas de los rendimientos y su eventual tratamiento. Las conclusiones finalmente presentan un breve análisis sobre los Black Swans y sus efectos en la práctica financiera.

Viejos vinos en nuevos odres

Los argumentos de Taleb no son, de ninguna manera, novedosos aunque sí inusualmente alarmistas.Tienen al menos 350 años de existencia y forman parte de una larga discusión que afecta a todas las ciencias usuarias de variables aleatorias en sus análisis. De hecho,con excepción del bautizo de Black Swans a los outliers y de la descripción hecha sobre los dos mundos aleatorios, no hay nada revolucionario en las ideas del escrito. El impacto del libro radica más bien en el buen estilo ensayístico del autor y en su gran sentido oportunista de volver a discutir dos temas centrales a la ciencia en una época signada por la crisis financiera: nos referimos al asunto de la predictibilidad bajo incertidumbre y a la importancia del supuesto de normalidad-estacionaria en la explicación del azar.

Los dos temas han llenado, por años, miles de páginas en matemática, física, economía, biología y finanzas y aún hoy en día es difícil prever su agotamiento. La historia del primero inicia en 1654 con los intentos de Pascal y Fermat por resolver el famoso problema del juego inconcluso y continúa, en una línea que no parece tener límites, con los desarrollos modernos de la teoría del caos y de los procesos estocásticos (para mayor información, véase: Devlin, 2008; Ekeland, 2009; Ott, 2002 y Simiu, 2002). El segundo tema, en cambio, es más reciente y sus comienzos se ubican en la década de los años sesenta del siglo pasado con los trabajos de Mandelbrot, Fama y Samuelson y alcanza su punto culminante con los recientes modelos econométricos y de finanzas matemáticas (Rydberg, 2000).

Predictibilidad bajo incertidumbre

Con respecto al primer gran tema cabe decir que cuando algunos autores afirman que el futuro es impredecible es porque asocian los eventos raros o extremos con una clase especial de incertidumbre, denominada knightiana, que convierte al pronóstico en un ejercicio desprovisto de cualquier elemento conocible en el pasado; esto es: convierte a las probabilidades en un instrumento estéril para proyectar el comportamiento de las variables aleatorias en el futuro7. El problema es que, para fundamentar esta clase de aseveraciones, es necesario demostrar que los eventos normales no generan incertidumbre o, al menos, que esta es despreciable en relación con aquella producida por los eventos raros o extremos.Y la tarea no es nada sencilla, sobre todo si consideramos que ni siquiera entre los físicos –la tierra original del concepto– hay consenso sobre el significado de incertidumbre y que avances recientes muestran que "el futuro" es mucho más que un juego de dados o un estado nebuloso8.

Entonces: ¿cuándo es justificado hablar categóricamente de incertidumbre y eventos extremos como si fueran términos intercambiables? Cuando el futuro es visto en forma tan monolítica y estrecha como Taleb, ya que si ampliamos la perspectiva, las cosas pueden cambiar. Y para eso hay que tener en cuenta, primero, que además de incertidumbre knightiana, la ciencia considera relaciones causales, azar probabilístico y no probabilístico (lógica difusa), caos y accidentes para predecir el comportamiento de partículas, conductas humanas o procesos biológicos (Bunge, 2008), y, segundo, que es la peculiaridad de cada disciplina científica la que privilegia el uso de determinadas relaciones con mayor o menor intensidad.

En el caso de las finanzas es evidente que, debido a la naturaleza eminentemente aleatoria de sus variables, no tiene sentido establecer relaciones deterministas o accidentales para realizar estimaciones, por ejemplo, del valor en riesgo –aunque la suerte pueda jugar a veces un papel importante–;para tal efecto es necesario construir ciertas "cantidades", como el riesgo y los rendimientos esperados, con estructuras topológicamente medibles que permitan fundamentar relaciones estocásticas –o difusas– incluso en presencia de caos. La tarea no es nada fácil, en especial por dos razones: la primera porque, contrario a lo que creen autores como Taleb, el pronóstico de esas "cantidades" no está garantizado ni siquiera para el caso de los eventos normales, pues basta que la serie exhiba la propiedad de juego justo, esto es que el proceso estocástico sea una martingala, para que sea imposible extrapolar su comportamiento futuro con base en la tendencia de los datos pasados; y la segunda porque, no obstante la alta propensión de las "cantidades" financieras a generar distintas clases de caos, no siempre es posible predecir su regularidad estocástica, independientemente de que uno pueda contar con atractores extraños o mapas de Poincaré para descubrir posibles patrones. En otras palabras: solo en contadas ocasiones es factible establecer las condiciones de ocurrencia de transición de Melnikov a estados caóticos y, por tanto, ponderar su evolución futura (para más detalles, véase Simiu, 2002).

En consecuencia, la decisión de llevar a cabo el pronóstico de una "cantidad" financiera no puede ser vista como un asunto dicotómico –no con eventos extremos, sí con eventos normales– sino como un proceso basado en el cumplimiento de ciertas condiciones matemáticas y financieras que justifiquen la validez de los resultados. En particular se espera que las "cantidades" del pronóstico sean, entre otras cosas: F-medibles, estadísticamente independientes, libres de trayectorias caóticas o tiempos característicos y, sobre todo, conceptualmente robustas, en el sentido de que sus resultados incorporen el conocimiento cualitativo del mercado. De lo contrario, el pronóstico perdería su función esencial de ser un instrumento de decisión, conceptual, diseñado para arrancarle al azar la parte de regularidad probabilística no caótica que determinadas "cantidades" financieras muestran en su calidad de eventos normales o raros.

Este último punto es de la mayor importancia porque involucra dos aspectos ampliamente debatidos en la literatura y que tienen que ver con la elección de las variables que asegura la predictibilidad de las cantidades financieras, en particular de los rendimientos, y los criterios que garantizan la mejor estrategia de inversión futura. Sobre el primer aspecto, Fama (1991) señala que los estudios empíricos más representativos buscan resaltar el carácter pronosticable de los rendimientos mediante la constatación de la HEM en sus vertientes débil, semi-fuerte y fuerte. La idea en cada caso es demostrar que la hipótesis de rendimientos constantes supuesta por la HEM no es válida cuando se comprueba que los rendimientos pasados, el margen de dividendos y otras variables relacionadas con la estructura de tasas de interés son buenos predictores de los rendimientos actuales (prueébil), los precios de los títulos reaccionan rápidamente a los anuncios o eventos críticos (prueba semi-fuerte) o la información privada de algunos inversionistas es decisiva para realizar arbitraje (prueba fuerte).

Las conclusiones, algo polémicas, apuntan a que los resultados más promisorios en épocas estables para asegurar la predictibilidad de los rendimientos más allá de los valores fundamentales están vinculados con la prueba débil de la HEM, pues las otras dos versiones muestran resultados poco convincentes para rechazar la HEM; esto es: muestran que los precios tienden a ajustarse eficientemente a la información específica de la empresa y que las ventajas procedentes de información privada son raras y poco relevantes para realizar arbitraje.

De este modo, solo las pruebas de corto y largo plazo sobre la HEM débil revelan que la predictibilidad de los rendimientos tiene componentes adicionales a los dividendos y tasas de interés. En concreto, las pruebas para datos de corto plazo señalan que los rendimientos pasados explican el comportamiento de los rendimientos diarios y semanales de manera confiable pero diferenciada; es decir que mientras para acciones individuales los coeficientes de autocorrelación son negativos pero pequeños, para portafolios diversificados estos son mayores y positivos, en particular para portafolios de empresas pequeñas (Lo y Mackinlay, 1988). La situación para datos de largo plazo es ligeramente distinta pues, además de que hay evidencia de una fuerte auto correlación negativa en rendimientos de 2 a 10 años, los resultados avalan el hecho de que hay un mayor peso explicativo de otras variables como las razones dividendos-precios (D/P), ganancias-precios (G/P) y el margen por default de bonos con alto y bajo nivel de calificación. Fama y French (1989) y Chen (1991) estiman que estas variables explican alrededor del 5% de la varianza de los rendimientos mensuales y entre el 25% y 30% de la varianza de los rendimientos de 2 a 5 años.

Todas estas conclusiones parecen perder su validez, sin embargo, con el advenimiento de las crisis financieras ya que, como es de esperarse, los parámetros o variables que sirven de apoyo a los pronósticos se vuelven inestables. Pero, contrario a los argumentos de Taleb, las razones de la inestabilidad no son nebulosas, intempestivas o provocadas por el uso de técnicas gaussianas. Son producto de un continuado proceso de hechos que, al acumularse en el tiempo, cambian racionalmente la visión original de los inversionistas sobre el valor de las Bolsas de valores, como en efecto sucedió con las crisis de octubre de 1987 y la reciente crisis hipotecaria de 2007-2008.

Por ejemplo, en la crisis de 1987, el alza de las tasas de interés de los bonos del tesoro de 9% a 10,5% en los meses anteriores a octubre, y un cúmulo de eventos que aumentaron la percepción del riesgo de los inversionistas (como los anuncios sobre la fijación del impuesto a las fusiones y la depreciación del dólar) terminaron por precipitar la caída en una tercera parte de los precios de los títulos financieros en Estados Unidos (Malkiel, 2003). De la misma forma, en el caso de la crisis actual esa percepción del riesgo se incrementó por la acción combinada de cuatro causas básicas que se pueden resumir en los siguientes apartados9: a) gran bursatilización de activos tóxicos y no tóxicos debido a periodos prolongados de tasas de interés reales y nominales bajas, excesiva liquidez y políticas monetarias y fiscales laxas en EEUU; b) debilitamiento de la disciplina de mercado causado por los conflictos de intereses entre las agencias calificadoras, insuficiente transparencia en la información publicada, inconsistencias en las reglas contables y una estructura de remuneraciones orientada a obtener mayores ganancias inmediatas (sin calcular los riesgos involucrados en plazos intermedios); c) un apalancamiento sin precedentes por parte de intermediarios, hogares y empresas derivado de las innovaciones financieras y el crecimiento desproporcionado de la intermediación financiera no regulada, y d) insuficiente supervisión de las entidades financieras globales ocasionada por la complejidad de sus operaciones, multiplicidad de sus contrapartes y fragmentación excesiva de las entidades regulatorias.

Las posteriores alzas en las tasas de interés y en las razones de dividendos para compensar el aumento en la percepción del riesgo y los problemas de liquidez explican, en buena medida, las resultantes caídas en los precios de las bolsas durante esos episodios. No son, pues, hechos intempestivos o sorpresivos (como lo sugiere un Black Swan) que no hayan sido detectados por las técnicas de "análisis gaussiano": son, más bien, respuestas racionales de agentes que operan en un mercado especulativo en el que se relajan los controles sobre el riesgo. Las crisis estallan cuando la acumulación de eventos impide operar con ese nivel de riesgo y se vuelve necesario montar otro marco institucional en el que disminuya la percepción del riesgo de los agentes.

Ahora bien, el hecho de predecir estadísticamente los rendimientos no garantiza, por sí solo, la realización de un arbitraje. Para eso es necesario diseñar una estrategia de inversión específica (que es, como lo anotamos arriba, el segundo punto más debatido en la literatura) que incluya los costos de transacción o el grado de aversión al riesgo del inversionista ya que, de lo contrario, se puede llegar a juicios equivocados sobre las ganancias previstas inicialmente por la predicción.Y es que la existencia de ciertos factores idiosincrásicos o ambientales, como la distinta estacionalidad de los rendimientos de los activos, la influencia de los anuncios de pérdidas o ganancias sobre los precios de algunos títulos o los cambios experimentados por las instituciones y los negocios, puede echar por tierra las ganancias originalmente previstas en el pronóstico.

El llamado de atención es particularmente importante porque las supuestas tendencias en los rendimientos son, por lo general, atribuibles a causas momentáneas, no permanentes, en la dinámica de los precios. Malkiel (2003), por ejemplo, sostiene que la presencia de correlación entre los rendimientos, causante del rechazo de la caminata aleatoria tipo III, puede deberse a ajustes extemporáneos del mercado o a simples ejercicios de data minning por parte del analista, por lo que no es correcto asegurar que esto implique necesariamente la violación de la hipótesis de eficiencia débil de los mercados financieros. En concreto, el autor señala que la correlación entre los rendimientos puede ser producto de una reacción tardía por parte de las acciones de menor capitalización a las buenas noticias registradas por las acciones de mayor capitalización o de ajustes momentáneos a las variaciones experimentadas por las tasas de interés. De esta manera, los pronósticos exitosos no pueden ofrecer posibilidades de arbitraje al inversionista más que en aquellos momentos cuando ocurran dichos ajustes. En el resto el tiempo, la mejor estrategia de inversión es la que respete la hipótesis de la eficiencia débil de los mercados.

El supuesto de normalidad estacionaria en la explicación del azar

En relación con el segundo gran tema tratado por Taleb hay que señalar que la práctica cotidiana de estimar las medidas financieras con base en técnicas que descansan sobre el supuesto de normalidad estacionaria, y que tanto critica el autor, se fundamenta en dos razones. La primera es que, como consecuencia del Teorema del Límite Central, se supone que los momentos de las distribuciones empíricas convergen estacionariamente a los de una normal teórica a medida que se incrementa el número de observaciones. De esa manera se identifica, por ejemplo, a la media y desviación estándar de una distribución normal con el rendimiento esperado y el riesgo de un activo, respectivamente, considerando que los incrementos de los dos primeros momentos de las distribuciones empíricas presentan cambios temporales estadísticamente despreciables en muestras progresivamente grandes.

La segunda razón es que al ser los eventos normales susceptibles de cumplir con el requisito de regularidad probabilística, no hay nada mejor que utilizar los fundamentos estadísticos de la distribución normal para predecir su comportamiento10. No se puede anticipar más que lo que presenta regularidad y ese apotegma es aplicable, incluso, a situaciones en las que privamoriginalmente la ausencia de normalidad estacionaria. Los esfuerzos orientados a desarrollar,por ejemplo, métodos alternativos que ayuden a explicar los comportamientos anormales de las variables financieras no abandonan del todo los principios de normalidad, ni siquiera en la formulación de ciertos supuestos clave. La búsqueda de la regularidad probabilística en finanzas es tan fuerte que es común usar fórmulas de convolusión cuyas funciones conjuntas de densidad mezclan variables aleatorias que experimentan saltos (eventos raros) con otras que exhiben volatilidad regular (eventos normales).11.

El supuesto de normalidad se explica en principio,pues,por la necesidad de escapar a la incertidumbre knightiana. Los afanes por medir los cambios impredecibles de las cantidades financieras con base en conceptos normales como el tamaño esperado del evento o, en situaciones de shocks, con exponentes de correlación que incluyen ruido gaussiano (o ruido blanco) para distinguir la presencia de diferentes clases de caos, no son más que intentos de proveer de estructura probabilística a fenómenos que en el pasado eran considerados estadísticamente intratables12.

Aunado a esta necesidad de regularidad, el supuesto de normalidad estacionaria es también,crucial para explicar el comportamiento de algunos eventos financieros en situaciones extremas y, en particular, para probar la eficiencia del mercado y el desempeño de los modelos de precios de algunos activos, como los de varianza-covarianza. En lo que corresponde al primer punto, se sabe, por ejemplo, que las distribuciones empíricas de los rendimientos de las acciones presentan ligeros sesgos negativos durante las crisis y no positivos, como es la situación dominante en periodos regulares,porque los traders tienden a reaccionar más decididamente a las noticias negativas que a las positivas en situaciones de emergencia; y mayor leptocurtosis en épocas de auge y recesión porque los portafolios que incluyen rendimientos mayores son más sensibles que los demás a los cambios bruscos registrados en los precios de los activos líderes (Rydberg, 2000).Es decir, se tiene conocimiento de las conductas extremas de los rendimientos como resultado de comparar los comportamientos de series de variables independientes e e idénticamente normales (iid normal) con los de otras que no lo son. Por eso es común hoy en día esperar cierto exceso de curtosis en mercados delgados y parámetros no estacionarlos en datos de alta frecuencia.

El segundo punto es, también de gran importancia, debido a que las pruebas de eficiencia de mercado y de algunos modelos de fijación de precios de amplia difusión en la literatura financiera son altamente sensibles al supuesto de que los precios o los excesos de los rendimientos son variables aleatorias iid normales. Como se vio en el anterior apartado, los mercados son eficientes si los precios convergen a un valor esperado y su volatilidad está contenida dentro de ciertos límites medidos por la varianza. Esto quiere decir que los errores de pronósticos deben distribuirse en forma normal para que los precios reales se conviertan en la media de los precios racionales dentro de un rango de variación determinado. Como consecuencia, las pruebas de rechazo a las variantes de la HEM consisten, en buena medida, en verificar el grado de anormalidad de los rendimientos en términos de sesgos y curtosis13.

Una situación similar ocurre con el procedimiento de fijación de precios donde las pruebas exigen normalidad no solo al modelo que los determina sino al instrumento que mide su desempeño. La razón de esa exigencia deriva de algunos estudios hechos para varios países en los que se revela que los valores de las probabilidades de los índices basados en el supuesto de normalidad son significativamente diferentes a los registrados por aquellos índices de prueba que no adoptan el supuesto (Groenewold & Fraser, 2001). De ahí que la violación del supuesto de normalidad afecta no solo el proceso de fijación de precios de modelos como el CAMP o APT sino, también, la verosimilitud de los índices empleados en la comprobación de sus estimaciones.

En el intento de corregir estas fallas de medición se han revitalizado algunas técnicas tradicionales ya sea para considerar situaciones ajenas a su diseño original –como incorporar sesgo y leptocurtosis en las medidas de valor en riesgo (VaR) (véase Hull y White, 1998)– o para introducir nuevas formas de normalidad en el comportamiento de las variables financieras como acontece, por ejemplo, con los modelos aditivos o multiplicativos de precios que incluyen movimientos brownianos. Sobre este último tema hay una extensa literatura relacionada con las mejoras a la capacidad predictiva de modelos como el de Black and Scholes o de Samuelson, que consideran que los logaritmos de los precios de los activos se comportan, bajo ciertas condiciones de normalidad,como una solución a la ecuación diferencial estocástica.

Donde p(t) es el nivel de precios tomado como un proceso integrado; {u + βσ2}dt el drift y σdw(t) el término de renovación generado por el movimiento browniano estándar w(t) (Barndorff- Nielsen & Shephard, 2001). Las mejoras a (2) surgen porque al agregar los rendimientos Rn sobre un intervalo Δ de la forma descrita en (3), estos no se ajustan a los supuestos de los modelos para datos financieros usados en la práctica; es decir los rendimientos no resultan normales ni se distribuyen independientemente con media uΔ + βσ2 Δ y varianza σΔ2.

En atención a estas violaciones se han desarrollado diversos métodos de ajustes a las ecuaciones de media y varianza basados en la familia de modelos Garch y de volatilidad estocástica (VE) con la idea de restablecer las propiedades originales de (2). En particular se han utilizado modelos del tipo Ornstein-Uhlenbeck (ou) en los que se asume que el log{σ2(t)} sigue un proceso gaussiano (modelos geométricos ou) o érmino de renovación es generado por un browniano fraccionario (modelos ou con volatilidad sujeta a elasticidad constante) en lugar de un browniano estándar.

Pero aun cuando esta clase de esfuerzos dirigidos a mantener el supuesto de normalidad estacionaria es notable, no siempre resulta suficiente para un análisis financiero adecuado. Y es que hay una cantidad de anormalidades bien documentadas en las distribuciones empíricas de los rendimientos que no admiten una solución satisfactoria y que limitan fuertemente la capacidad de predicción del supuesto. Entre estas anormalidades, la literatura destaca seis características que entran en conflicto con los presupuestos de la normal teórica y que se relacionan con la existencia de leptocurtosis (colas gordas o pesadas), diferentes clases de asimetría con patrones diversos de correlación rezagada, volatilidad grupal, falta de agregación gaussiana, dependencia de largo rango y estacionalidad (Case, 1998 y Rydberg, 2000).

La presencia de estas características en una distribución empírica y su tratamiento dependen, en buena medida, de la naturaleza de los datos financieros. Para datos diarios o de baja frecuencia, la detección de cada una de las características está, por lo general, bien tipificada y su análisis se lleva a cabo con métodos de las finanzas matemáticas (para fijación de precios de derivados) o de la econometría (para pronósticos) en los que los momentos de las distribuciones de probabilidad son derivables. En cambio para datos de alta frecuencia o intra-diarios no siempre es posible identificar su influencia, en parte, porque los métodos aún están en desarrollo y, en parte, porque es común encontrar distribuciones de probabilidad con algunos momentos sin especificar (Case, 1998 y Rydberg, 2000).

Características y tratamiento de las distribuciones empíricas anormales

El problema de colas gordas y el carácter interrelacionado de las anormalidades

La identificación y tratamiento de cada una de las características anormales supone, al menos, dos obstáculos. El primero es su interrelación; eso es: ninguna se presenta, por lo general, aislada o al estado puro y eso crea mucha interferencia en las estimaciones directas. El segundo obstáculo es que los métodos estadísticos usados para tratar algunas de las anormalidades de las distribuciones empíricas, y que regularmente se conocen como procesos estocásticos alternativos, no garantizan la corrección completa de las otras características anormales. Hay procesos estocásticos, por ejemplo, que tratan el sesgo y la leptocurtosis pero no la volatilidad grupal, mientras que otros son más eficientes en considerar la asimetría que la correlación de largo rango o la estacionalidad. De aquí que la elección de determinado proceso estocástico implica un grado de penalización que, en ocasiones, puede agravar aún más la distorsión no normal de las distribuciones empíricas.

No obstante la importancia de cada una de las características, hay una que ha recibido la mayor atención por encima de todas y que es conocida con el nombre de problema de colas gordas o anchas (distribuciones leptocúrticas con sesgos). De hecho, este problema es visto como sinónimo de violación del supuesto de normalidad estacionaria, por dos razones: 1) por la insuperable cantidad de métodos que se han construido a partir de su eventual tratamiento y 2) por constituirse en punto de partida para tratar las otras características anormales de las distribuciones empíricas. En este sentido, la historia de las críticas al supuesto de normalidad-estacionaria arranca cuando Mandelbrot (1963) y Fama (1965) encontraron que la distribución de los rendimientos del índice accionario Dow Jones tenía colas que decrecían a una tasa menor que la prevista por una distribución normal teórica, e(–x2). Desde entonces, diversos autores han sugerido infinidad de soluciones para enfrentar la leptocurtosis y el sesgo, así como otras anormalidades relacionadas con estas. El mismo Mandelbrot propuso hace más de cuarenta años que la solución era construir una distribución con ley estable y sin segundo momento en la que no había más correspondencia entre el riesgo y la desviación estándar14. Algunos de sus seguidores, entre ellos Taleb, han ido más allá al considerar que el asunto no termina con la sustitución parcial de la distribución normal sino con su eliminación completa del análisis financiero, pues las anormalidades profundizan la ya marcada tendencia a subestimar las probabilidades de los eventos no normales.

Los resultados más recientes sostienen, por su parte, que debido al exceso de curtosis y sesgo de las distribuciones de los rendimientos: 1) la convergencia de los parámetros teóricos y empíricos ha probado ser alta solo para datos mensuales, por lo que la hipótesis de normalidad para datos diarios o de alta frecuencia resulta insostenible en la práctica financiera, y 2) las resultantes variaciones de las medias y varianzas de las distribuciones de los rendimientos a través del tiempo hace inútil cualquier intento por suponer estacionariedad en las series. Ambos resultados han motivado la aparición de otra generación de métodos orientada a tratar casi exclusivamente series anormales y no estacionarias de datos de alta frecuencia, con el fin de lograr mejores precisiones en el cálculo de valor en riesgo (VeR) o en la fijación de precios (Ramírez, 2004).

Tratamiento estadístico y conceptual de las anormalidades

Los esfuerzos dirigidos a resolver el problema de la falta de normalidad estacionaria de las series de rendimientos diarios se caracterizan por ser muy extensos y diversos,ya que abarcan desde recomendaciones menores hasta el uso de instrumentos estadísticos muy complejos.Entre los intentos iniciales más exitosos en esta dirección destacan los trabajos de Risk Metrics (1996) que proponen métodos de pronósticos específicos en los que se contemplan abiertamente los cambios temporales en las medias y las varianzas de las series. Uno de esos métodos es el de Mezcla de Normales, cuyo objetivo es determinar si dos o más normales son capaces de estimar el sesgo y el exceso de curtosis que no son captados por una sola distribución normal.

La mezcla de normales es introducida usualmente como procedimiento alternativo para capturar de manera más eficiente la falta de simetría y exceso de curtosis en el cálculo del VeR con intervalos de confianza del 95% y 98% (Zangari, 1996). Su mayor eficiencia reside en el hecho de que ataca el problema de falta de normalidad estacionaria al considerar que los sesgos y excesos de curtosis obedecen a variaciones en la media y la varianza de las distribuciones empíricas. En general se supone que los sesgos y excesos de curtosis son debidos a desplazamientos de sus parámetros entre un número finito de valores, ocasionados por cambios en la estructura de capital, eventos exógenos al mercado (desplazamientos de tiempo ordenado) o por la mayor varianza de los rendimientos en algunos días de la semana (desplazamientos cíclicos). La persistencia con que los primeros desplazamientos explican el sesgo y los segundos el exceso de curtosis, demanda, pues, la utilización de modelos como el de mezclas de distribuciones que incorporen cambios en la media y varianza15.

Otros métodos incluyen el uso de distribuciones alternativas a la normal, procesos de Ito y de Levy, modelos de volatilidad estocástica, modelos tempo-dependientes y, por último, pero sin que sean los únicos restantes, los procedimientos basados en la teoría de valores extremos. Cada uno de ellos se concentra en resolver determinados problemas que otros no consideran o resuelven parcialmente.Por ejemplo, para medir el poder descriptivo de la mezcla de distribuciones, las pruebas estadísticas incluyen una comparación con la distribución t de Student, porque se considera que esta captura más valores extremos que una normal pero no la combinación de los desplazamientos cíclicos y estructurales, o de tiempo ordenado, de los parámetros de la distribución (Kim y Kon, 1994). Del mismo modo, se usan, por un lado, diversos procesos de Ito mixtos, como el de difusión con saltos o el de cadenas de Markov de primer orden con caminatas aleatorias para ajustar series de gran volatilidad con picos esporádicos y pronósticos de rendimientos que no asumen normalidad en las series, respectivamente; y, por otro lado, modelos heteroscedásticos y funciones de variación regular para elaborar pronósticos sobre las series leptocúrticas que otros métodos no pueden realizar en presencia de volatilidad grupal y valores extremos.

De esta lista destacan, como ya señalamos arriba, los modelos del tipo Garch por su popularidad y capacidad para atacar en forma conjunta varias anormalidades y en concreto porque permiten: a) restablecer las propiedades de ruido blanco de las series estacionarias al tratar directamente su problema de estructura provocada por la leptocurtosis; b) modelar flexiblemente los cambios en la media y la varianza atribuidos a la leptocurtosis con especificaciones que hacen explícitas la volatilidad grupal, apalancamiento y determinadas variables ligadas con el medio ambiente económico del mercado; c) hacer ajustes confiables de series leptocúrticas con modelos parsimoniosos que incluyen pocos parámetros, y d) pronosticar las volatilidades de los rendimientos y sus correlaciones con estimaciones que confieren mayor ponderación a la información reciente.

Pero no obstante su amplia aceptación y difusión, algunos autores han mostrado cierta reserva sobre la práctica heredada de aplicar, en forma irrestricta, modelos tipo Garch a distribuciones empíricas no normales de rendimientos por dos motivos (Ramírez, 2001). El primero es que los modelos que asumen normalidad en los errores pueden mostrar un desempeño más pobre que los modelos Garch que incorporan familias de distribuciones no normales en los errores. Ramírez (2001), por ejemplo, encuentra que la raíz del error cuadrático medio (root mean square error o RMSE) es mucho mayor para los estimadores de la pendiente y de los parámetros del proceso Garch-Normal que para los Garch-no Normales, en particular cuando se utiliza el seno hiperbólico inverso como estimador de la verdadera distribución de los errores. La potencial ineficiencia de los estimadores de los Garch-Normales puede traducirse en un número mayor de rechazos no garantizados del modelo Garch que, a la postre, impediría identificar la correcta estructura de autocorrelación de los errores. Como consecuencia, es probable que los errores estándares obtenidos con el Garch-Normal subestimen los verdaderos errores estándares para la pendiente y los parámetros del proceso y eso invalide cualquier prueba estadística obtenida con base en esos errores. De aquí que sea menester comprobar que los resultados estadísticos representen adecuadamente los verdaderos errores distribucionales; o, dicho más precisamente, que los estimadores de los errores sean estadística-mente eficientes en términos de los verdaderos parámetros distribucionales.

El segundo motivo está relacionado con la forma particular que deben asumir las ecuaciones de la varianza del proceso. Como se sabe, la especificación de σ2 es esencial para modelar correctamente una serie de tiempo acusada por anormalidades y, por lo mismo, hay que tener cuidado en verificar si las ecuaciones de varianza se desempeñan igual de bien que otros modelos estadísticos ensayados con éxito. En especial resulta importante llevar a cabo: (a) una comparación de desempeño de eficiencia, mediante algún criterio de información, entre los procesos Garch y otros más específicos para series sesgadas y leptocurticas, como los de volatilidad estocástica (VE), y (b) un análisis detallado de los agrupamientos de volatilidad que permita obtener una mejor especificación del modelo.

En lo que corresponde al inciso (a), la literatura recomienda utilizar los modelos de VE que utilizan procesos no gaussianos como una alternativa deseable de contraste con los modelos Garch ya sea porque conservan muchas propiedades comunes con estos (lo cual facilita la comparación) o por su gran ductilidad en tratar distribuciones asimétricas y colas gordas (Barndorff-Nielsen & Shephard, 2001). Entre estos procesos destacan los de OU que son del tipo Levy por su cualidad de generar estima-dores eficientes en ausencia de normalidad. La comparación, sin embargo, no debe ser arbitraria sino, como lo señala el inciso (b), tiene que considerar los periodos de tiempo en los que las volatilidades se concentran para obtener una información más precisa sobre las causas de la leptocurtosis.Y en este punto la aplicación de una transformada de ondeleta (wavelets) con su respectivo filtro sería de mucha utilidad en la tarea de especificación de la ecuación de la varianza, sobre todo porque permitiría confirmar los tiempos específicos cuando la distribución de los rendimientos acusa mayor volatilidad (Gaussianidad-agregativa). Los estudios empíricos señalan consistentemente que la varianza de la ondeleta es variable para distintos niveles de resolución y, en concreto, tiende a ser mayor para escalas menores de tiempo (Ramsey, 2002).

¿Qué conclusión alcanzamos con todas estas recomendaciones? Que en realidad la lista de métodos es muy extensa y que los resultados no son muy concluyentes debido a que la elección de un método estadístico que ataque el problema, digamos, de colas gordas, no necesariamente garantiza la mejor información posible, pues es muy probable que la explicación se halle, también, en el hecho de que étodo aceptado haya resultado menos castigado que otros por el bajo volumen de transacciones realizadas o por la falta de información disponible para la estimación eficiente de sus parámetros (Ramírez,2004). Del mismo modo, no hay criterios a priori para discriminar entre dos especificaciones econométricas lineales y no lineales que son igualmente eficientes pero que incluyen variables distintas. ¿Cuáles son los límites estadísticos en la elección de alguna especificación? ¿Es irrelevante la información del modelo rechazado? ¿Es superior un modelo que trate mejor el problema de colas gordas pero que elimine variables claves para la administración de riesgos? Las respuestas no son, de manera alguna, fáciles.

El problema de elección parece escapar, pues, del ámbito meramente estadístico y confinarse en el mundo conceptual del investigador que quiere encontrar patrones de predicción o del administrador de riesgos que busca armar una estrategia de inversión. De ahí que la adopción de un método estadístico que trate las anormalidades de las distribuciones empíricas de rendimientos consista, más bien, en un proceso de decisiones que va más allá de los criterios de eficiencia estadística. Pero cualquiera que sea la conclusión del investigador o del administrador, ambos tienen que elegir el modelo que genere la información de mayor calidad que conduzca a explicar las causas de la leptocurtosis o el sesgo. Y esto significa que nunca puede optar por un modelo estadísticamente inferior o que ignore las variables que están detrás de las anormalidades máxime si consideran un periodo de gran volatilidad.

Conclusiones

Los Black Swans y las anormalidades

Los dos grandes temas que sugiere la lectura del libro de Taleb (2010), esto es: predictibilidad bajo incertidumbre y la validez del supuesto de normalidad estacionaria, son esenciales para la construcción de una sólida práctica financiera. Sin su correcta solución, la disciplina económica, en general, y las finanzas, en particular, no pasarían de ser campos de abono para adivinos o magos, en los que no habría principios de regularidad ni fundamentos teóricos para operar un mercado financiero. De ahí que los esfuerzos por montar un aparato técnico y conceptual robusto en torno a ambos temas haya sido una preocupación central y permanente por miles de teóricos y practicioners que buscan sortear problemas de medición o fijación de precios en ambientes anormales y de gran volatilidad.

Por este motivo, la revisión de las críticas de Taleb son importantes, aunque no por las razones aludidas en el libro, para saber en qué punto se encuentra la disciplina y su eventual desarrolloépocas de crisis. Los apartados del texto sostienen que aunque se sabe mucho sobre predictibilidad de los precios, esto no garantiza la realización de arbitraje, pues solo en determinados casos es posible "vencer al mercado" con pronósticos basados en variables diferentes a los dividendos y tasas de interés. Asimismo, tén se sabe que el supuesto de normalidad-estacionaria con el que funcionan esos pronósticos no opera, por regla general, en la práctica y que, para subsanar el problema, se han desarrollado infinidad de técnicas y procedimientos abocadas a resolver las diferentes anormalidades.

Contrario a lo que sostiene Taleb, los principios establecidos durante periodos estables siguen funcionando aun en presencia de Black Swans pues, como lo anotamos en el texto, estos son explicados, en parte, por conductas racionales de agentes que ven alterada su percepción del riesgo. Los movimientos violentos de los precios obedecen, también, a variaciones de los fundamentales y a procedimientos conductuales extraordinarios que son inherentes a un mercado especulativo sujeto a diferentes escenarios de és. Los posteriores ajustes, incluso catastróficos, son explicables por principios económicos y financieros que rigen al mercado aunque no siempre sea posible predecir sus apariciones ni sus impactos.

Ahora bien, hay también una parte de la historia que tiene que ver con errores de regulación, supervisión y mezcla de intereses que hacen aparentemente impredecibles e inexplicables a las crisis y que, por tanto, reducen la capacidad predictiva de los modelos. En particular la crisis iniciada en 2007 ha puesto en evidencia claras fallas en los esquemas de control y la administración de riesgos que ha dado como resultado, además de quiebras y esquemas financieros fraudulentos, la destrucción de las bases normales sobre las que operaban tradicionalmente las técnicas de valuación y de medición del riesgo. Las prácticas escalables de "empaquetamiento" de bonos estructurados (CDO) o el conflicto de intereses desatado por el doble papel de las agencias calificadoras (como evaluadora y asesora de las emisoras), son factores que, hasta todavía hace poco, explicaban la creciente opacidad en la estimación del riesgo de las principales instituciones financieras del mundo. Si a esto agregamos la aparición de la Paradoja de Persaud en la mayoría de los mercados, entonces queda claro que la función del administrador de riesgos se vuelve crucial para armar estrategias de medición de riesgos o de valuación que hagan frente a los previsibles efectos en cascada del contagio16. Los Black Swan no siempre surgen, como cree Taleb, por generación espontánea pues, en su mayoría, son derivados de la misma actividad financiera, por lo que un buen administrador de riesgos debe saber interpretar sus señales y su curso.

Por todo esto es evidente que el abandono del mundo normal entraña riesgos gigantescos. No solo se pierde la "certeza" estadística que regularmente se les atribuye a los pronósticos de rendimientos o a las estimaciones del riesgo de mercado, sino que ahora sus cálculos parecen estar reñidos con la intuición económica. La consecuente sofisticación de los modelos de valuación, pronóstico y medición de riesgos se ha convertido, con el tiempo y la globalización, en un mal endémicoépoca de crisis. La reciente experiencia de las quiebras de los fondos de inversión (dirigidos, incluso, por economistas que han recibido el premio Nobel) o de las agencias hipotecarias y calificadoras norteamericanas es,en buena medida, fruto de la subestimación del riesgo y de la liberalidad con que se conducen estas entidades en su afán de especular, incluso,con activos tóxicos. En esos casos, la culpa no es de la falta de normalidad de las distribuciones sino de los que "reempaquetan" CDO o califican tramposamente la calidad crediticia de las emisoras de deuda.

No basta, pues, con hacer construcciones matemáticas y estadísticas monumentales para corregir los problemas de normalidad estacionaria que aquejan a las distribuciones, si el fondo del problema no es ni matemático ni estadístico. Los avances registrados en varios campos de los procesos estocásticos han dado buena cuenta de muchos de los problemas asociados con las colas gordas o la asimetría, pero nunca serán suficientes para prevenir los Black Swans mientras haya quien se beneficie de ellos. Los mundos leptocúrticos son animados por seres que tienen nombre y que gustan de refugiarse en el azar knightiano. Se localizan en grandes centros financieros y gubernamentales internacionales y, en aras del libre mercado, arman y desarman economías a discreción. A veces,incluso, son apoyados por escritores como Taleb que, al invocar a fuerzas ajenas a la conducta humana, explican las crisis financieras sin siquiera señalar a sus grandes oficinas.Y, así, los Black Swans en finanzas son vistos tan raros y naturales como los terremotos o los cambios geológicos.


Notas

1 Aun cuando la relación entre los precios y los rendimientos de los activos financieros es directa (pues estos últimos no son más que la diferencia de logaritmos naturales de los primeros), no es conveniente tomarlos como términos intercambiables, debido a que en la literatura sus análisis están claramente diferenciados. Hay trabajos en los cuales la distinción es inocua y otros en los que esta no es trivial, por lo que hay que tener cuidado en no hacer juicios simplificadores sobre sus vínculos.

2 Se define un mercado financiero eficiente como aquel en el que los precios de los activos financieros siempre reflejan por completo la información disponible (Shleifer, 2000). Con base en esta hipótesis, los mercados valoran adecuadamente los activos financieros y, por tanto, ningún activo podría transarse en el mercado por largos períodos de tiempo a precios inferiores o superiores a los determinados por los valores fundamentales relacionados con el mismo.

3 Otra manera de expresar la idea de la caminata aleatoria es que si la información, además de fluir continuamente, es reflejada de forma inmediata en los precios de los activos, entonces "los cambios en los precios del día de mañana reflejarán solo la información de ese día y serán independientes de los cambios en los precios del día de hoy. Pero ya que las noticias son, por definición, impredecibles, los cambios resultantes en los precios serán, también, impredecibles y aleatorios" (Malkiel, loc.cit.).

4 Los precios racionales ex post no son más que los precios constituidos por los valores fundamentales del activo (dividendos y tasas de interés) y, regularmente, son expresados como el valor presente descontado de los subsecuentes dividendos reales.

5 Las desviaciones surgen aun cuando haya una tendencia definida en las ganancias debido, entre otras razones, a la nueva expedición de deuda o a las recompras de activos por parte de las empresas. Marsh y Merton (1986) encuentran que el uso de dividendos como una fuente continua de capitalización para los negocios de los accionistas explica, en buena medida, la mayor volatilidad de los precios en relación con la de los dividendos.

6 Aunque Taleb no hace una distinción precisa entre eventos ordinarios y extremos, nosotros seguiremos la práctica establecida de diferenciar los eventos en normales y raros. Un evento raro se distingue de un evento normal en el "tamaño" y la probabilidad de ocurrencia. Mientras que el "tamaño" y la probabilidad de ocurrencia de un evento normal se hacen cada vez más pequeños a medida que disminuye el intervalo de observación h,con un evento raro las cosas son diferentes ya que al disminuir h su tamaño no se reduce. El impacto que produce es el mismo en un intervalo corto que durante todo el día.

7 Como se sabe, la noción de incertidumbre más usada en economía –y que es atribuida a Knight (1921)– se refiere al conjunto de situaciones en las que la aleatoriedad no puede ser expresada en términos de probabilidades matemáticas; por lo que cualquier evento aleatorio asociado con la incertidumbre knightiana es, por definición, un evento carente de estructural formal y, por tanto, probabilísticamente impredecible (Kwiatkowska y Szatzchneider, 2008).

8 En general se puede asegurar que el significado original de incertidumbre, relacionado con el principio de Heisenberg (esto es que ciertos pares de cantidades, como el momento y la posición de una partícula, no pueden ser conocidos simultáneamente) es aceptado. Pero cuando la discusión rebasa el ámbito teórico del principio el consenso se pierde, incluso entre los mismos físicos, no solo porque ahora es común ver nombrada a la incertidumbre de diferentes maneras (como inadecuación, imprecisión o indefinición) sino porque su presencia es indistintamente atribuida a causas tan disímiles como "la falta de conocimiento de una cantidad por el observador, […] la falla experimental en la medición de una cantidad, o la ambigüedad en la definición de una cantidad […]" (Kwiatkowska & Szatzschneider, 2008: 53). La extrapolación del concepto a otros campos de la ciencia no hace más que empeorar la situación ya que, en medio de un ambiente similar a la Torre de Babel, algunos filósofos, matemáticos y sociólogos gustan de asociar la incertidumbre con situaciones tan variopintas como la falta de conocimiento y el principio de incompatibilidad o de clasificarla en categorías tan exóticas como aleatoria y epistémica o probabilística –en el sentido clásico– y difusa (Walker et al., 2003 y Galindo, 2008).

9 La actual crisis estalla en agosto de 2007 al suspender el banco francés BPN Paribas sus operaciones de varios fondos de inversión debido a la imposibilidad de valuar algunos activos respaldados con hipotecas (que venían empaquetados en instrumentos estructurados con calificaciones sobreestimadas por las agencias internacionales). Sin embargo, es en septiembre de 2008 que la crisis se agudiza tras la intervención del gobierno norteamericano en el caso de las compañías hipotecarias Fannie Mae Y Freddie Mac y de la aseguradora AIG, así como en el caso de la quiebra de Lehman y Brothers. Los antecedentes se ubican a mediados de 2006 con el aumento en los índices de morosidad de las hipotecas norteamericanas de menor calidad, conocidas como subprime, después de observarse una fuerte caída en el precio de la vivienda en 2005.

10 Evidentemente, la aseveración puede incluir a cualquier otra distribución, discreta o continua, marginal o multivariada, adecuada para estudiar el fenómeno bajo consideración. El hecho de concentrarnos en la normal es solo para destacar su insuperable importancia en finanzas. No hay otra distribución en la literatura que, debido a su propiedades (agregación gaussiana, ductilidad en mezclas distribucionales y asintóticas) sea más utilizada que la normal para caracterizar los comportamientos de cualquier cantidad financiera.

11 En el número especial que la American Statistical Association dedicó a The Black Swan,Westfall y Hilbe (2007) señalan que hasta los mismos Black Swans deben cumplir con ciertas condiciones de regularidad para decidir si vale la pena preocuparse por ellos o no. En concreto formulan dos preguntas que no fueron atendidas por Taleb y que consideran cruciales para evaluar científicamente su propuesta: 1) ¿Qué condiciones de regularidad sobre determinada serie de tiempo son suficientes para asegurar que la estrategia de Black Swan es la estrategia preferida?; y 2) ¿Qué seguridad ofrece el autor para garantizar que esas condiciones de regularidad son satisfechas?

12 El tamaño esperado del evento es un concepto utilizado, muy a menudo, para medir los cambios impredecibles en el precio del activo y se define como σt√h. Esta desviación estándar está compuesta por la probabilidad del evento (medido en términos de σt) y su "tamaño". Una varianza proporcional a h puede ser obtenida ya sea por probabilidades que dependan de h, considerando el tamaño independiente, o por probabilidades que son independientes de h considerando el tamaño independiente. El primer caso corresponde a los eventos raros y el segundo, a los eventos normales (Neftci, 1996: 155-161). El estadístico, conocido como "exponente de correlación", es usado no solo para distinguir caos blanco de ruido blanco estocástico, sino también para diferenciar el caos de baja dimensión de los procesos estocásticos de alta dimensión. Dicho exponente conserva las propiedades de un estimador gaussiano (véase Liu, 1993).

13 Esta aseveración se basa en el hecho de que las propiedades límites de una caminata aleatoria son normales; esto es que "Cada caminata aleatoria Wn tiene la propiedad de que cualquier desplazamiento futuro de su posición inicial es independiente de donde se encuentre en el tiempo t (de hecho, es independiente de toda la historia de movimientos hasta ese tiempo). [Y como] además ese desplazamiento Wn(s + t) – Wn(s) está distribuido binomialmente con media cero y varianza t, [entonces tenemos que por el Teorema del Limite Central] … todos los marginales condicionales tienden a una distribución normal con la misma media y varianza" (Baxter y Rennie, 1997: 48).

14 La idea ampliamente extendida en esa época de que los precios de los rendimientos eran fractales llevó a distintos autores a utilizar distribuciones estables que mantuvieran la misma escala de probabilidades en valores promedios que en valores extremos de la distribución (principio inherente al concepto de fractal). En concreto se supuso, entre otros ensayos, que los precios de los activos eran mejor captados por la distribución no normal estable de Pareto, con exponente característico menor que 2, que por una normal. La evidencia mostró que los exponentes característicos de la distribución de la suma intertemporal para los rendimientos (individuales y del portafolio) aumentaba con el tamaño de la suma; lo cual era una abierta violación a la propiedad de estabilidad de la distribución de Pareto (véase Blattberg y Gonedes, 1974).

15 Con estos modelos el sesgo observado es explicado por desplazamientos en la media y las colas gordas por los desplazamientos en la varianza (Kon, 1984).

16 De acuerdo con esta paradoja, los modelos sofisticados financieros han contribuido al aumento del riesgo porque consideran criterios similares para balancear los portafolios (una especie de riesgo modelo). Esto provoca, por mecanismos de oferta y demanda, que las carteras que regularmente han tenido un comportamiento histórico de alto rendimiento, baja volatilidad y reducida correlación, se conviertan en carteras con rendimientos negativos, alta volatilidad y elevada correlación (para una discusión más amplia sobre la paradoja de Persaud y otros puntos conexos véase Banco éxico, 2009).


Referencias

Barndorff-Nielsen, O. & Shephard, N. (2001). "Non-Gaussian Ornstein-Uhlenbeck-Based Models and Some of Their Uses in Finance", en Journal of the Royal Statistical Society. 63 (2), pp-167-241.

Baxter, M. & Rennie, A. (1997). "Financial Calculus. An introduction to derivative pricing", en Cambridge University Press, Cambridge, UK.

Blattberg, R.C. & Gonedes, N.J. (1974). "A comparison of stable and student distributions as statistical models for stock prices", en Journal of Business, 47 (2) pp. 244-280.

Bunge, M. (2008). Tratado de filosofía. Vol. I Semántica 1: sentido y referencia. Barcelona: Gedisa.

Campbell, J.; Lo, A. & Mackinlay, G. (1997). The Econometrics of Financial Markets. Princeton: Princeton University Press.

Case, J. (1998). "Modeling and Analysis of Financial Time Series", en The American Mathematical Monthly, 105 (5), pp. 401-411.

Cochrane, J. (2001). Asset Pricing. Princeton: University Press.

Cochranne, J. (2008). "The dog that did not bark: a defense of return predictability", en The Review of Financial Studies, 21 (4), pp. 1.533-1.575.

Devlin, K. (2008). The unfinished game. New York: Basic Books.

Ekeland, I. (2009). El caos. México: Siglo XXI Editores.

Fama, E. (1965). "The behavior of stock market prices", en Journal of Business, 38, pp. 34-105.

Fama, E. (1991). "Efficient Capital Markets: II", en The Journal of Finance, 46 (5), pp. 1.575-1.617.

Fama, E. & French, K. (1989)."Permanent and temporary components of stock prices", en Journal of Political Economy, 96, pp. 246-273.

Galindo, J. (2008). Conjuntos y sistemas difusos (Lógica difusa y aplicaciones). Málaga: Departamento de lenguaje y ciencias de la computación. Universidad de Málaga, 42 p.

Goetzmann, W. & Massa, M. (1999). Daily momentum and contrarian behavior of index fund investors. Unpublished paper, Yale University.

Groenewold, N. & Fraser, P. (2001). "Test of asset-pricing models: how important is the iid normal assumption?", en Journal of empirical finance, 8, pp. 427-449.

Hull, J. & White, A. (1998). "Forward rate volatilities, swap rate volatilities, and the implementation of the Libor Market Model", en Journal of Fixed Income; 10 (3) pp. 46-62.

Kim, S. & Kon, S.J. (1994). "Alternative models for the conditional heteroscedasticity of stock returns", en Journal of Business, 67 (1), pp. 63-98.

Knight, F. (1921). Risk, uncertainty and profit. New York: Sentry Press.

Kon, S.J. (1984). "Models of stock returns. A comparison", en The Journal of Finance, 39 (1) pp. 147-165.

Kwiatkowska,T. & Szatzchneider,W. (2008). "Uncertainty: On the difference between imaginary tale and real significance", en Revista de Filosofía de las Ciencias de la Vida, XVI (30), pp. 49-61.

Liu,T. (1993). "Using the correlation exponent to decide whether an economic series is chao-tic", en Pesaran, M. y Potter, S. (eds.). Nonlinear dynamics chaos and econometrics (pp. 17-31). New York:Wiley & Sons.

Lo, A. (1997). "Fat tails, long memory, and the stock market since the 1960's", en Economic notes by Banca Monte deiPaschi, 26 (2), pp. 213-246.

Lo, A. & MacKinlay, A. (1988). "Stock market prices do not follow random walks: Evidence from a simple specification test", en The Review of Financial Studies 1, pp. 41-66.

Malkiel, B. (1999). A random walk down Wall Street. New York: ww Norton & Company Inc.

Malkiel, B. (2003). "The efficient market hypothesis and its critics", en The Journal of Economic Perspectives. 17 (1), pp. 59-82.

Mandelbrot, B. (1963). "The variations of certain speculative prices", en Journal of Business, 36, pp. 394-419.

Marsh, T. & Merton, R. (1986). "Dividend variability and variance bounds tests for the rationality of stock market prices", en American Economic Review, 76 (3), pp. 483-498.

Neftci, S., (1996). An Introduction to the Mathematics of Financial Derivatives. Londres: Academic Press.

Ott, E. (2002). Chaos in Dynamical Systems. New York: Cambridge University Press.

Ramírez, J. (2004). "Usos y limitaciones de los procesos estocásticos en el tratamiento de distribuciones de rendimientos con Colas Gordas", en Revista de Análisis Económico, 19 (1), pp. 51-76.

Ramírez, O. (2001). Autoregressive conditional heteroskedasticy under error-term non-normality. Paper presentado en la Annual metting of the American agricultural economics association, Chicago, Illinois, agosto 5-8, 2001.

Ramsey, J.(2002). "Wavelets in Economics and Finance: Past and Future", en Economic Research Reports. C.V. Starr Center for Applied Economics. New York.

Risk Metrics, Fourth Edition (1996). Morgan Guaranty Trust Company. Global Research.

Rydberg, T. (2000). "Realistic Statistical Modeling of Financial Data", en International Statistical Review, 68 (3), pp. 233-258.

Shleifer, A. (2000). Inefficient markets: an introduction to behavioral finance. New York: Oxford University Press.

Shiller, R. (1981). "Do stock prices move too much to be justified by subsequent changes in dividends?", en The American Economic Review, 71 (3), pp. 421-436.

Shiller, R. (2003). "Efficient markets theory to behavioral finance", en The Journal of Economic Perspectives, 17 (1), pp. 83-104.

Simiu, E. (2002). Chaotic Transitions in Deterministic and Stochastic Dynamical Systems: Applications of the Melnikov Method in Engineering, Physics, and Neuroscience. Princeton: Princeton University Press.

Taleb, N. (2010). The Black Swan. New York: Random House.

Walker,W.; Harremoës, P.; Rotmans, J.;Van Der Sluijs, J.;Van Asselt, M.; Janssen, P. & Krayer Von Kraus, M. (2003). "Defining uncertainty. A conceptual basis for uncertainty management in model-based decision support", en Journal of integrated assessment, 4 (1), pp. 5-17.

Westfall, P. & Hilbe, J. (2007). "The Black Swan: Praise and Criticism", en The American Statistician 61, pp. 193-194.

Zangari, P. (1996). Test of Conditional Normality. New York: Risk Metrics TM –Technical Document, J.P. Morgan/Reuters.