EL MODELO DE DISTRIBUCIÓN DE PÉRDIDAS AGREGADAS: Una aplicación del riesgo operacional

Por considerarlo un modelo de amplia aplicación en los seguros, les comparto el siguiente artículo esperando les sea útil en su trabajo y estudio como actuarios.

AUTORES:

JOSÉ MANUEL FERIA DOMÍNGUEZ
PROFESOR DE ECONOMÍA FINANCIERA Y CONTABILIDAD
DEPARTAMENTO DE DIRECCIÓN DE EMPRESAS
UNIVERSIDAD PABLO DE OLAVIDE
Ctra. de Utrera, km. 1, 41013 (SEVILLA)

ENRIQUE JOSÉ JIMÉNEZ RODRÍGUEZ
PROFESOR DE ECONOMÍA FINANCIERA Y CONTABILIDAD
DEPARTAMENTO DE DIRECCIÓN DE EMPRESAS
UNIVERSIDAD PABLO DE OLAVIDE
Ctra. de Utrera, km. 1, 41013 (SEVILLA)

JOSÉ LUIS MARTÍN MARÍN
CATEDRÁTICO DE ECONOMÍA FINANCIERA Y CONTABILIDAD
DEPARTAMENTO DE DIRECCIÓN DE EMPRESAS
UNIVERSIDAD PABLO DE OLAVIDE
Ctra. de Utrera, km. 1, 41013 (SEVILLA)

ÍNDICE
I. INTRODUCCIÓN
II. MARCO TEÓRICO
1. La medición del riesgo operacional
2. La Pérdida operacional
3. Pérdidas Esperadas y No Esperadas
4. Severidad y Frecuencia
III. EL MODELO DE DISTRIBUCIÓN DE PÉRDIDAS (LDA)
1. El Valor en Riesgo Operacional (OpVaR)
2. El proceso metodológico de la LDA
3. Ajuste de la Distribución de Frecuencia
4. Ajuste de la Distribución de Severidad
5. El efecto de la diversificación
IV. UNA APROXIMACIÓN AL CaR POR SIMULACIÓN MONTECARLO


I. INTRODUCCIÓN
Aunque el riesgo operacional es inherente al negocio bancario y no puede ser eliminado en su totalidad, sí puede ser gestionado, controlado y, en determinados casos, asegurado. En esta línea, la gestión de dicho riesgo no es una nueva práctica; siempre ha sido primordial para la banca tratar de prevenir el fraude, mantener la integridad de los controles internos y reducir los errores en el procesamiento de las transacciones. Para ello, áreas de soporte como la de Organización elaboran, para determinados procesos de la entidad, procedimientos de trabajo que, entre otros aspectos, contemplan los controles y las verificaciones oportunas que permitan el desarrollo de productos y servicios con la menor cuota de riesgo posible. Sin embargo, sí resulta novedosa la concepción del riesgo operacional como una disciplina específica integrada en la gestión global de riesgos de la entidad- en armonía con el control del de crédito y el del mercado- según recomienda el Comité de Supervisión Bancaria de Basilea en el Nuevo Acuerdo de Adecuación de Capital [Basel, 2004]. Así, unas de las principales novedades que recoge el texto es la inclusión de requerimientos de capital regulatorio por dicho riesgo; de esta forma, el nuevo coeficiente de solvencia del 8%- véase Vargas [2001] y Álvarez [2001]- incluye en su denominador el riesgo operacional (un 20% sobre el 8%), y se define tal y como se ilustra a continuación:

Imagen 1

Hasta la publicación de la nueva propuesta de requerimientos de capital, no existía una definición ampliamente consensuada de riesgo operacional. Por éste se entendía: “todo aquello que no era ni riesgo de crédito, ni riesgo de mercado” [Hoffman, 1998:29]. En consecuencia, el Comité [2004: 128], como punto de partida para su gestión y control, normaliza dicho concepto definiéndolo explícitamente como: “el riesgo de pérdida resultante de una falta de adecuación o un fallo de los procesos, el personal y los sistemas internos o bien de acontecimientos externos”. Esta definición incluye el riesgo legal o jurídico, pero excluye el riesgo estratégico y el riesgo de reputación. Por otro lado, la incorporación del riesgo operacional en el coeficiente de solvencia ha promovido que los bancos con sistemas de control menos sofisticados comiencen a administrar más eficazmente este riesgo y que aquellas entidades que ya aplicaban modelos avanzados hayan alcanzado estadios superiores en sus metodologías de medición. No obstante, el desarrollo de estas técnicas sigue un proceso dinámico, de tal manera que la industria financiera continúa realizando sustanciales esfuerzos para su perfeccionamiento. Dicho dinamismo se fundamente en dos aspectos: por un lado, la inmadurez de las propias metodologías, de las cuales aún no existen reportes robustos sobre su fiabilidad y eficacia; y en segundo término, la propia flexibilidad que concede el Comité en cuanto a las técnicas de cálculo de capital regulatorio se refiere y, en particular, a las metodologías de medición internas. A tal efecto, la recomendación del Comité consiste en cursar un proceso secuencias a lo largo de la gama de métodos disponibles, conforme se desarrollen sistemas y prácticas de medición más sofisticadas. Aunque, cabría señalar que el desarrollo y utilización de técnicas más avanzadas a depender, en gran medida, de la disponibilidad de datos internos de pérdidas operacionales.

En este trabajo, nos detenemos, de manera especial, en evaluar el Modelo de Distribución de Pérdidas (Loss Distribution Approach, LDA), ya que éste apoyado en el concepto de Valor en Riesgo Operacional (Operational Value at Risk, OpVaR), aparece el enfoque mejor posicionado para el cálculo del capital en riesgo (Capital at Risk, CaR). De esta forma, para testar el enfoque LDA, seleccionaremos dos líneas de negocio bancario para las cuales aproximaremos el CaR utilizando la metodología de Simulación de Montecarlo. Para estimar los parámetros estadísticos de las distribuciones de pérdidas nos fundamentaremos en el estudio efectuado por el Comité [2002] sobre las pérdidas operaciones acaecidas en el sector bancario a nivel internacional, véase el apéndice C. Los resultados emanados de dicho trabajo servirán de referencia a la hora de proyectar el perfil de riesgo de las unidades de negocio elegidas. Por último, en función de la correlación existente entre las diferentes categorías de riesgo operacional, examinaremos el efecto mitigados de la diversificación en la cuantificación del CaR; aspecto recogido explícitamente por el comité [2006ª: 152] en su Nuevo Acuerdo.

II. MARCO TEÓRICO

1. La medición del riesgo operacional
La medición –en términos de capital económico- se convierte en el aspecto más complejo y, a la vez, más trascendental en el tratamiento del riesgo operacional. El Comité de Basilea [2001b] propone tres enfoques para calcular los requerimientos de capital por dicho riesgo que, de menor a mayor grado de sofisticación y sensibilidad el riesgo, son: (1) el Método del Indicador Básico (Basic Indicator Approach, BIA); (2) el Método Estándar (Standardised Approach, SA); y (3) las Metodologías de Medición Avanzada (Advanced Measurement Approach, AMA). A su vez, dentro de los modelos AMA se describen tres metodologías el Modelo de Medición Interna (Internal Measurement Approach, IMA); los Cuadros de Mando (Scorecards); y el Modelo de Distribución de Pérdidas (Loss Distribution Approach, LDA). Véase al respecto la figura 1.

Imagen 2

Los enfoques Básico y Estándar se conciben como metodologías top-down [Basel, 2001b: 3]; de esta forma ambos cubren el riesgo con un capital equivalente a un porcentaje fijo de los ingresos brutos, variable que se utiliza como aproximación al tamaño o nivel de la exposición al riesgo operacional de una entidad de crédito. La principal diferencia entre uno y otro método estriba en que en el Estándar el total de capital requerido se calcula como la suma de las necesidades de capital regulador de cada una de las ocho líneas de negocio descritas por el Comité [2006: anexo 8]. Por el contrario, las metodologías AMA se engloban dentro de los llamados enfoques bottom-up; ya que calcula el capital económico a partir de datos internos de pérdidas distribuidos por su tipología y unidad de negocio; tras este cálculo específico se computa el capital para el banco en su conjunto. En cuanto a la aplicación del Método Estándar y las metodologías AMA, el Comité [2006ª: 145-155] propone que las entidades cumplan unos criterios de admisión específicos que deberán ser validados por el supervisor [véase Banco de España, 2006a]. En cambio, se pretende que el Método del Indicador Básico –siempre y cuando se sigan las directrices del documento “Sound Practices for the Management and Supervisión of Operational Risk” [Basel, 2003]- sea aplicable a cualquier banco, independientemente de la complejidad de sus actividades, constituyendo así un punto de partida en el proceso de cálculo de capital [Jiménez y Martín, 2005].

2. La Pérdida operacional
Una condición sine qua non en la gestión y control del riesgo operacional es la elaboración y desarrollo de una base de datos interna de pérdidas operacionales (BDIPO); pues, como sugiere Nieto [2005; 174], son éstas las que mejor proyectan el perfil de riesgo de la entidad. En consecuencia, los bancos deben instrumentar los mecanismos necesarios para realizar un seguimiento efectivo de sus eventos de pérdidas operacionales; contemplando al mismo tiempo los requisitos mínimos de calidad establecidos por el Comité [2006a: 152-153] para el desarrollo de las BDIPO.

3. Pérdidas Esperadas y No Esperadas
En pro de una homogénea categorización de la pérdida en el sector bancario se antoja necesario utilizar la clasificación propuesta por el Comité [2006a: anexo 9] la cual identifica siete categorías de riesgos operacionales. Pero, en un sentido más amplio, las pérdidas operacionales podemos fragmentarlas en: esperadas (expected loss) y no esperadas (unexpected loss). Así pues, el conjunto de pérdidas operacionales esperadas recogerá todas aquellas mermas, previsibles y habituales, intrínsecas a la actividad ordinaria de la entidad. Por tanto, si se presentan como un coste más del negocio, deberían estar repercutidas implícitamente en el precio final de los productos y servicios; o, en su defecto, en un sentido más estricto, deberían provisionarse. Un ejemplo a colación, bastante preciso de este tipo de pérdidas, serían las “diferencias de caja” registradas, casi a diario, en las oficinas bancarias, pero por importes, generalmente, baladíes. De otra parte, las pérdidas no esperadas se referirán a sucesos no previstos inicialmente por la entidad que, sin embargo, pueden desencadenar situaciones funestas para la institución dada la magnitud del quebranto. En primera instancia, el Comité sugiere su cobertura mediante el uso de los Fondos Propios –de ahí la inclusión del riesgo operacional como un elemento más del denominador del coeficiente de solvencia de la entidad–. No obstante, existen determinados peligros con una dimensión catastrófica, para los cuales habrá que articular medidas adicionales como la traslación de riesgos utilizando contratos de seguros.


4. Severidad y Frecuencia
Independientemente de la previsión o no de la pérdida, a la hora de identificarla, es preciso definir dos parámetros: por un lado, la severidad, o cuantía monetaria de la pérdida; y, por otra parte, la frecuencia con que se repite el suceso durante un período de tiempo establecido o, dicho de otra manera, la probabilidad de que acontezca ese evento. En la medida en que ambas variables se suponen estadísticamente independientes, son modeladas por separado. En un sentido amplio, en el histórico de pérdidas operacionales de una entidad de crédito se registrarán un elevado número de eventos que provoquen pérdidas de pequeña magnitud –por ejemplo,las mencionadas “diferencias de caja”–. Pero, dada la aún poca profundidad de las BDIPO, para sucesos de baja o media frecuencia pero elevada severidad, la información que posee una sola entidad es, cuanto menos, insuficiente para modelar con robustez estadística la distribución de pérdidas operacionales. Por ello, el Comité [2006a: 153-154] permite complementar los datos internos con la utilización de bases de datos de pérdidas externas que agreguen información sobre estos sucesos, que posiblemente la entidad no haya experimentado, pero a los que sí está expuesta. A tal efecto, el banco debecontar con un proceso sistemático que determine bajo qué circunstancias se justifica la utilización de datos externos y qué metodologías se emplearán para su calibración con los internos [véase Baud et al., 2002]. Por otro lado, como subrayan Guillen et al. [2007], no podemos ignorar el fenómeno conocido por under-reporting, éste consiste en obviar o no identificar determinadas pérdidas generadas por fallos operacionales, de tal forma que, por ejemplo, 6 pequeñas pérdidas con alta frecuencia no son computadas a la hora de calcular el cargo de capital, aunque su agregación bien pudiera constituir una seria amenaza para la solvencia de la entidad.

Imagen 3

III. EL MODELO DE DISTRIBUCIÓN DE PÉRDIDAS (LDA)

1. El Valor en Riesgo Operacional (OpVaR)
El enfoque LDA (Loss Distribution Approach) es una técnica estadística, heredada del ámbito actuarial [véase Bühlmann, 1970], que tiene como objetivo la obtención de una función de distribución de pérdidas agregadas. El modelo se establece sobre la información de pérdidas históricas, registradas en base a la matriz que conforman las ocho líneas de negocio y los siete tipos de riesgos estandarizados por el Comité. En total 56 casillas para cada una de las cuales debemos estimar, por un lado, la distribución de la frecuencia y, por otro, la de la severidad. Una vez definidas éstas, el siguiente paso consiste en obtener la distribución de pérdidas agregadas por riesgo operacional adscrita a cada celda. Para el cálculo del capital regulatorio, vinculado a cada casilla, se aplica el concepto de Valor en Riesgo (Value at Risk, VaR) al contexto del riesgo operacional, adoptando la nomenclatura de OpVaR (Operational Value at Risk). El OpVaR representa un percentil de la distribución de pérdidas por lo que es, ante todo, una medición de tipo estadístico y, por consiguiente, requiere el establecimiento, a priori, de una serie de parámetros:

a) Un intervalo o nivel de confianza asociado al cálculo. A efectos de cálculo de capital, el Comité [2006a: 151] es explícito estableciendo para tal efecto el 99,9%.

b) Un plazo, o unidad de tiempo, al cual va referido la estimación. En relación al riesgo de mercado, la determinación de dicho parámetro no es arbitraria, sino que se encuentra vinculada a la naturaleza de la posición, así como al período de tiempo necesario para su liquidación o cobertura. El Comité [2006a: 151] indica que, en el caso del riesgo operacional, la estimación debe de ir referida a un horizonte temporal de un año.

c) Una moneda de referencia. El OpVaR de una línea de negocio se expresa en unidades monetarias. Este hecho convierte a dicha variable en una magnitud intuitiva y fácilmente comprensible para sus potenciales usuarios (reguladores, supervisores, gestores de riesgos, etc.) quienes podrán tomar decisiones en consecuencia.

d) Una hipótesis sobre la distribución de la variable analizada. El Comité [2001b: 34], en documentos anteriores a la publicación del Nuevo Acuerdo, proponía la distribución Lognormal para aproximar la severidad, mientras que para la frecuencia se decantaba por la de Poisson. No obstante, en última instancia, las distribuciones seleccionadas deben ser aquellas que mejor se ajusten al histórico de pérdidas observadas en una entidad, cuya naturaleza, obviamente, puede ser muy distinta a la de otras entidades.

En definitiva, podríamos interpretar el OpVaR como una cifra, expresada en unidades monetarias, que nos informa sobre la mínima pérdida potencial en la que podría incurrir una determinada línea de negocio, i, por tipología de riesgo operacional, j, dentro de un horizonte temporal de un año y con un nivel de confianza estadístico del 99,9%. Véase a este respecto la figura 2:

Imagen 4

2. El proceso metodológico de la LDA
Como introducimos al comienzo de este apartado, las metodologías LDA se nutren de las bases de datos internas de pérdidas, completadas con datos externos y desglosadas en la matriz “líneas de negocio/tipo de riesgo”. Bajo el supuesto de que las severidades son independientes entre sí, y éstas, a su vez, independientes de la frecuencia, se procede al modelado por separado de ambas variables.

3. Ajuste de la Distribución de Frecuencia
La variable aleatoria N(i,j)simbolizará el número de eventos ocurridos en una línea i debidos a un tipo de riesgo j; en un horizonte temporal (τ) de un año; con una función de masa pi,j. Esta variable discreta representa la frecuencia de las pérdidas cuya función de distribución, Pi,j, se expresa como:

Imagen 5

Según autores como Frachot et al. [2003], Mignola y Ugoccioni [2005] o Carrillo y Suárez [2006], la distribución de Poisson –utilizada con éxito en las técnicas actuariales de seguros– es una candidata con muchas ventajas a la hora de modelar la frecuencia. Dicha función se encuentra caracterizada por un único parámetro, lambda (λ),el cual representa, por término medio, el número de sucesos ocurridos en un año. Asimismo, conviene contemplar otras alternativas como la distribución Binomial o la Binomial Negativa(véase apéndice A).

4. Ajuste de la Distribución de Severidad
Una vez definida la frecuencia, nominamos a la variable aleatoria que representa la cuantía de pérdida, en adelante, severidad, como X(i, j), siendo, Fi,j, su función de probabilidad. De esta forma, habrá que determinar los parámetros de dicha distribución probabilística que mejor encajen con los datos observados. Para esta labor, como ya se indicó en líneas anteriores, el Comité [2001b: 34] propuso, en un principio, la distribución Lognormal; si bien, existe un conjunto de distribuciones paramétricas que pueden ser válidas para tal aproximación, véase alrespecto apéndice B. Así pues, Fontnouvelle et al.[2004] incluyen la Pareto; Böcker y Klüppelberg [2005] proponen la Weibull; Carrillo y Suárez [2006] añaden a éstas la Gammay coinciden con Mignola y Ugoccioni [2006] en contemplar, además de las señaladas, la función de distribución Burrcomo alternativa a la hora de modelar la severidad.

Los valores específicos de los parámetros de cada distribución se estiman por Máxima Verosimilitud (ML, Maximum Likelihood), método propuesto por Fischer [1890-1962]. Una vez fijados los parámetros, deberemos evaluar qué distribución se ajusta mejor a los datos empíricos, para lo cual utilizamos distintos contrastes estadísticos con los cuales calibramos la Bondad de ajuste (GOF, Goodness-of-Fit). Moscadelli [2004] plantea realizar dicho test en función del grado de curtosis de la distribución. De esta manera, propone comenzar por distribuciones de cola suave como la Weibull; en segundo lugar, testar aquellas distribuciones de cola media o moderada, entre otras la Lognormalo la Gumbel; y, por último, distribuciones, como la Pareto, caracterizada por presentar colas anchas (fat tails). Siguiendo a Chernobai et al.[2006], el contraste estadístico viene simbolizado por una hipótesis nula, H0: la distribución observada de pérdidas operacionales (Fx) , se ajusta a la distribución teórica (¨Fx); y una hipótesis alternativa, HA, que rechaza la primera:

Imagen 6

Para realizar este análisis inferencial, podemos apoyarnos en los siguientes tests estadísticos: Kolmogorov–Smirnov (K-S), Anderson–Darling (A-D), Smirnov–Cramér–Von Mises o Kuiper; analizados y detallados en Chernobai et al.[2005], D’Agostino y Stephens [1986] y Schwarz [1978]. A pesar de que la mayoría de funciones propuestas para modelar la severidad suelen ajustarse bien a los datos centrales (cuerpo de la distribución), éstas, sin embargo, tienden a subestimar la cola. Además, la asimetría de la distribución empírica hace que la estimación de los parámetros se encuentre fuertemente influenciada por el cómputo de observaciones situadas en la zona media y central de la distribución real, atenuando el grado informativo de aquellos datos situados en el extremo y, en consecuencia, dando lugar a una infraestimación de los percentiles. Llegados a este punto, hay que destacar que la principal dificultad en el modelado del riesgo operacional estriba en el comportamiento extremo de dichas colas de distribución. Carrillo [2006] asevera que, en un sentido amplio, más del 90% del capital se debe a un número muy reducido de sucesos; asimismo, el suceso de mayor cuantía de pérdida puede llegar a estar a más de 30 desviaciones típicas de la media de la distribución. Esta apreciación nos conduce a la aplicación de la Teoría de Valores Extremos (EVT, del inglés Extreme Value Theory) que analiza el comportamiento extremo delas variables aleatorias [véase Gumbel, 1935 y Embrechts et al.,1997]. Dicha metodología, en relación al cómputo del CaR, concede un mayor peso a las colas de la distribución; así pues, a la hora de modelar los datos de pérdidas sólo se utilizarán aquéllos que superen un umbral de pérdida elevado –el Comité [2006a: 153] propone 10.000 euros–. Esta premisa concede un notable grado de sensibilidad del modelo a la elección del umbral y al número de observaciones de pérdidas extremas (véase la discusión a este respecto de Carrillo y Suárez, 2006). Asimismo, Mignola y Ugoccioni [2005] y Chernobai et al.[2006] advierten de las posibles inconsistencias sobre las estimaciones de capital resultantes; estos autores hacen, especial hincapié, en el riesgo de sobrestimación del CaR, dado el percentil utilizado (99,9%). Por todo lo anterior, no es de extrañar que muchos autores sugieran la necesidad de recurrir a mixturas de distribuciones como, por ejemplo, la Lognormal-Gamma[Mignola y Ugoccioni, 2006] o Lognormal-Pareto[Carrillo y Suárez, 2006] a la hora de modelar las pérdidas operacionales.

Como ya hemos apuntado, la severidad es una variable continua mientras que la frecuencia sólo toma valores discretos. Por consiguiente, si queremos obtener la Distribución de Pérdidas Agregadas a partir de sendas distribuciones, debemos proceder, previamente, a la discretización de la severidad. Carrillo [2006] señala dos procedimientos para discretizar la severidad:

i. El método de concentración, el cual consiste en definir una malla de puntos y concentrar, en cada uno, la masa probabilística de la región circundante.

ii. El método de los momentos locales, más desarrollado que el anterior, impone dos condiciones: que la media y la varianza de la variable continua coincidan con la de la variable discretizada.

Imagen 7

Para la obtención de la función de pérdidas agregada G(x) se proponen cuatro posibles técnicas:

a) La Transformada Rápida de Fourier (Fast Fourier Transforms, FFT) ;[véase Klugman et al 2004 : cap. 6].

b) El Algoritmo Recursivo de Panjer [1981].

c) Enfoque de Simulación por Montecarlo, [véase Klugman et al2004: cap. 17].

d) La Aproximación de la Pérdida Simple (the Single-loss Approximation) [véase Böcker y Klüppelberg, 2005].

Una vez determinada la función de distribución agregada, para el cálculo del capital regulatorio vinculado a cada casilla, basta aplicar el concepto de Valor en Riesgo Operacional (OpVaR), es decir, calcular el percentil del 99,9% de dicha distribución. En sentido estricto, según advierte el Comité [2006a: 151], el capital económico (CaR) debería cubrir, a priori, sólo la pérdida no esperada (UL):

Imagen 8

Gráficamente, el proceso metodológico hasta aquí expuesto para la obtención del CaR se ilustra a través de la figura 3:

Imagen 9

5. El efecto de la diversificación
Hasta ahora, hemos operado bajo el principio de dependencia perfecta; en consecuencia, hemos aproximado el capital económico para el conjunto de la entidad como la simple suma del CaR de las diferentes celdas de la matriz. Esta presunción nos llevaría, al igual que en el enfoque Estándar [véase, Jiménez y Martín, 2005:60], a un modelo unifactorial caracterizado por una única fuente de riesgo, la variable aleatoria z. Así pues, la pérdida de cada una de las 56 casillas se cuantifica en función de su sensibilidad, βij, a dicha variable:

Imagen 10

Este esquema se aleja de la realidad, en un sentido estricto; ya que, si bien, es patente la existencia de riesgos con cierto grado de correlación –por ejemplo, el fraude interno y el externo– no es menos evidente que también subyacen riesgos cuyo coeficiente de correlación es claramente nulo o, cuando menos, discutible –por ejemplo, entre el fraude interno y los daños a activos físicos–. La hipótesis de dependencia perfecta acrecienta el grado de conservadurismo en el cálculo de capital, al no contemplar el efecto mitigador de la diversificación [véaseMarkowitz, 1952 y 1959]. Sin embrago, dicho efecto, en última instancia, dependerá del grado de subaditividad del OpVaR.

Según Artzner [1999] una medida coherente del riesgo debe cumplir una serie de propiedades, entre ellas la de subaditividad. En términos de OpVaR ello se traduce en:

Imagen 11

No obstante, McNeil et al. [2005] y Chavez-Demoulin et al.[2005] advierten una serie de características en las funciones de distribución de pérdidas (Lk) –asimetría extrema, colas pesadas y especial dependencia– que podrían provocar la ruptura del principio de subaditividad, fenómeno éste conocido con el nombre de superaditividad (superadditivity). En este caso, sucede justamente lo contrario, es decir, el todo es mayor que la suma de las partes, esto es:

Imagen 12

Llegados a este punto, debemos subrayar que bajo el supuesto de no subaditividad del OpVaR, las metodologías AMA podrían perder cierto atractivo, por cuanto, pudiera darse la circunstancia de que el CaR calculado con dicho enfoque fuese superior al determinado a través del Método Estándar o incluso del Básico. Consciente de ello, el Comité [2006a: 152] examina la posibilidad de incluir el efecto diversificación en el cálculo de los requerimientos de capital, aseverando textualmente que: “(…) el banco podrá estar autorizado a utilizar estimaciones internas sobre las correlaciones de pérdidas por riesgo operacional que existen entre las distintas estimaciones del riesgo operacional, siempre que pueda demostrar al supervisor nacional que sus sistemas para determinar las correlaciones resultan adecuados, se aplican en su totalidad y tienen en cuenta la incertidumbre que rodea a dichas estimaciones de correlación (especialmente en periodos de tensión). El banco deberá validar sus supuestos de correlación utilizando las técnicas cuantitativas y cualitativas más adecuadas”. En esta línea, la correlación entre las pérdidas agregadas de dos tipos de riesgo viene determinada, a su vez, por la dependencia que pueda existir entre las frecuencias o entre las severidades de las mismas o entre ambas. De esta forma, siguiendo a Frachot et al.[2004] y la notación anteriormente empleada, vamos a analizar, en un sentido genérico, la correlación entre dos tipos de riesgos diferentes. Así, L1 y L2, representarán la pérdida agregada de cada tipo de riesgo y L la pérdida agregada a nivel de la entidad, de esta forma:

Imagen 13

donde Ni simboliza la frecuencia anual de sucesos. Por lo que, estando N1y N2 perfectamente
correlacionadas y asumiendo que la frecuencia sigue una Poisson de parámetro, λ, entonces: λ1=λ2=λ. En la práctica, la correlación entre la frecuencia de dos tipos de riesgos vendrá condicionada por la sensibilidad de ambas a un determinado factor (por ejemplo, el volumen de negocio o el ciclo económico). Para cuantificar dicho grado de dependencia con solidez habrá que apoyarse en una base histórica de pérdidas amplia. En cuanto a la severidad, uno de los principios básicos del modelo LDA es asumir que las cuantías de las pérdidas registradas en una casilla de la matriz son independientes, entre sí. Por lo que, partiendo de esta premisa, es difícil concebir que si no hay correlación entre las severidades de las pérdidas dentro de un mismo tipo de riesgo, si la haya entre las severidades de dos categorías de riesgos distintos. Por tanto, la correlación de la pérdida agregada se debería computar, principalmente, en función del grado de dependencia de las frecuencias observadas:

Imagen 14

Imagen 15

IV. UNA APROXIMACIÓN AL CaR POR SIMULACIÓN MONTECARLO

1. Metodología y variables
Para ilustrar y contrastar el proceso metodológico expuesto para el cálculo del capital económico mediante el enfoque LDA, hemos desarrollado, por Simulación de Montecarlo, un análisis del CaR para distintos parámetros de dos de las distribuciones de frecuencia y severidad propuestas. A modo de ejemplo, han sido seleccionadas dos filas de la matriz “línea de negocio/tipo de riesgo”, concretamente las correspondientes a la Banca Minorista (BM) y a la Banca Comercial (BC). En un primer estadio, y con objeto de modelar la frecuencia, hemos elegido la distribución de Poisson, cuyo parámetro (λ) simboliza el número de sucesos medio al año. En esta línea, nos hemos basado en el análisis de datos del Operational Risk Loss Data Collection Exercise (LDCE) [Basel, 2002], recogido en el apéndice C; del cual se desprende que la Banca Minorista, debido a su mayor volumen de negocio y transacciones, presenta una mayor frecuencia de eventos de pérdidas que la Banca Comercial. Conscientes de ello, hemos intentado reflejar dicho efecto discriminando entre una lambda igual a 100, para la primera, e igual a 10, para la segunda.

Por otra parte, ambas unidades de negocio presentan, empíricamente, distribuciones de severidad con una clara asimetría positiva y un alto grado de leptocurtosis, lo cual se traduce en la existencia de una elevada concentración de pérdidas de bajo impacto económico –pensemos en las típicas diferencias de caja de las sucursales bancarias–, y una cola relativamente gruesa (fat tail)–por ejemplo, aquellos casos aislados de banca paralelao lavado de capitales–. A tenor de estos supuestos, hemos simulado una hipotética distribución para la severidad siguiendo un modelo Weibull, eligiendo, para tales unidades, un parámetro de forma (α) inferior a la unidad. No obstante, y habida cuenta de la mayor curtosisque presenta la distribución de pérdidas del negocio Minorista en la realidad [véase Moscadelli, 2004], hemos asignado un valor de alfamenor a este segmento respecto al de la Banca Comercial, precisamente para capturar este hecho. Asimismo, considerando que los importes negociados en las operaciones de Banca Comercial suelen ser superiores a los negociados en el nicho de mercado Minorista, hemos determinado un parámetro de escala (β) notablemente superior en la primera, confiriendo a ésta una mayor desviación típica. La modelación simulada queda ilustrada gráficamente en las figuras 4 y 5, respectivamente.

Imagen 16

Imagen 17

El análisis descriptivo realizado para las distribuciones de severidad simuladas se recoge en la tabla 2:

Imagen 18

Por último, para testar el efecto diversificación en la cuantificación del CaR agregado, hemos realizado un análisis de sensibilidad para distintos valores del coeficiente de correlación (ρBM,BC) entre las líneas de negocio objeto de estudio.

2. Resultados obtenidos

Una vez descritas las distribuciones de frecuencia y severidad, hemos procedido a la convolución de ambas usando el método de Simulación de Montecarlo mediante la generación de un total de 5.000 escenarios. Las distribuciones de pérdidas agregadas resultantes y los CaR asociados a éstas se detallan en la tabla 3.

Imagen 19

A la luz de los datos anteriores, el análisis de sensibilidad desarrollado sobre el CaR para distintos niveles de confianza (95%, 99% y 99,9%), pone de manifiesto el fuerte impacto que, sobre el consumo de capital, produce dicho parámetro. En este sentido, si bien el Acuerdo de Basilea pretende, con ello, cubrir posibles eventos extremos situados en la cola de la distribución, al mismo tiempo, este elevado grado de conservadurismo puede convertirse en un elemento casi confiscatorio en la estructura de capital de la entidad.

Por otra parte, al confrontar los resultados obtenidos entre ambas unidades de negocio, advertimos un mayor CaR en el segmento de Banca Minorista que en el Comercial, con independencia del nivel de confianza establecido.

En sentido estricto, el consumo de capital debe contemplar tanto la pérdida esperada (EL) como la no esperada (UL). Sin embargo, como ya apuntamos en líneas precedentes, el Comité [2006a: 151], en aquellos supuestos donde la entidad pueda demostrar la adecuada provisión de su pérdida esperada, admite un cómputo de capital basado exclusivamente en la no esperada –véase la fórmula [7]–. Esta otra acepción del CaR, nos conduce a reinterpretar de nuevo los datos. Al ser la pérdida no esperada superior en la Banca Comercial, se observa una jerarquía distinta, en términos de cargo de capital, entre ambas unidades. La explicación habría que buscarla en la propia naturaleza del negocio pues, si bien es cierto que, en media, se realizan un menor número de transacciones, los importes que se pueden llegar a negociar son muy superiores a los dela Banca Minorista, a la par que subyace una mayor desviación de dichos valores respecto a su media.

Por otro lado, los ratios calculados –“EL/OpVaR”y “UL/OpVaR”– proporcionan medidas relativas muy interesantes a la hora de reportar información financiera sobre riesgo operacional. Se trata de magnitudes porcentuales que indican la importancia relativa de la pérdida esperada o no esperada sobre el capital regulatorio. Bajo las directrices del último supuesto, en nuestro ejemplo, y para el caso de la Banca Minorista, el 51,07% del OpVaR correspondería a pérdidas esperadas (EL) que deberían ser cubiertas; mientras el 48,93% restante, la pérdida no esperada (UL) representaría el porcentaje asociado al capital regulatorio; de ahí que, con buen criterio, podamos bautizar a esta última cifra como la tasa de cobertura de riesgo operacional.

Los resultados hasta aquí descritos descansan en el supuesto de dependencia perfecta entre los riesgos inherentes a las distintas unidades de negocio. Ahora bien, si reconocemos la existencia de
Correlaciones imperfectas en la práctica, el efecto diversificación se materializa en un notable ahorro de capital; basta observar la tabla 4.

Imagen 20

Para abundar aún más si cabe en el efecto mitigador de la diversificación, la figura 6 ilustra gráficamente cómo para valores bajos del coeficiente de correlación, el CaR diversificado se reduce notablemente mientras el ratio de diversificación aumenta en consecuencia.

Imagen 21

3. Consideraciones finales
La El Método Básico y el Estándar, propuestos por el Comité para el cálculo del capital regulatorio por riesgo operacional, presentan ciertas deficiencias conceptuales, sobre todo en lo que se refiere a su indicador de exposición, esto es, los ingresos brutos. Y es que su cuantificación depende, en última instancia, del marco contable de cada país posibilitando, con ello, el arbitraje regulatorio. De la misma manera, nos hace plantearnos la cuestión de sí una entidad con unos elevados ingresos brutos pero con mejores prácticas de gestión, no podría tener menores riesgos operacionales. Además, el enfoque básico, ofrece un escaso incentivo en cuanto al desarrollo de los sistemas de control de riesgos en la entidad, pues no contempla, por parte del regulador, el cumplimiento de ningún requisito cualitativo para su implementación. Debido a lo anterior, ambos métodos son concebidos, a priori, como modelos de transición hacía estadios superiores, materializados en las metodologías avanzadas, siendo utilizados en la actualidad como “vías de escape” ante la inminente entrada en vigor del Nuevo Acuerdo.

Por tanto, las entidades financieras que pretendan administrar eficazmente su riesgo operacional deben aunar esfuerzos en el desarrollo y aplicación de técnicas avanzadas de medición (AMA). A este respecto, según las últimas directrices del Comité, el enfoque AMA que parece mejor posicionado es el Modelo de Distribución de Pérdidas (LDA), reforzado con el concepto de Valor en Riesgo Operacional u OpVaR. En esta línea, para asegurarla correcta implantación del enfoque LDA se antoja necesario disponer de información histórica de pérdidas operacionales, desglosadas por tipo de riesgo y línea de negocio, sobre las cuales modelar su frecuencia y severidad. No obstante, es justamente aquí donde la banca encuentra el principal obstáculo a la hora de aplicar los métodos avanzados, pues la ausencia de una base de datos interna de pérdidas operacionales suficientemente amplia y representativa resta robustez a dicho enfoque. En este sentido, aunque el Comité prevé la utilización de bases de datos externas –bajo determinadas circunstancias– éstas no parecen solventar el problema. Por tanto, el análisis de escenarios y la simulación de pérdidas se convierten en un recurso eficaz ante la escasez de información, al menos de momento. De otra parte, a efectos de cómputo del capital regulatorio, se establece un percentil excesivamente alto, esto es, un 99,9%. Así, el intervalo de confianza propuesto por el Comité de Basilea convierte el cálculo de capital por riesgo operacional en una medida harto conservadora. En particular, para aquéllas distribuciones de pérdidas con colas anchas (fat tails), ello puede conducir a cifras de OpVaR muy altas y, por consiguiente, a mayores consumos de capital. En cuanto al modelado delas variables se refiere, la distribución de Poisson es la más recurrente para ajustar la frecuencia, si bien, es preciso contemplar otras alternativas como la distribución Binomial o la Binomial Negativa. En relación a la severidad, nos encontramos con una serie de distribuciones paramétricas (Lognormal, Weibull, Pareto, etc.) que podrían ser, a priori, buenas candidatas para tal aproximación. No obstante, la evidencia empírica demuestra que, en la práctica, ninguna distribución simple se ajusta de manera exacta; de ahí la necesidad de recurrir a la denominada mixtura de distribuciones.

Por otra parte, el Comité contempla la posibilidad de incorporar el efecto diversificación en la medición del riesgo operacional. Bajo el principio de subaditividad del OpVaR, el capital económico resultante, también llamado CaR diversificado, es notablemente sensible al coeficiente de correlación. Si bien, para poder beneficiarse de la reducción de capital que ello supone, las entidades de crédito deberán articular los métodos de estimación oportunos para aproximar de manera conveniente los coeficientes de correlación. Paradójicamente, los estudios empíricos al respecto sitúan los valores de dicho coeficiente muy cercanos a cero, lejos del espíritu conservador que inspira el Nuevo Acuerdo de Capital en materia de riesgo operacional.

Para finalizar, habría que subrayar que si bien el enfoque LDA goza de una clara aceptación en la industria bancaria –especialmente en las entidades que ya venían utilizando enfoques avanzados–, aún adolece de robustez para una implementación práctica consecuente.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *