La agrupación estadística para identificar los modelos de negocio

BIS Quarterly Review  |  December 2014  | 
7 de diciembre de 2014

(Fragmento de la página 12 de la sección "Modelos de negocio de los bancos" del  Informe Trimestral del BPI, diciembre de 2014)

En este recuadro explicamos con más precisión las variables utilizadas en nuestros cálculos y los aspectos más técnicos del procedimiento de clasificación estadística por agrupación (clustering).

Las ocho variables que utilizamos para caracterizar los modelos de negocio de los bancos se reparten por igual por el lado del activo y del pasivo del balance. Todas las ratios se expresan en proporción del total de activos, neto de posiciones con derivados, con el fin de evitar distorsiones de las medidas a raíz de diferencias en las normas contables aplicables en las diferentes jurisdicciones. Las ratios por el lado del activo son: (i) préstamos totales; (ii) títulos valores (suma de los activos y pasivos de negociación netos de derivados); (iii) el tamaño de la cartera de negociación (suma de los títulos negociados y el valor razonable con cambios en resultados); (iv) préstamo interbancario (suma de los préstamos y anticipos a bancos, repos a la inversa y colateral en efectivo). Las ratios por el lado del pasivo son: (i) depósitos de clientes; (ii) deuda mayorista (suma de otros depósitos, endeudamiento a corto plazo y financiación a largo plazo); (iii) financiación estable (suma del total de depósitos de clientes y financiación a largo plazo); y (iv) endeudamiento interbancario (depósitos de bancos más repos y colateral en efectivo).

Empleamos el algoritmo de clasificación estadístico propuesto por Ward (1963). Este algoritmo es un método de clasificación jerárquico que puede aplicarse a un universo de observaciones individuales (en nuestro caso, los pares banco/año). Cada observación se describe por un conjunto de puntuaciones (en nuestro caso, los coeficientes del balance). Al ser un algoritmo de aglomeración, parte de observaciones individuales, que va agrupando sucesivamente uniendo las observaciones que más se asemejan (clusters). Luego continúa formando grupos cada vez más granes (es decir, compartimentando el universo de observaciones de manera más compacta), maximizando las similitudes de cada par de observaciones dentro del grupo y las diferencias entre grupos. El algoritmo utilizado calcula la distancia entre dos observaciones como la suma de la diferencia de sus puntuaciones al cuadrado. Los resultados de la clasificación jerárquica podrían representarse como las raíces de un árbol: las observaciones individuales serían automáticamente los grupos más homogéneos en la parte inferior de la jerarquía; el algoritmo agrupa primero las observaciones individuales en base a la proximidad de sus puntuaciones; estos pequeños grupos se van fusionando sucesivamente unos con otros, formando cada vez menos grupos de mayor tamaño conforme se asciende en la jerarquía, siendo el universo muestral un grupo único en la parte superior.

¿Qué compartimentación (es decir, escalón en la jerarquía) supone el mejor compromiso entre la homogeneidad dentro de cada grupo y el número de grupos? Para responder a esta pregunta, no existe una regla inequívoca, sino que utilizamos el seudo-índice F propuesto por Calinśki y Harabasz (1974). Este índice equilibra la economía (es decir, el menor número de grupos) con la capacidad de discriminación (es decir, grupos con suficientes características distintivas para diferenciarse entre ellos). El índice aumenta cuando las observaciones son más parecidas dentro del grupo (resultados más cercanos) pero más divergentes entre grupos, y disminuye a medida que aumenta el número de grupos. La cercanía de las observaciones se calcula mediante el coeficiente entre la distancia media entre observaciones banco/años que pertenecen a grupos diferentes y la distancia media de las observaciones que pertenecen al mismo grupo. El número de grupos se ve penalizado en función del coeficiente entre el número total de observaciones y el número total de grupos en dicha compartimentación. Este criterio es similar a los criterios de información de Akaike y Schwarz que se utilizan a menudo para decidir cuántas veces deben ejecutarse las regresiones de series temporales.

El algoritmo de agrupación se aplica a todas las combinaciones de al menos tres variables de las ocho estudiadas. Si hubiéramos considerado todas sus combinaciones posibles, tendríamos 325 ejecuciones. Reducimos este número ignorando los subconjuntos de dos variables de decisión que estén altamente correlacionadas, dado que la presencia simultánea de estas variables ofrece escasa información adicional. Imponemos un umbral del 60% al coeficiente de correlación (valor absoluto), por lo que no examinamos conjuntos que incluyen simultáneamente las variables de títulos y de cartera de negociación, o las variables de deuda mayorista y de financiación estable.