Explora

El sistema bancario y las nuevas tecnologías: el scoring algorítmico

Por Monica Yrrarazabal[1]

Asociada internacional de Simpson Thacher & Bartlett LLP y Magíster en Derecho (LL.M.) por la Universidad de Columbia.

Miembro del equipo de Banca y Finanzas de The Key.

A muchos abogados se nos ha enseñado que el derecho no es estático y debe adaptarse a los cambios en la sociedad. Teniendo ello en consideración, en este articulo vamos a tocar brevemente el tema de la innovación en el sistema bancario: el caso de la evaluación de riesgo crediticio y las posibles respuestas de los reguladores ante el uso de nuevas tecnologías.

 

Para nadie es novedad que vivimos en un mundo cada vez más tecnológico y el sistema bancario no ha sido la excepción, es por ello que hay una tendencia en los bancos del exterior a utilizar inteligencia artificial en sus evaluaciones crediticias. Recordemos que una de las funciones clave de los bancos es la transformación del crédito y la provisión de liquidez. Es decir, los bancos conceden préstamos, pero antes de entrar en transacciones arriesgadas necesitan medir su riesgo; por ello, examinan la solvencia de sus posibles futuros prestatarios, la probabilidad de incumplimiento, su pérdida y la asequibilidad del crédito.

 

Para ello, los bancos y las entidades de calificación crediticia han venido utilizando una fórmula -o una variante de la misma- desarrollada en la década de 1980 por Fair Isaac & Company, comúnmente denominada puntuación FICO[2].  Esta calificación crediticia implica el uso de técnicas estadísticas para modelar y predecir la solvencia de un prestatario y sacar conclusiones a partir de patrones en el rendimiento crediticio pasado y datos de transacciones de cuentas financieras recopilados de múltiples prestatarios[3]. Este paso es crítico para los bancos ya que un mal control del crédito y una liquidez y capital insuficientes pueden conducir a una mayor asunción de riesgos y a la inestabilidad del mercado. En consecuencia, los bancos siempre se han encontrado atraídos por mejorar esta evaluación -y por minimizar los costos asociados- encontrando una posible solución en los recientes avances del big data y learning machine que han permitido el desarrollo de modelos más sofisticados y automatizados de scoring de crédito denominada scoring algorítmico.

 

A continuación repasaremos estos términos tecnológicos[4]. «Big data» fomenta la inclusión de conjuntos de información nuevos y a gran escala. En el ámbito del riesgo crediticio, por ejemplo, este sistema incluye nueva información que va más allá del típico modelo de información y calificación crediticia FICO. Así, se pueden incluir datos como el pago del alquiler y recibos de servicios, hábitos personales (como hacer las compras en Metro o Vivanda, usar Mac o Windows, etc.) y los datos contenidos en las redes sociales. «Machine learning» se produce cuando los ordenadores optimizan datos estándar y/o big data a través del aprendizaje. En ese sentido, los programas informáticos mejoran automáticamente su rendimiento a través de la “experiencia” cuando se los “entrena” con conjuntos de datos grandes y dispares. Los algoritmos de reconocimiento de patrones pueden ser entrenados para reconocer no solo voces y rostros, sino también patrones de comportamiento como el pago de deudas, por ejemplo. En ese sentido puede determinar nuevas relaciones como el tipo de cerveza que una persona consume y su probabilidad de devolver un préstamo. Por ultimo, la denominada «inteligencia artificial» es la inclusión de big data y machine learning.

El uso de la inteligencia artificial se ha desarrollado en el sector financiero en más de un área[5] (por ejemplo, compliance, detección de fraudes y lavado de dinero (AML), evaluación de préstamos y créditos; ciberseguridad; etc.), pero esta vez nos centraremos en la evaluación crediticia dado que ello genera una preocupación particular porque los algoritmos utilizan todo tipo de datos no tradicionales.

 

Ello podría ayudar a conseguir una mayor inclusión financiera dado que esta nueva forma de analizar el riesgo crediticio se basa en información multidimensional de las características de un prestatario a pesar de no tener ningún historial crediticio. Asimismo -a diferencia de lo que ocurre con el sistema de puntuación FICO, en el que las probabilidades de que un solicitante obtenga o no un crédito se extienden probablemente a muchos o a todos los bancos- a través del machine learning, cada banco puede entrenar su algoritmo con sus propios conjuntos de datos y ajustar el algoritmo según su propia tolerancia al riesgo y sus prácticas de gestión. 

 

Sin embargo, el problema de los algoritmos inteligentes es que son capaces de funcionar de forma autónoma, lo que significa que pueden llegar a una conclusión basada en sesgos que un ser humano ex post no podría identificar debido a la cantidad abismal de datos que estos algoritmos utilizan.

 

En un sistema algorítmico hay tres fuentes principales de sesgo[6] que podrían conducir a resultados discriminatorios: sesgo de entrada, sesgo de entrenamiento y sesgo de programación. El sesgo de entrada podría producirse cuando los propios datos de origen están sesgados porque carecen de ciertos tipos de información, no son representativos o reflejan sesgos históricos. El sesgo de formación podría aparecer tanto en la categorización de los datos de partida como en la evaluación de si el resultado coincide con el deseado. Y el sesgo de programación podría producirse en el diseño original o cuando se permite que un algoritmo inteligente aprenda y se modifique a sí mismo a través de sucesivos contactos con usuarios humanos, la asimilación de datos existentes o la introducción de nuevos datos.

 

Por lo tanto, algoritmos sesgados podrían perpetuar conductas discriminatorias en la concesión de préstamos (por ejemplo, poblaciones no blancas y/o latinas). Ante ello, los reguladores tienen un abanico de posibilidades, desde la prohibición hasta los «sandboxes«. Los reguladores preocupados por la creación de sesgos y riesgos sistémicos en la calificación crediticia algorítmica podrían responder imponiendo una prohibición. Sin embargo, este enfoque impediría a los bancos lograr la inclusión financiera mediante el uso de estas nuevas tecnologías, lo cual podría perjudicar mucho mas en tiempos de pandemia a las personas no podrían acceder a servicios financieros de otra manera.

 

Otra posibilidad puede consistir en «no hacer nada»; según este modelo de pasividad reguladora o «laissez-faire«, los reguladores no harían nada más allá de hacer cumplir el marco legal existente[7]. Sin embargo, esta estrategia podría causar varios problemas a los consumidores, quienes quedarían desprotegidos, y tal vez, incluso podría dañar la confianza en el propio sistema financiero. Además, en ausencia de una regulación específica, es difícil que los proveedores de servicios financieros se pongan de acuerdo en una respuesta universalmente aceptada sobre qué tipos de datos deben incluirse en los algoritmos para evitar sesgos. Considerando además que las multas por incumplimiento o las quejas de los clientes muchas veces no son incentivo suficiente para implementar cambios por iniciativa propia.

Por lo tanto, una respuesta deseable debe ser aquella que pueda permitir la actividad mitigando los riesgos identificados. Algunos países han decidido poner en marcha oficinas de innovación como primer paso para interactuar más estrechamente con el sector de las tecnologías financieras. El objetivo de estas oficinas es promover la interacción y facilitar el aprendizaje entre reguladores e innovadores; así, los reguladores estarán en mejores condiciones para regular y supervisar los mercados financieros y las entidades financieras tendrían la oportunidad de resolver sus dudas sobre el posible marco regulatorio aplicable a sus productos. Por ejemplo, actualmente hay 33 jurisdicciones con oficinas de innovación operativas.[8] 

 

Del mismo modo, un «sandbox» es una estrategia regulatoria que promueve la innovación financiera proporcionando un entorno de prueba en el que los innovadores pueden desarrollar sus productos bajo la estrecha supervisión de los reguladores al tiempo que se benefician de una menor carga regulatoria durante el período de prueba[9].  En este sentido, los sandboxes regulatorios permiten a los innovadores probar sus productos financieros en un entorno amigable y seguro y, al mismo tiempo, disfrutan de la asistencia de los reguladores. Una vez probado el producto financiero o transcurrido el periodo de sujeción al sandbox, la entidad financiera estará sujeta a todo el marco regulatorio asociado al producto y desarrollado tras este periodo de conocimiento del mismo.

 

La aplicación de un sandbox es una estrategia más cara que la apertura de una oficina de innovación ya que implica un esfuerzo de apoyo a largo plazo que requerirá mayores costos asociados a la formación y la contratación de empleados. Además, requiere un alto grado de sofisticación e independencia del regulador, y de la creación de un espacio político para entrar en diálogos honestos entre las partes implicadas; por lo que puede no adaptarse a todos los países.

 

El proceso para construir un buen marco regulador requiere la comprensión de las cuestiones tecnológicas, pero también requiere la comprensión de las oportunidades de negocio y, lo que es más importante, de las implicancias, los costos y el nivel de complicación de los requisitos legales que los reguladores pretenden aplicar. Así pues, parece que la cooperación de las instituciones financieras en este proceso es la clave del éxito.  Pueden ayudar a identificar los posibles problemas en una fase temprana y tener un plan bien concebido para abordar y eliminar el sesgo involuntario y el riesgo sistémico.

 

En el marco de los sandboxes, recientemente la Superintendencia de Banca, Seguros y AFP (SBS) ha publicado el Reglamento para la realización temporal de actividades en modelos novedosos. Dicho reglamento es un paso muy importante para el Perú porque denota que nuestro regulador ha optado por tomar esta posición regulatoria en favor de la innovación y protección de los consumidores financieros, flexibilizando la regulación para las pruebas piloto de realización de actividades de manera distinta a las tradicionalmente efectuadas. Es por ello que esperamos que nuevas tecnologías como el scoring algorítmico puedan ser analizadas y optimizadas en nuestro país de la mano del regulador.

[1] Abogada por la Pontificia Universidad Católica del Perú (2014), Magíster en Derecho (LL.M.) por la Universidad de Columbia y asociada internacional de Simpson Thacher & Bartlett LLP.

[2] Véase Baer, Greg, Prakash, Naeha, Machine Learning and Consumer Banking: An Appropriate Role for Regulation, (2019).

[3] Véase Board of Governors of the Federal Reserve System, Report to Congress on Credit Scoring and its effects on the availability and affordability of credit, (2007).

[4] Véase Kelin, Aaron, Reducing bias in AI-based financial services, (2020).

[5] Véase Bharadwaj, R, AI for Cybersecurity in Finance – Current Applications, Emerj, (2019).

[6] Véase Petrasic, Kevin, Saul, Benjamin, Greig, James, Bornfreund, Matthew and Lamberth, Katherine, Algorithms and bias: What lenders need to know, White & Case LLP, (2017).

[7] Véase Gurrea-Martinez, Aurelio, Remolina, Nydia, Global Challenges and Regulatory Strategies to Fintech. SMU Centre for AI & Data Governance Research Paper No. 2020/01, (2020).

[8] Véase United Nations Secretary-General’s Special Advocate for Inclusive Finance for Development FinTech Working Group & Cambridge Centre for Alternative Finance, Early Lessons on Regulatory Innovations to Enable Inclusive FinTech: Innovation Offices, Regulatory Sandboxes, and RegTech, UNSGSA, (2019).

[9] Véase Schan, Duff, Regulatory Sandboxes: Modernizing Digital Financial Regulation, The Aspen Institute, (2017).

Imagen de cabecera: unsplash.com