
El nuevo reglamento de la ley de Inteligencia Artificial (IA) dispone calificar como de riesgo alto el uso de sistemas basados en IA para determinar la evaluación crediticia de las personas, excepto en los casos en que sirva para la detección de fraude financiero.
Dicha norma es aplicable a las entidades financieras que otorguen préstamos –bancos, cajas, financieras e incluso fintech–.
“El reglamento está alcanzando al sistema financiero con una mayor carga regulatoria y esto siempre genera costos de implementación, cumplimiento o por documentación requerida”, dijo a Gestión Maria del Carmen Yuta, socia de Vodanovic.
LEA TAMBIÉN Desde hoy subiría costo de créditos de consumo y tarjetas, ¿cuál es el punto de quiebre?
Por tanto, las instituciones que ya venían usando la IA para agilizar sus procesos, deberán delimitar cuándo corresponde a una evaluación crediticia y en qué casos es para identificar fraudes, y demostrarlo, por ejemplo, con registros actualizados de su sistema, esquemas de scoring (puntuación), listas de chatbot o de onboarding (incorporación de clientes).
Además, calificar el uso de IA como alto riesgo implica que la evaluación crediticia cuente con un porcentaje de intervención humana, lo que significa costos de capacitación tecnológica, indicó.
Con este escenario, es consustancial a un negocio que si una empresa asume más costos, potencialmente incremente los precios de los productos, en este caso los derivados del uso de la IA, manifestó.
En el año 2023, la empresa de soluciones analíticas SAS reportó que el 41% de bancos ya usaba nuevas tecnologías emergentes.

Provisiones
Sin embargo, especialistas precisaron que lo anterior no se traduciría en mayores gastos por provisiones para las instituciones financieras.
“Este reglamento no representa más provisiones de las entidades por riesgo crediticio; la banca debe provisionar más si el cliente tiene una calificación deficiente, pero aquí hablamos del paso previo al otorgamiento del préstamo”, sostuvo Luis Ernesto Marín, socio del área corporativa y financiera del estudio Rubio Leguía Normand.
Lo que busca esta norma, refiere, más allá de una transparencia algorítmica es permitir que los bancos puedan mejorar la evaluación crediticia, sin caer en sesgos de atención –propios de la IA– por pertenecer a determinados sectores de la población.
Mencionó que un buen manejo de la IA se traduce en la generación de eficiencias para cualquier negocio, por lo que no prevé que esta medida frene su implementación en el sistema financiero, sino que creará un marco adecuado para ese proceso.
LEA TAMBIÉN Cajas unen fuerzas en billetera digital: ¿cómo planean superar a Yape y Plin?
Cajas
Por su parte, Walter Leyva, docente de Esan, considera que esta norma permitirá que muchas microfinancieras analicen el uso de la IA en ciertos procedimientos.
“Casi todas utilizamos la IA para procesos técnicos, de scoring crediticio, aunque la evaluación propia de los expedientes la siguen liderando los analistas con los criterios y políticas establecidos por cada entidad”, argumentó.
Asimismo, comentó que las gerencias de riesgos de las microfinancieras –encargadas de habilitar los esquemas para la evaluación de los deudores– que quieren usar la IA, deben pasar por el análisis de la SBS, en línea con lo dispuesto en el Reglamento de Gestión de Riesgos de Modelo desde el año pasado.
LEA TAMBIÉN ¿En qué superan las cooperativas ecuatorianas a las peruanas?
Sanciones
La Secretaría de Gobierno y Transformación Digital es el organismo encargado de supervisar el cumplimiento de este reglamento, aunque carece de capacidad sancionadora, precisó Yuta.
Si una entidad financiera no gestiona el cumplimiento de estas obligaciones o genera mayor riesgo, la secretaría tendrá que coordinar con las autoridades competentes –la SBS–, explicó.
“Pese a no ser una normativa de la SBS, puede considerar que hay un incremento en el riesgo y efectuar observaciones”, acotó.
La norma indica que el que implemente un sistema basado en IA de riesgo alto –como el de evaluación crediticia– debe establecer mecanismos para garantizar la transparencia algorítmica, y, así, permitir informar al usuario, de forma previa, clara y sencilla, sobre la finalidad o uso del referido sistema, sus funciones principales y el tipo de decisiones que puede tomar.
LEA TAMBIÉN Banca cierra una de cada 5 agencias por boom de billeteras, ¿seguirán recortes?

Economista de la Universidad de Piura. Actualmente se desempeña como redactor de Finanzas en Diario Gestión.