Bancos

Así es el "shadow banning" financiero: algoritmos bancarios que te limitan ofertas sin darte una explicación

Archivo - Una mujer con un bolígrafo, señala una escritura de compraventa de una hipoteca, a 30 de mayo de 2022, en Madrid (España). Los portales inmobiliarios han destacado el crecimiento del 18% en la firma de hipotecas sobre viviendas hasta su mayor ci
A veces se complica la concesión de una hipoteca. Eduardo Parra - Europa Press
Compartir

En el debate actual sobre tecnología y finanzas, ha surgido una idea inquietante: ¿podrían los bancos usar algoritmos para limitar el acceso a ciertas ofertas financieras, como pueden ser las tarjetas de crédito, condiciones especialmente beneficiosas para préstamos, u otro tipo de productos preferenciales, sin que los clientes sepan por qué? En otras palabras, una especie de “shadow banning financiero”. Aunque no se trata de un término formal de este sector, sí hay pruebas de prácticas cercanas, mecanismos opacos y regulaciones recientes que apuntan a que se trata de una realidad, más que de un riesgo.

Qué se sabe: algoritmos, decisiones automatizadas y discriminación

Discriminación en préstamos y scoring poco transparente

Un estudio conjunto de Berkeley estimó que los prestatarios latinoamericanos y afroestadounidenses en EE. UU. pagan 5‑9 puntos básicos más en tasas de interés para hipotecas de compra, aun cuando las condiciones financieras sean similares, lo que indica que los prejuicios persisten incluso en sistemas a priori automatizados. 

PUEDE INTERESARTE

Otra investigación de Stanford y Chicago encontró que los modelos de scoring crediticio son entre 5% y 10% menos precisos para solicitantes de bajos ingresos o pertenecientes a minorías, principalmente porque tienen historiales crediticios limitados y los algoritmos dependen de datos históricos que reflejan desigualdades estructurales. 

Modelos “caja negra” (black‑box) y la obligación de dar explicaciones

En mayo de 2022, la CFPB de EE. UU. emitió un comunicado dejando claro que las empresas que usan modelos complejos deben proporcionar explicaciones específicas y precisas cuando rechazan solicitudes de crédito. Específicamente: “Las empresas que dependen de algoritmos complejos deben proporcionar explicaciones específicas y precisas para rechazar solicitudes”.

PUEDE INTERESARTE

Además, la normativa de prácticas discriminatorias obliga a las entidades financieras a garantizar que sus métodos de decisión automatizados no violen leyes de igualdad, y en algunos casos las regulaciones exigen transparencia respecto a los criterios aplicados. Por ejemplo, los expertos afirman que los reguladores están exigiendo responsabilidad en modelos predictivos, especialmente para proteger a los consumidores de impactos adversos. 

Cuando las limitaciones no se explican, o sólo se sienten

En los estudios de Stanford, uno de los problemas detectados es que los algoritmos clasifican a personas con historiales escasos como de “alto riesgo”, lo que puede traducirse en rechazos implícitos o peores condiciones, sin que los afectados sepan exactamente qué elemento del algoritmo lo provocó. 

Otra investigación señala que “rechazar una solicitud de préstamo significa que el solicitante no puede acceder al servicio de línea de crédito” y que “la puntuación crediticia se utiliza para determinar la aprobación o el rechazo, lo que puede constituir una forma de discriminación”.

Regulación, derechos y transparencia

En Europa, la legislación ya impone límites claros al uso de algoritmos opacos en decisiones financieras. El Reglamento General de Protección de Datos (GDPR), en su artículo 22, establece que ningún ciudadano puede ser sometido exclusivamente a decisiones automatizadas, como el rechazo de un crédito, sin intervención humana significativa, siempre que estas decisiones tengan efectos legales o equivalentes. 

Esta protección se refuerza tras una sentencia del Tribunal de Justicia de la Unión Europea (CJEU, diciembre de 2023), que dictaminó que el cálculo de solvencia crediticia automatizado, como el que realiza la agencia SCHUFA en Alemania, sí constituye una decisión automatizada con impacto legal si se usa para establecer o denegar relaciones contractuales.

Además, la nueva Directiva Europea de Crédito al Consumo prevé medidas más estrictas de transparencia para sistemas que usen inteligencia artificial o procesos automáticos, obligando a ofrecer explicaciones comprensibles y específicas cuando se deniegan productos financieros por este tipo de herramientas. En paralelo, el futuro Reglamento de Inteligencia Artificial de la UE establece que los sistemas considerados “de alto riesgo”, como los que evalúan el crédito personal, deberán ser auditables, trazables y contar con mecanismos de supervisión humana apropiada.

Estas normativas no solo reconocen que los algoritmos bancarios pueden perpetuar sesgos, sino que exigen a las entidades financieras justificar cómo toman decisiones cuando hay personas afectadas. Aún así, informes como el del think tank CEPS advierten que la opacidad técnica, el secretismo comercial y la carga probatoria sobre el consumidor siguen siendo obstáculos importantes para frenar lo que, en la práctica, podría parecerse mucho a un “shadow banning” financiero sin aviso ni recurso.