Así es el "shadow banning" financiero: algoritmos bancarios que te limitan ofertas sin darte una explicación
Ningún ciudadano puede ser sometido exclusivamente a decisiones automatizadas
Qué puedes hacer si te rechazan una hipoteca: soluciones y otras vías de financiación
En el debate actual sobre tecnología y finanzas, ha surgido una idea inquietante: ¿podrían los bancos usar algoritmos para limitar el acceso a ciertas ofertas financieras, como pueden ser las tarjetas de crédito, condiciones especialmente beneficiosas para préstamos, u otro tipo de productos preferenciales, sin que los clientes sepan por qué? En otras palabras, una especie de “shadow banning financiero”. Aunque no se trata de un término formal de este sector, sí hay pruebas de prácticas cercanas, mecanismos opacos y regulaciones recientes que apuntan a que se trata de una realidad, más que de un riesgo.
Qué se sabe: algoritmos, decisiones automatizadas y discriminación
Discriminación en préstamos y scoring poco transparente
Un estudio conjunto de Berkeley estimó que los prestatarios latinoamericanos y afroestadounidenses en EE. UU. pagan 5‑9 puntos básicos más en tasas de interés para hipotecas de compra, aun cuando las condiciones financieras sean similares, lo que indica que los prejuicios persisten incluso en sistemas a priori automatizados.
Otra investigación de Stanford y Chicago encontró que los modelos de scoring crediticio son entre 5% y 10% menos precisos para solicitantes de bajos ingresos o pertenecientes a minorías, principalmente porque tienen historiales crediticios limitados y los algoritmos dependen de datos históricos que reflejan desigualdades estructurales.
Modelos “caja negra” (black‑box) y la obligación de dar explicaciones
En mayo de 2022, la CFPB de EE. UU. emitió un comunicado dejando claro que las empresas que usan modelos complejos deben proporcionar explicaciones específicas y precisas cuando rechazan solicitudes de crédito. Específicamente: “Las empresas que dependen de algoritmos complejos deben proporcionar explicaciones específicas y precisas para rechazar solicitudes”.
Además, la normativa de prácticas discriminatorias obliga a las entidades financieras a garantizar que sus métodos de decisión automatizados no violen leyes de igualdad, y en algunos casos las regulaciones exigen transparencia respecto a los criterios aplicados. Por ejemplo, los expertos afirman que los reguladores están exigiendo responsabilidad en modelos predictivos, especialmente para proteger a los consumidores de impactos adversos.
Cuando las limitaciones no se explican, o sólo se sienten
En los estudios de Stanford, uno de los problemas detectados es que los algoritmos clasifican a personas con historiales escasos como de “alto riesgo”, lo que puede traducirse en rechazos implícitos o peores condiciones, sin que los afectados sepan exactamente qué elemento del algoritmo lo provocó.
Otra investigación señala que “rechazar una solicitud de préstamo significa que el solicitante no puede acceder al servicio de línea de crédito” y que “la puntuación crediticia se utiliza para determinar la aprobación o el rechazo, lo que puede constituir una forma de discriminación”.
Regulación, derechos y transparencia
En Europa, la legislación ya impone límites claros al uso de algoritmos opacos en decisiones financieras. El Reglamento General de Protección de Datos (GDPR), en su artículo 22, establece que ningún ciudadano puede ser sometido exclusivamente a decisiones automatizadas, como el rechazo de un crédito, sin intervención humana significativa, siempre que estas decisiones tengan efectos legales o equivalentes.
Esta protección se refuerza tras una sentencia del Tribunal de Justicia de la Unión Europea (CJEU, diciembre de 2023), que dictaminó que el cálculo de solvencia crediticia automatizado, como el que realiza la agencia SCHUFA en Alemania, sí constituye una decisión automatizada con impacto legal si se usa para establecer o denegar relaciones contractuales.
Además, la nueva Directiva Europea de Crédito al Consumo prevé medidas más estrictas de transparencia para sistemas que usen inteligencia artificial o procesos automáticos, obligando a ofrecer explicaciones comprensibles y específicas cuando se deniegan productos financieros por este tipo de herramientas. En paralelo, el futuro Reglamento de Inteligencia Artificial de la UE establece que los sistemas considerados “de alto riesgo”, como los que evalúan el crédito personal, deberán ser auditables, trazables y contar con mecanismos de supervisión humana apropiada.
Estas normativas no solo reconocen que los algoritmos bancarios pueden perpetuar sesgos, sino que exigen a las entidades financieras justificar cómo toman decisiones cuando hay personas afectadas. Aún así, informes como el del think tank CEPS advierten que la opacidad técnica, el secretismo comercial y la carga probatoria sobre el consumidor siguen siendo obstáculos importantes para frenar lo que, en la práctica, podría parecerse mucho a un “shadow banning” financiero sin aviso ni recurso.