FINANCIERO BANCARIO / por Miguel Gallardo Guerra
La Inteligencia Artificial está transformando aceleradamente la forma en que las entidades financieras gestionan sus operaciones, riesgos y procesos de cumplimiento. Desde sistemas que detectan operaciones sospechosas en tiempo real hasta motores de decisión para otorgamiento de crédito, la IA ha comenzado a ocupar un lugar estratégico en el cumplimiento normativo.
Sin embargo, su uso plantea interrogantes que van más allá de lo técnico o lo eficiente. ¿Qué ocurre cuando un modelo algorítmico toma decisiones opacas? ¿Cómo garantizar que no se incurra en sesgos, discriminación o fallos que comprometan derechos fundamentales?
Riesgos clave de la IA en cumplimiento.
- Falta de explicabilidad: Muchos algoritmos funcionan como “cajas negras”, lo que dificulta justificar ante autoridades por qué se tomó una determinada decisión.
- Sesgos algorítmicos: Si los datos con los que se entrena un modelo tienen sesgos históricos, estos se amplifican y perpetúan.
- Responsabilidad jurídica difusa: ¿Quién responde si una decisión automatizada causa daño? ¿El programador? ¿La entidad financiera? ¿El proveedor de tecnología?
En México, aún no existe una regulación específica sobre IA en el sector financiero. Sin embargo, diversas autoridades han manifestado interés en avanzar hacia marcos de gobernanza algorítmica que garanticen transparencia, rendición de cuentas y protección de datos.
El primer paso hacia una regulación nacional.
En marzo de 2025, el diputado Ricardo Monreal Ávila, presentó una iniciativa para reformar la Constitución Política de los Estados Unidos Mexicanos, con el objetivo de facultar al Congreso de la Unión para legislar en materia de inteligencia artificial.
Posteriormente, en mayo de 2025, la senadora Juanita Guerra Mena presentó ante el Senado la Iniciativa con Proyecto de Decreto por el que se expide la Ley General para el Uso y Control de la Inteligencia Artificial en los Sectores Público y Privado. Esta propuesta busca establecer un marco regulatorio integral que promueva el uso ético, transparente y sostenible de la IA, tanto en el sector público como en el privado.
La iniciativa plantea la creación de organismos especializados como la Agencia Nacional de Inteligencia Artificial y el Centro Nacional de Inteligencia Artificial y Tecnología encargados de supervisar y evaluar el desarrollo de esta tecnología. También propone clasificar los sistemas de IA según su nivel de riesgo y exigir evaluaciones de impacto ético y legal antes de su implementación.
En materia ambiental y de derechos de autor, el proyecto también avanza hacia un enfoque responsable: limita el uso excesivo de recursos naturales por parte de los centros de datos y protege la creatividad humana frente a contenidos generados exclusivamente por IA.
Una oportunidad para el sector financiero.
Si bien las propuestas aún deben pasar por un proceso legislativo, representan un paso clave hacia la definición de una política nacional de inteligencia artificial. Para las instituciones financieras, su eventual aprobación podría implicar nuevas obligaciones en materia de auditoría algorítmica, gobernanza tecnológica y ética corporativa.
Desde la perspectiva del abogado de cumplimiento, es fundamental que las instituciones:
- Documenten y supervisen los modelos algorítmicos utilizados.
- Garanticen mecanismos de revisión humana.
- Adopten principios éticos y sostenibles en el diseño y uso de IA, incluso si no están legalmente exigidos aún.
La IA puede ser una gran aliada del cumplimiento. Pero debe integrarse con conciencia, transparencia y responsabilidad. En la era digital, el cumplimiento no es sólo técnico, es ético y cada vez más, regulatorio.
Nos leemos!

Para más información escríbenos a:
mgallardo@bgbg.mx
Visita el área de


La reforma a la Ley de Amparo ya es oficial