Elena Estavillo nexos

La primera sentencia mexicana que reconoce el uso de inteligencia artificial ha sido difundida como un avance en la transparencia judicial. Sin embargo, vista desde la ética y la gobernanza de la IA, el caso muestra más bien una aplicación problemática de esta tecnología en un ámbito donde la rendición de cuentas es esencial.

El magistrado utilizó tres modelos de lenguaje distintos para calcular el monto de una garantía. Cada uno arrojó una cifra diferente. En lugar de preguntarse por qué ocurrió esto —qué datos usó cada modelo, cómo interpretaron las instrucciones o si cometieron errores—, el juzgador optó por promediar los resultados y dar por válida esa cifra. Ese paso, que puede parecer práctico, es precisamente donde se rompe el uso responsable de la IA.

Un principio básico de la ética de la IA es que quien toma la decisión debe entender cómo una herramienta tecnológica llega a sus resultados. Aquí no hay evidencia de que el magistrado comprendiera el proceso seguido por los modelos ni de que hubiera verificado el cálculo por otros medios. Tampoco es claro si las instrucciones del juzgador fueron suficientemente detalladas o si se corrigieron y reforzaron en subsecuentes iteraciones. La herramienta terminó sustituyendo el juicio crítico, cuando su papel debería haber sido, en el mejor de los casos, auxiliarlo.

Crédito de la imagen: Estelí Meza

También hay una confusión importante sobre qué significa transparencia. Informar que se usó IA no equivale a explicar cómo influyó en la decisión. Mientras los modelos sigan siendo cajas negras —y no se aclaren sus supuestos, límites y fuentes—, no es posible explicar el resultado ni evaluar si es correcto. La transparencia real no es anunciar la tecnología, sino permitir que sus efectos puedan entenderse y cuestionarse.

Cuando las decisiones públicas se apoyan en sistemas que no son explicables ni verificables, los riesgos no son sólo técnicos. Se afectan la confianza institucional, la igualdad entre las personas y la legitimidad de las decisiones. En este caso, la falta de rigor metodológico no es un detalle menor: impide saber si el monto fijado es razonable, justo o simplemente arbitrario.

La lección no es que la IA no deba usarse en la justicia. Es que su uso exige estándares mucho más altos de cuidado, comprensión y responsabilidad. Sin ellos, la IA no cierra brechas ni mejora decisiones: introduce nuevas formas de opacidad en espacios donde la claridad y la rendición de cuentas es indispensable.

Elena Estavillo Flores

Economista, académica y excomisionada del Instituto Federal de Telecomunicaciones

Share This