Por: Dave López-Mejía
La justicia mexicana trae una presión que, siendo honestos, nadie discute. Mucho asunto, tiempos largos, puertas que no siempre abren igual para todas las personas, y una confianza pública que viene golpeada. Y sí, todavía falta sumar el tema de las cifras negras, pero dejémoslo ahí para no perdernos. Lo verificable es esto, en 2024 se registraron 330,041 delitos en causas penales ingresadas al sistema, y la carga recae sobre todo en los poderes judiciales estatales (INEGI, 2025, p. 50). Este dato, por sí solo, no explica todo, pero sí deja clara la lógica y es que cualquier herramienta que prometa “agilizar” va a sonar atractiva. Y ahí entra la inteligencia artificial, de hecho, ya entró.
El debate real no es si la IA “debe” existir en los juzgados y tribunales, porque eso ya pasó. La discusión decisiva es cómo entra, con qué límites, con qué control, con qué trazabilidad, y quién responde si algo sale mal. La Constitución, por lo menos, marca el piso como la justicia pronta, completa, imparcial y gratuita, y nada de hacerse justicia por propia mano (Cámara de Diputados, 2025, art. 17). Entonces, si la IA va a sumar, tiene que hacerlo sin mover el corazón de la función jurisdiccional, que es lo que a veces se quiere “brincar”: deliberar, razonar y decidir por una persona.
Ahora, México ya trae señales institucionales, y esto es importante recordarlo porque no estamos hablando solo de futurismo. Por un lado, el Poder Judicial ya empieza a perfilar criterios para usos auxiliares. En una síntesis oficial se refiere un criterio con registro digital 2031010, publicado el 22 de agosto de 2025, como referente para pensar la transformación digital de la justicia (SCJN, 2025, p. 32).
Por otro lado, el Senado se metió de lleno con un ciclo formal de conversatorios para construir un marco normativo, y el diagnóstico es bastante frontal, el reto es crear un esquema regulatorio “hoy inexistente”, y se afirma tal cual que “no existen normas, no existen reglas” (Senado de la República, 2025, p. 192). Cuando dos poderes del Estado admiten, de facto, que esto ya está encima y que falta la regla, la conversación cambia. Se acabó la curiosidad tecnológica, y empieza la parte pesada que es la gobernanza, límites y responsabilidades.
Aquí, desde una perspectiva en derechos humanos, el punto sustantivo es el debido proceso. La IA incide en derechos cuando toca datos del expediente, cuando “sugiere” patrones, cuando automatiza documentos, o cuando empuja priorizaciones que luego terminan pareciendo decisión. Y el riesgo no es abstracto ni teórico sino opacidad técnica, sesgos por datos históricos, filtraciones, esa dependencia medio automática de “lo que arrojó el sistema”, y una erosión silenciosa del derecho de defensa. Por eso el estándar mínimo no puede ser de buena fe, ni de “confíen”. Tiene que ser verificable y auditable. Sin eso, se vuelve cuento.
En esa línea, la evidencia normativa internacional crea una punta de flecha, pues, la Recomendación sobre la Ética de la Inteligencia Artificial adoptada por la UNESCO propone un marco de valores, principios y acciones para orientar el uso responsable de IA, con centralidad en derechos humanos (UNESCO, 2021). Traducido al terreno judicial, esa centralidad se aterriza en reglas muy concretas, de esas que sí se pueden exigir:
- Transparencia y explicabilidad: Si se usó IA en una actuación jurisdiccional relevante, debe quedar asentado. Sin divulgación, no hay contradicción real, y sin contradicción, el control se vuelve decorativo.
- Protección de datos: El expediente no es material para “entrenar” sistemas ni para consultas fuera de entornos controlados. La seguridad de la información no es accesorio.
- Supervisión humana y decisión humana: La IA apoya, no sustituye. La firma, la motivación y la responsabilidad se quedan en la persona juzgadora. Eso no se negocia y;
- Proporcionalidad e inocuidad: Uso limitado a tareas donde la IA no invada interpretación jurídica ni valoración probatoria, y donde se pueda demostrar que no daña garantías.
Entonces, el siguiente paso ya no es retórico, ni de discursos bonitos. Es administrativo y legislativo. México necesita, al menos, cuatro cosas inmediatas: (i) políticas internas obligatorias en poderes judiciales para registrar uso de IA y delimitar casos permitidos; (ii) estándares de contratación pública con auditoría, registros, ciberseguridad y pruebas de sesgo; (iii) capacitación para jueces, defensores y personal técnico, enfocada en límites, riesgos y lectura crítica de salidas; y (iv) mecanismos de revisión para impugnar cuando el uso de IA afecte la defensa o rompa el equilibrio procesal.
A la luz de lo expuesto, la conclusión es sobria y, al mismo tiempo, decisiva ya que la IA puede contribuir a una justicia más pronta, sí, pero solo si se integra con reglas que preserven garantías, hagan rastreable cada uso, y sostengan la centralidad de la decisión humana. Si no, la “innovación” se vuelve atajo. Y en justicia, los atajos se pagan en debido proceso.
Referencias
Cámara de Diputados. (2025). Constitución Política de los Estados Unidos Mexicanos (PDF). https://www.diputados.gob.mx/LeyesBiblio/pdf/CPEUM.pdf
INEGI. (2025). Censo Nacional de Impartición de Justicia Federal y Estatal (CNIJF-E) 2025: Reporte de resultados (6 de noviembre de 2025) (PDF). https://www.inegi.org.mx/contenidos/saladeprensa/boletines/2025/cnije/cnije-f2025_RR.pdf
Senado de la República. (2025). Hacia un Marco Normativo para la Inteligencia Artificial (IA) en México: Transcripciones íntegras de los seis conversatorios temáticos 2024–2025 (julio de 2025).
Suprema Corte de Justicia de la Nación (SCJN). (2025). Síntesis Informativa (9 de septiembre de 2025) (PDF). https://www.scjn.gob.mx/sites/default/files/sintesis-informativa/2025-09/S%C3%ADntesisPDF-09septiembre2025_2.pdf
UNESCO. (2021). Recomendación sobre la Ética de la Inteligencia Artificial. https://unesdoc.unesco.org/ark:/48223/pf0000380455_spa

