DEL “JUEZ SOBERANO” AL JUEZ CONTROLABLE: LA IA COMO ARQUITECTURA DEL PROCESO

Andrés Vanegas Canosa

En las democracias constitucionales la jurisdicción no es un servicio neutro, sino un ejercicio institucionalizado de poder. Decide con autoridad, impone consecuencias y, por esa vía, afecta libertad, patrimonio, derechos y expectativas legítimas. Por eso el juez, aun cuando actúe con honestidad, no puede quedar librado a la confianza personal. El problema no es biográfico. Es estructural. Desde temprano la teoría política entendió que el poder tiende a expandirse y que, para evitar su desbordamiento, debe ser contenido por reglas y contrapesos. La advertencia clásica no era contra el juez como persona, sino contra el juez como centro autónomo de decisión sin controles verificables. En esa línea, las ideas ilustradas que condujeron a la separación de poderes (y, con ella, al diseño de frenos institucionales) trasladan una enseñanza precisa al proceso: la jurisdicción requiere un dispositivo que racionalice, límite y haga controlable el ejercicio del poder de decidir. Ese dispositivo es el debido proceso.

Se tiene que decir. El debido proceso no es un adorno. No es una cortesía. No es una acumulación ritual de términos y actos. Es una tecnología institucional para impedir que la decisión judicial se convierta en voluntad soberana. Su función es convertir la fuerza estatal en autoridad jurídica, y hacerlo mediante condiciones públicas: contradicción, prueba, publicidad, motivación, recursos y responsabilidad. En esto radica la humanidad de la justicia en sentido constitucional. No en la sensibilidad del decisor, sino en la capacidad del sistema para exigirle razones, permitir su discusión y habilitar su corrección. Una justicia es más humana, no cuando el juez se presenta como un sujeto empático, sino cuando el procedimiento produce una decisión más explicable, más revisable y, por ende, menos arbitraria.

El debate contemporáneo sobre inteligencia artificial en la justicia suele partir de una premisa equivocada: que el dilema es si la tecnología “humaniza” o “deshumaniza” al juez. Ese enfoque confunde el núcleo del problema. La pregunta constitucional relevante no es si el juez usa herramientas, sino si el uso de esas herramientas fortalece o debilita el sistema de control del poder judicial. De allí que dos posiciones opuestas resulten, en el fondo, igualmente insatisfactorias. Una reduce la IA a eficiencia administrativa: gestión, reparto, automatización de oficios, transcripciones, calendarios. Eso puede mejorar tiempos, pero no resuelve el déficit de legitimidad que proviene de decisiones opacas, motivaciones estandarizadas, valoración probatoria selectiva o razonamientos que no resisten contradicción. La otra posición propone la sustitución: convertir a la IA, directa o indirectamente, en fuente real del resultado. Esa salida choca con exigencias elementales del Estado constitucional, porque traslada el centro de gravedad de la decisión hacia un artefacto técnico difícil de escrutar, con criterios que no siempre son transparentes, y con un rasgo decisivo: la máquina no responde, no puede ser
llamada a justificar, no puede ser objeto de control jurisdiccional en sentido propio, no asume responsabilidad.

Entre esos extremos se ubica la tesis que propongo: la inteligencia artificial puede ser jurídicamente valiosa si se entiende como arquitectura institucional de la decisión judicial, esto es, como un componente que refuerza el debido proceso, eleva la exigencia de motivación y hace más preciso el control del juez, sin desplazar la imputación humana del fallo. La clave está en corregir el punto de partida: el juez no es un soberano externo al proceso, sino uno de sus elementos funcionales. El proceso es un conjunto de reglas y acciones humanas orientadas a producir una decisión obligatoria bajo condiciones de control. La decisión es humana porque es imputable, revisable y justificable. En consecuencia, toda técnica que ingrese a la justicia debe ser evaluada por su efecto sobre esas condiciones, no por su novedad.

En un modelo institucionalmente correcto, la IA no es un oráculo que sustituye el razonamiento, sino un mecanismo de contraste que intensifica el deber de motivación. La diferencia es decisiva. El oráculo desplaza responsabilidad; el contraste la aumenta. Si un sistema ofrece alternativas razonables de solución, organiza el material probatorio, identifica tensiones argumentativas, sugiere hipótesis fácticas compatibles con el expediente o reconstruye líneas jurisprudenciales relevantes, lo que introduce no es una “sentencia automática”, sino un estándar objetivo de referencia frente al cual el juez debe responder. El juez conserva, por diseño constitucional, la competencia decisoria. Pero su libertad no es discrecionalidad sin límites. Su libertad es responsabilidad. Y esa responsabilidad se concreta en un deber: explicar por qué decide como decide. La presencia de un contraste técnico, cuando está bien gobernado, hace más difícil eludir ese deber mediante fórmulas vacías. Si el juez se aparta de una alternativa plausible, debe decir por qué. Si la acoge, debe apropiarla y reconstruirla en su motivación. En ambos casos, la exigencia no es tecnológica; es constitucional: producir razones controlables.

Este punto permite entender la ganancia institucional. La IA, integrada como contraste justificativo, puede reforzar la contradicción, porque hace más visibles las premisas relevantes de la decisión y permite que las partes discutan no solo la conclusión, sino el camino que conduce a ella. Puede reforzar la revisabilidad, porque deja huella de alternativas consideradas y de aspectos probatorios determinantes, facilitando el control de recursos y, eventualmente, el control constitucional excepcional. Puede reforzar la transparencia, porque obliga a ordenar el expediente y a explicitar vínculos entre hechos, pruebas y normas. Y puede reforzar la responsabilidad, porque el juez ya no puede refugiarse en la vaguedad: el sistema produce un contrapunto que obliga a una motivación más precisa. Nótese que el fin no es que la IA “acierte”. El fin es que el proceso controle mejor al juez.

Desde luego, esta tesis solo se sostiene si se establece una frontera nítida: la prohibición de delegación, incluso cuando sea encubierta. La IA no puede convertirse en un camino para reemplazar la valoración humana donde la inmediación y la apreciación racional de la prueba son decisivas, ni en un expediente paralelo inaccesible a las partes, ni en una caja negra que impida contradicción. Dicho de otro modo, la reserva de humanidad, correctamente entendida, no es un rechazo a la técnica; es la preservación de condiciones institucionales mínimas: trazabilidad, posibilidad de escrutinio, contradicción efectiva y decisión imputable. La decisión judicial, para ser constitucionalmente legítima, debe poder ser atribuida a un sujeto responsable que responde por sus razones. Esa es la diferencia entre automatizar y racionalizar. Automatizar desplaza la razón; racionalizar la exige.

En Colombia la discusión es especialmente relevante, porque la crisis de legitimidad judicial no proviene solo de congestión o lentitud. Proviene también de la variabilidad, de la opacidad y de la dificultad real para controlar decisiones que, en ocasiones, no exhiben de manera transparente su estructura justificativa. En ese escenario, la incorporación de IA como arquitectura institucional del debido proceso ofrece una oportunidad: elevar el estándar de motivación y, con ello, reforzar el control del juez. No para reducir al juez a un ejecutor de recomendaciones, sino para obligarlo a mirar el expediente con más disciplina, a enfrentar alternativas razonables y a explicar con mayor rigor por qué adopta una solución y descarta otra. Esa exigencia adicional no es un costo indeseable. Es, precisamente, el precio constitucional del poder de decidir.

Si se quisiera condensar la tesis en una fórmula, sería esta: la humanidad de la justicia no es biográfica; es institucional. El proceso existe para controlar al juez, no para celebrarlo. Y la inteligencia artificial, bien gobernada, puede ayudar a cumplir esa función histórica con mayor precisión, intensificando la obligación de motivar y haciendo más verificable la racionalidad de la decisión. El dilema no es tecnología sí o no. El dilema es institucional: o se incorpora la IA como sustituto opaco que debilita garantías, o se incorpora como instrumento justificativo que refuerza contradicción, transparencia, revisabilidad y responsabilidad. En un Estado constitucional, la única incorporación aceptable es la segunda.