El atasco en la Justicia es un problema que afecta fuertemente a España, y más recientemente agravado por las movilizaciones de los funcionarios de Justicia. Sin embargo este país no es el único que lo padece. La cola en los juzgados es una tónica habitual en un montón países y la solución no parece ser sencilla. Sin embargo, comienza a haber propuesta para descongestionar el sistema judicial, gracias al uso de la inteligencia artificial.
En España, las movilizaciones laborales del personal de Justicia ha provocado la suspensión de 200.000 juicios en los últimos meses. En países como Colombia, el año pasado había 594.000 procesos activos en todos los despachos de la especialidad civil, a los cuales se sumaron 800.000 procesos, y del total egresaron 577.000, que sustenta el 58 % de congestión judicial.
La abogada de la UNAL Aura Valentina Laverde Silva, afirmó que “en 2022, 1 de cada 2 procesos no se terminó de solucionar. Esta y otras cifras dan espacio a una serie de dimensiones de la congestión judicial como la acumulación de ingresos que deja un rezago institucional porque no se tiene la suficiente capacidad para responder a las necesidades jurídicas de las personas”.
“Dicho rezago institucional también deja en evidencia una falta de presupuesto de la rama judicial –que administra justicia e interpreta y aplica las leyes en el país– para disponer de más personal que pueda atender este tipo de situaciones y procesos”.
¿Se puede aplicar inteligencia artificial para descongestionar la Justicia?
Junto a la abogada Laverde, su colega David Caviedes y otros juristas desarrollaron una investigación sobre la aplicación de IA en el derecho civil. Durante su investigación, analizaron casos de diferentes países que enfrentaban problemas de congestión judicial similares a los de Colombia, y exploraron cómo recurrieron a la IA para abordar la situación.
Uno de los países mencionados fue Francia, que tenía un alto nivel de congestión judicial y no había unificación en los criterios de decisiones judiciales. Allí aplicaron el sistema Predictis en dos tribunales de relación durante tres meses, ya que este logra desarrollar una capacidad de predicción.
Cómo se agilizan procesos judiciales con inteligencia artificial
“El sistema calculó el éxito de los litigios (un conflicto legal entre dos o más partes) para evitar que sigan en etapas que no son tan necesarias. Además estimó la cuantía y las indemnizaciones y revisó la predicción del riesgo de volver a incidir en un litigio en una segunda instancia”, comentó la experta.
Por su parte, el abogado Caviedes explicó que “uno de los mecanismos de aprendizaje en la IA es el machine learning, o aprendizaje de máquina, en el cual se le introduce al sistema un gran número de datos estructurados y categorizados para que pueda ejecutar su labor, ya sea de filtro –organizar información– o para tomar decisiones”.
Si en Colombia se implementara un sistema, en la labor de filtro no requeriría la supervisión de ningún operador judicial como ocurre con la labor de decisión, por la relevancia que implica este acto.
“Cuando se trata de aprendizaje supervisado se le ingresa la cantidad de datos ya estructurados, y al entrar una variable este la categoriza, mientras que al no supervisado, aunque se le introducen las categorías, no se le dice cómo debe hacerlo y el sistema solo va aprendiendo sobre la marcha, por eso aquí es importante la supervisión del operador judicial”, indicó.
Y aunque en efecto de este tipo de tecnología pueden surtir resultados positivos, también pueden presentar riesgos y dificultades derivadas de la labor de programación y pueden tener incidencia en el goce de derechos.
“En el modelo de aprendizaje supervisado el riesgo más evidente se da cuando la base de datos que se le introduce al sistema es muy limitada –porque si entra una variable que no ha visto antes no podrá clasificarla– o muy amplia, porque es posible que la clasifique en muchas categorías y al final se traduciría en ineficacia”.
“En el no supervisado el riesgo es más bajo porque hay una verificación posterior de un operador judicial, pero presenta riesgos de discriminación si el programador introduce sus sesgos o no introduce variables relevantes de género, por ejemplo, al momento de tomar acciones afirmativas”, sustentó el abogado Caviedes.