El uso cada vez mayor de herramientas de inteligencia artificial (IA) en la justicia plantea cuestionamientos de tipo ético acerca de su transparencia, precisión, y la posibilidad de que estas reemplacen al juez.
Esta historia es el resultado de una investigación gracias al curso que tomé con la beca Futuros Aumentados, la nuevas transformaciones de la tecnología, que me otorgaron la Revista Anfibia y Cosecha Roja (2021).
Eric Loomis, quien negó su participación en un tiroteo en Estados Unidos, pero se declaró culpable de manejar un vehículo sin el consentimiento de su dueño e intentar pasar a un oficial de tráfico, fue condenado a 17 años y seis meses de prisión por la justicia estadounidense con la ayuda de Compas, una herramienta de inteligencia artificial, que en su caso determinó un alto riesgo de reincidencia y de peligro para la comunidad, por lo cual le fue negada la libertad condicional.
Insatisfecho con el fallo, Loomis apeló su sentencia alegando que le fue violado su derecho al debido proceso porque no se le permitió conocer cómo Compas llegó a ese resultado sobre la posibilidad de reincidencia y pidió que su condena fuera revisada.
Desafortunadamente, en el año 2016 la Suprema Corte de Wisconsin negó la apelación. La Corte sostuvo que no fue vulnerado el derecho al debido proceso de Loomis y que, pese a recoger en su fallo algunas de las críticas acerca de las falibilidad de esta herramienta, Compas es efectivo, confiable y que respetando la propiedad intelectual de su fabricante Northpointe inc, que tomó el nombre de Equivant en el año 2017, el acusado no podía conocer en detalle su funcionamiento.
Este instrumento que establece el nivel de riesgo de reincidencia de quien delinque ha sido utilizado en, aproximadamente, un millón de casos desde que fue desarrollado en el año 1998 explican en su estudio Julia Dressel y Hany Farid genera cuestionamientos acerca de su fabilidad y transparencia que han sido expuestos también por la prensa estadounidense.
Los profesores Dressel y Farid, de la Universidad de Darmouth de Estados Unidos, realizaron un estudio científico, publicado en la revista Science Advances, sobre la precisión, justicia y límites de esta herramienta de predicción de la reincidencia, comparando la precisión y sesgo entre humanos y el algoritmo Compas.
Durante la realización de este, los participantes recibieron una breve descripción del acusado: género, edad y récord criminal, con base en lo cual debían predecir la posibilidad de reincidencia en los próximos dos años.
Su conclusión fue contundente: Compas no es más preciso ni justo de lo que podría ser un grupo de personas con escasa, o ninguna, experiencia en el sistema criminal. La precisión de los participantes humanos fue del 67%, sin darle datos sobre el grupo étnico del ofensor, del 66.5%, al darle información sobre su grupo étnico, en comparación con 65.2% de Compas.
Aunque el uso de este tipo de mecanismos es muy difundido. El abogado, fundador y director de Justice Codes, ONG enfocada en el impacto de la inteligencia artificial en el sistema criminal y profesor de la Universidad de Georgetown, Jason Tashea es crítico al respecto, pues cree que la propiedad intelectual no debería pesar tanto cuando está en juego la libertad de una persona como ocurrió con Loomis.
La Organización para la Cooperación y el Desarrollo Económicos (OCDE) define la IA como “un sistema computacional que puede, para un determinado conjunto de objetivos definidos por humanos, hacer predicciones y recomendaciones o tomar decisiones que influyen en entornos reales o virtuales” y esta es promovida como “solución” a múltiples problemas, la justicia incluida.
La inteligencia artificial es considerada además un brazo más del capitalismo que concede poder a algunas multinacionales y cuya industria producirá, para el año 2024, aproximadamente 554 billones de dólares según el portal de noticias US News Money.
Nuestra vida cotidiana, está permeada por los algoritmos. Meta los usa para que las personas pasen más tiempo frente a sus pantallas y para exponerlas a más publicidad. A Spotify les sirve para detectar quién, después de 30 segundos, deja de oír una canción y así elegir el tipo de contenidos que debe ofrecer.
La digitalización le da un inmenso, y a veces incontrolable, poder social a las empresas de tecnología y permitiendo remplazar al humano en áreas tan importantes como la justicia advierte la socióloga Shoshana Zuboff, experta en inteligencia artificial y autora de Capitalismo de la Vigilancia y profesora de la Universidad de Harvard.
Antecedentes y países a la vanguardia
En la primera mitad del Siglo XX, el matemático, criptógrafo e informático teórico británico Alan Turing contribuyó al éxito de los aliados en la Segunda Guerra Mundial con un aparato inventado por él y bautizado como Bombe. Con ayuda de otros expertos, trabajando día y noche, lograron descubrir cómo funcionaba Enigma, la máquina alemana que transmitía mensajes encriptados durante la guerra y gracias a esto ayudó a terminar la guerra un poco antes de lo esperado.
Fue en el año 1956 cuando en la Universidad de Darmouth, en Estados Unidos, un pequeño grupo de científicos se refirió por primera vez a este campo del conocimiento y a partir de allí se acuñó el término.
Aunque en principio la inteligencia artificial (IA) parecía ser un asunto de la ciencia ficción o una idea lejana cuando un episodio de la popular serie sobre estudiantes de derecho estadounidenses de la Universidad de Harvard, de los años 70 The Paper Chase mostró al famoso, e intimidante, profesor de contratos Kingsfield enfrentándose y ganándole a una máquina la resolución de un caso.
Con el paso de los años, la IA ha avanzando exponencialmente. Los estadounidenses utilizan mecanismos de inteligencia artificial en derecho penal. Tashea explica que en su país máquinas y algoritmos son usados como evidencia para determinar la detención preventiva de un acusado, antes del juicio, su posible libertad condicional y en muestreos genotípicos es utilizado un software cuando no es posible comparar el ADN con las técnicas tradicionales.
En Europa del Este hay un país pequeño, en términos geográficos, pero gigante y líder en la utilización de la IA: Estonia, el cual es reconocido por estar a la vanguardia en inteligencia artificial y diseñar su primer plan de IA para implementarlo en el sector público y el privado.
Un informe del año 2019 elaborado por un grupo especializado en inteligencia artificial destaca algunos de sus usos y Estonia acuñó el término Kratt, aplicaciones prácticas basadas en tecnología de inteligencia artificial.
En ese país, el sector privado, las compañías, emplean al máximo los chatbots, que interpretan el texto ingresado por un usuario en la plataforma y a partir de un diálogo con este ayudan a resolver problemas. En el sector público, hay un gran potencial porque está ampliamente digitalizado y eso facilita la inserción de nuevas tecnologías. Para fortalecer el uso de IA, Estonia propuso crear cargos específicos, tales como oficiales de datos, ofrecer más oportunidades de capacitación e inversión.
El oficial de datos del Ministerio de Economía y Comunicaciones de Estonia, Ott Velsberg, afirma que aprovechan la IA para mejorar la calidad de vida de los ciudadanos, aumentar las posibilidades de obtener empleo y hacer más eficiente el sector público. Prueba de ello son los usos en seguridad, para determinar si hay accidentes de tráfico en carreteras; en el fondo de desempleo, perfilando a buscadores de empleo y sugiriendo vacantes; además, la policía la utiliza para detectar cuáles rutas necesitan una patrulla; en seguros sociales, la IA predice modelos de tratamientos para pacientes crónicos, en la ciudad de Tallin detecta el volumen de tráfico vial con cámaras y en las oficinas de estadísticas gubernamentales usan chatbots en el servicio al cliente.
Velsberg también se refiere a su utilidad para transcribir decisiones judiciales, documentos y anonimizar algunos procesos para que sean accesibles como datos abiertos. Según el informe del grupo especializado, desde el año 2014 las órdenes de pago son procesadas por máquinas mediante un procedimiento sencillo que permite al acreedor obtener más rápidamente su dinero, que si iniciara una acción legal.
Entre tanto en Asia, el profesor asociado derecho, Zhuhao Wang, del Instituto de Evidencia Legal y Ciencia Forense en China sostiene que este país lidera una revolución judicial a través de la justicia virtual, e-Justice, a través de cortes virtuales, evidencia electrónica, la cual es permitida oficialmente desde el año 2012, al incorporarla en el artículo 63 del Código de Procedimiento Civil, convirtiéndose en la octava clase de evidencia admisible en procesos civiles.
China ha popularizado el block-chain público, cadena de bloques en español, un sistema de conservación de datos en bloque admitido como evidencia en Huatai Yimei vs. Daotong en 2018. En ese caso, el juez Li Sha confirmó la seguridad, credibilidad, integridad del contenido preservado a través de la cadena de bloques Baoquan.com y lo aceptó como evidencia por parte de Huatai Yime para demostrar que Daotong infringió la ley de derechos de autor china al republicar, sin permiso, un artículo periodístico suyo.
Ray Campbell, profesor de derecho de la Universidad de Pekín quien trabajó como abogado asistente en Cortes estadounidenses, e investiga acerca de la intersección entre derecho, tecnología e innovación, señala que China eligió maximizar el uso de los datos, “combustible de la IA” incluso si esto implica un costo para la privacidad de las personas. El impulso a este tipo de tecnologías, añade, es posible gracias al apoyo del gobierno que aspira al liderazgo en este campo a nivel mundial.
Máquinas versus humanos
En Latinoamérica, Colombia la Delegatura para los Procedimientos Mercantiles del juzgado especializado en derecho comercial, de la Superintendencia de Sociedades (Supersociedades) cuenta desde el año 2018 con el primer asistente robot Siarelis, diseñado por abogados especialistas en derecho comercial e ingenieros.
«Nunca antes un juez en Colombia había tenido un asistente que no fuera de carne y hueso. Esta innovación pone al país como pionero mundial en la revolución digital de la justicia, permite una justicia más ágil y transparente y abre las puertas a las posibilidades inmensas de la Inteligencia Artificial», explicó el superintendente de Sociedades, Francisco Reyes Villamizar en la página de Facebook de esa entidad.
Esta entidad se inspiró en el Cyberjustice Laboratory de la Universidad de Montreal (Canadá), corte virtual de la facultad de derecho que desarrolla herramientas para la mediación, el arbitraje y el manejo judicial y extrajudicial de disputas, pues para esa institución educativa es indispensable que estudiantes y abogados dominen las nuevas tecnologías, ya que estas serán cada vez más importantes en la administración de justicia.
También en Colombia, en el año 2020 la Corte Constitucional colombiana implementó PretorIA, un sistema de inteligencia artificial producto del trabajo conjunto de Ialab, laboratorio de innovación e inteligencia artificial de la Universidad de Buenos Aires (Argentina), la Corte Constitucional, la Cámara de Comercio de Bogotá y que nació como programa piloto en la Facultad de Jurisprudencia de la Universidad del Rosario en el año 2019.
El comunicado de prensa de la Corte Constitucional de Colombia, del año 2020, describe PretorIA como: “un sistema que se integra al ecosistema de soluciones digitales que apoyará y optimizará el proceso de selección, análisis y estructuración de las sentencias de tutela para revisión de la Corte Constitucional (…) Permite disminuir tiempos de análisis pues una persona requiere un día para leer 30 expedientes y encontrar el criterio definido por el despacho, el sistema puede procesar las sentencias en medio digital en menos de 2 minutos y encontrar los criterios claves de las sentencias”. La disminución del tiempo en este tipo de procesos es trascendental en un país como Colombia que en el año 2019 ocupó el lugar número 58, entre 63 países, en el Ranking Mundial de Competitividad Digital.
También este año, 2023, el 15 de febrero el Tribunal Contencioso Administrativo del Magdalena aceptó y realizó, por primera vez en Colombia, una audiencia judicial en el Metaverso mediante el uso de la Plataforma Meta Platforms Inc, antes Facebook Inc.
Pero pese al entusiasmo que despierta la IA en la administración de justicia gracias a su rapidez y eficiencia, hay cuestionamientos éticos, dudas acerca de su aparente neutralidad, precisión y de que pueda reemplazar al humano. Algunos expertos como la jueza Mercedes López, quien tiene 23 años de experiencia en la administración de justicia y 13 como jueza y magistrada, considera que las máquinas, no pueden sustituir al humano porque la justicia fue hecha por, y para, humanos.
Uno de los pilares de la justicia, indica, es el acercamiento del juez con las partes en el desarrollo de un proceso, su toma de decisiones a partir de la apreciación de diversos factores y el juicio de valor, en cada caso, que no puede ser estandarizado.
“No es posible que los jueces sean reemplazados por algoritmos o por la inteligencia artificial porque la actividad judicial no corresponde a una ciencia exacta; los procesos judiciales son diferentes a pesar de que compartan hechos o pretensiones. Cada caso es un mundo único y necesita un análisis particular, del que juzga, que exige valoración probatoria según las particularidades de cada caso”, enfatiza López.
Entre las decisiones que no podría asumir una máquina, asegura López, están las relacionadas con una indemnización de perjuicios morales, daño a la vida en relación, la modificación de la fecha de un dictamen para establecer la estructuración de la invalidez de una persona o la indemnización moratoria, aspectos que no pueden aplicarse automáticamente porque requieren del análisis de cada situación.
En su criterio, la inteligencia artificial debe aprovecharse en labores operativas tales como el conteo de términos judiciales con el fin de enviar alertas y evitar el vencimiento de términos, enviar comunicaciones de trámite a las partes, para ayudarle al juez a conseguir precedentes judiciales, pero nunca para suplirlo.
En el mismo sentido reflexiona el profesor Ray de la Universidad de Beijing para quien tareas como organizar las rutinas diarias, agendar las audiencias, preparar los documentos para convocarlas, revisar los documentos del caso y hacer investigaciones legales, puede hacerlas un sistema de inteligencia artificial. “Queremos que la decisión final la tomé un juez, dejando el trabajo de rutina para un software le dará al juez más tiempo para las decisiones importantes. En el futuro, IA ayudará a monitorear las respuestas fisiológicas que puedan indicar que un testigo miente, pero no estamos ahí todavía”, precisa Ray.
En cambio, el experto en derecho procesal como Fernando Madero, jurista y docente de la Universidad Santo Tomás, considera que la realidad, y los avances, demuestran que la Inteligencia artificial, los algoritmos y las máquinas podrían sustituir jueces y abogados, pero solamente en determinados casos.
“(…) De pronto en algunos procesos en que pueda suministrársele una información de miles de documentos a través de un software, para que sean valorados por un robot como el caso de muchos procesos ejecutivos que no tengan oposición es factible”, señala Madero.
Retos: imparcialidad y transparencia
Aunque el uso de herramientas de inteligencia artificial parece conveniente para aportarle agilidad a sistemas de justicia como el colombiano. que según la Corporación Excelencia para la Justicia (CEJ) en agosto de 2021, tenía un 59% de imagen desfavorable, estas generan debates no cerrados acerca de su transparencia e imparcialidad.
Aunque para Velsberg un “juez máquina” puede ser transparente e imparcial porque “permite fundamentar las decisiones en hechos y no en corazonadas; pero estos no deben ser implementados en áreas difíciles”. Otros estudiosos de la tecnología y sus implicaciones sociales como el abogado e historiador Julio Gaitán lo dudan: «el “solucionismo” tecnológico vende la idea que sus instrumentos son técnica y políticamente neutros, pero los sistemas de decisiones informatizadas, lejos de ser inmunes a los sesgos poseen los mismos de quienes los programan».
Estos instrumentos también son criticados en Estados Unidos por varias razones:
“Hipotéticamente, si hubiera un modelo de inteligencia artificial en lugar de un juez, siempre habría sesgo -esto no es solamente porque está hecho por humanos y los humanos están sesgados, lo cual es cierto- es porque una herramienta, que deba decidir en casos con pretensiones pequeñas, tendrá muchas decisiones y perspectivas judiciales a considerar”, indica Tashea para quien la creación y aprobación de estos instrumentos debería ser pública como ocurre con la legislación debido a su importancia social y a las implicaciones en la vida y liberta de algunas personas.
Por su parte en Argentina, el licenciado en ciencias de la comunicación, docente, autor de varios libros y experto en tecnología Esteban Magnani advierte sobre su falta de neutralidad:
“Ese tipo de tecnología nunca es neutral y sus datos siempre están cargados por algún tipo de sesgo. Incluso si se pudieran tomar correctamente, la decisión de cuáles son los datos a tener en cuenta y cómo interpretarlos está cargado de ideología. Además de que no podemos saber cómo el algoritmo pondera realmente esos datos para determinar un porcentaje final. Los algoritmos funcionan como cajas negras que no dejan claro cómo llegan a determinadas conclusiones: ponerlos a trabajar en temas tan sensibles como la justicia es un peligro.»
La falta de neutralidad es un peligro real que puede aumentar debido a la susceptibilidad de manipulación de los lenguajes técnicos, a la dificultad para vigilarlos y la imposibilidad de saber cómo funcionan como ocurrió con Loomis.
La preocupación es mayor en Latinoamérica donde la corrupción es alarmante. Por ejemplo, Colombia obtuvo nuevamente, en 2022, un resultado negativo al obtener 39 de 100 puntos en el Índice de Percepción de la Corrupción (PC) presentado por Transparencia Internacional.
“En entornos de alta corrupción, la implementación de sistemas de decisión automatizada no solo pueden escalarla sino también hacerla menos controlable, con la consecuencia previsible del aumento de las tarifas de las operaciones que logren evadir o burlar la legalidad. Por ahora, no existe evidencia empírica de que la automatización de las decisiones judiciales pueda evitar o, al menos, disminuir la corrupción en la adjudicación”, añade Gaitán.
Por eso, es importante no acoger acríticamente la inteligencia artificial en la administración de justicia sin tener en cuenta sus falencias y debilidades. Jason Tashea invita a aprender sobre el uso de algoritmos en juicios criminales de Estados Unidos: una de ellas la necesidad de transparencia, pues si el algoritmo tiene algo qué decir acerca del acusado este, a su vez, debería tener el derecho de confrontarlo como lo haría cualquiera cuando testifican en su contra. “La propiedad intelectual tiene poco, si es que lo tiene, lugar en audiencias criminales cuando la libertad de alguien está en juego”, enfatiza.
Johana Fernanda Sánchez Jaramillo. Comunicadora social y periodista intercultural, abogada, magister en relaciones internacionales, candidata a doctora en derecho, quien investiga y escribe sobre derechos humanos, de los demás animales, derechos de la Madre Tierra y de los pueblos indígenas. @Fresearchs
* Agradezco a Sebastián Ortega, Editor de Anfibia, por la revisión y sugerencias a la versión preliminar de este reportaje.
Rebelión ha publicado este artículo con el permiso de la autora mediante una licencia de Creative Commons, respetando su libertad para publicarlo en otras fuentes.