Justicia Híbrida: La tecnología disruptiva al servicio del proceso(*)

Hybrid Justice: Disruptive technology at the service of the process

Fernando Martín Diz(**)

Universidad de Salamanca (Salamanca, España)

Resumen: El cambio de modelo de justicia es una realidad. Ese cambio viene totalmente determinado por la irrupción de las nuevas tecnologías de carácter disruptivo y, principalmente, por la posible integración de soluciones de inteligencia artificial en el proceso judicial en funciones de asistencia al órgano jurisdiccional. Estamos, probablemente, ante una nueva justicia: la justicia híbrida. Una justicia procesal en la que desde la innegociable supervisión por humano (juez) las aplicaciones tecnológicas van a tener cada vez más protagonismo en la actividad procesal, con las exigencias de legalidad y respeto a los derechos fundamentales como ejes que habilitan su utilización con todas las garantías.

Palabras clave: Justicia - Inteligencia artificial - Justicia híbrida - Derecho Procesal - España

Abstract: The change in the justice model is a reality. This change is totally determined by the emergence of new disruptive technologies and, mainly, by the possible integration of artificial intelligence solutions in the judicial process in functions of assistance to the judiciary. We are probably facing a new justice: hybrid justice. A procedural justice in which, from the non-negotiable supervision by a human (judge), technological applications will have an increasing role in the procedural activity, with the demands of legality and respect for fundamental rights as axes that enable their use with all the guarantees.

Keywords: Justice - Artificial intelligence - Hybrid Justice - Procedural Law - Spain

1. Humanidad y Tecnología: La realidad del siglo XXI

Seres humanos y tecnología: los componentes esenciales de sociedad del siglo XXI, cada vez menos heredera del humanismo arraigado durante siglos y más disruptiva hacia el futuro inmediato desde el desarrollo e implantación de la digitalización en su máxima expresión. Prácticamente nada escapa ya de los tentáculos tecnológicos, de la digitalización, la datificación (Van Dijck, 2014) y la algoritmización, que todo lo abarcan, y transforman. No se entienda que es una transformación negativa, pero sí en cierto modo, como expresa García Cantero (2019), se configura como “esa religión atea que no venera ni a dioses ni a hombres, solo a los datos. Una ficción colectiva en torno a una inteligencia suprema, esta vez artificial, capaz de predecir enfermedades y catástrofes, el nirvana de los algoritmos”. También, se anuncia su aterrizaje y asentamiento, en el ámbito del Derecho y, particularmente, de la justicia.

La inteligencia artificial, en la definición más reciente de que disponemos, y además con carácter normativo puesto que es la ofrecida en el artículo 3 del reciente Reglamento de la Unión Europea por el que se establecen normas armonizadas sobre la inteligencia artificial (Ley sobre Inteligencia Artificial), cuya aprobación definitiva por el Parlamento Europeo ha tenido lugar el 13 marzo de 2024, es:

Un sistema basado en máquinas diseñado para funcionar con distintos niveles de autonomía y que puede mostrar capacidad de adaptación tras su despliegue y que, para objetivos explícitos o implícitos, infiere, a partir de la entrada que recibe, cómo generar salidas tales como predicciones, contenidos, recomendaciones o decisiones que pueden influir en entornos físicos o virtuales.

¿Supone un progreso real y efectivo o desde el punto de vista del humanismo, en sentido estricto, es un retroceso?, dado el riesgo de que un futuro digital pueda perpetuar errores y prejuicios del pasado (Veliz, ٢٠١٩), no en vano una inteligencia artificial sostiene su funcionamiento sobre una cierta paradoja propia de su naturaleza y diseño como es la de predecir o anticipar actuaciones o soluciones de futuro, respecto a cuestiones de presente, pero utilizando datos del pasado. Datos muy sensibles, en el caso de la justicia y que pueden sostenerse sobre antecedentes jurisdiccionales de casos similares, pero que no contemplen las peculiaridades propias de cada asunto y de la situación actual. Así, por ejemplo, el hecho de haber sido condenado en el pasado, o de haberse resuelto casos con identidad de razón determinando una condena, como situación objetiva y real, no puede ni debe condicionar el pronóstico que evacúe una inteligencia artificial, y con ello una eventual decisión jurisdiccional apoyada en la misma, por cuanto es absolutamente lesiva y contraria al derecho fundamental a la presunción de inocencia.

El derecho afecta a la vida de las personas, y la inteligencia artificial está llamada a hacerlo también en las próximas décadas. La confluencia de una y otra realidad va a modificar, indudablemente, derechos, libertades, obligaciones y, particularmente en nuestro caso, consecuencias procesales. Pero queremos resaltar desde los albores del presente trabajo que la aplicación de soluciones tecnológicas y digitales en el ámbito del proceso judicial no puede hacer decaer la visión humana y humanista del mismo. La imparcialidad del juez no se ve comprometida por la valoración de las transgresiones de derechos que debe valorar, incluso cuando son producto de una situación lesiva o injusta, pero que le lleva a la reflexión de la solución más adecuada sin apartarse, evidentemente, de la ley. La función jurisdiccional no es tan automática como lo es el tratamiento de un asunto por una inteligencia artificial, implica interpretaciones y adaptaciones de la norma en sentido teleológico para las cuales, posiblemente, una máquina nunca va a estar preparada por mi perfecta que pueda parecerlo, por muchos datos de que disponga y por un potente entramado algorítmico que se aplique. Impartir justicia no es una cuestión matemática ni de ingeniería, es una cuestión humana, tan antigua como la propia existencia, y tan irremplazable como el razonamiento de las personas. Ayudarse para ello de la tecnología más moderna y accesible es inteligente, pero no a cambio de una sustitución y reemplazo.

La garantía de seguridad jurídica que requiere la implementación de las nuevas soluciones digitales en el ámbito jurídico y jurisdiccional ha de venir sustentada sobre una regulación legal sólida, hoy en día prácticamente inexistente, y un empleo ético de las herramientas tecnológicas. De no ser así, ni será admisible ni será aceptable implementar nuevas tecnologías disruptivas en la Administración de Justicia y en el marco de los procesos judiciales. Todo el conglomerado de derechos humanos y fundamentales que se ven afectados y concernidos por las nuevas tecnologías, junto al bloque de derechos y garantías procesales fundamentales que están reconocidos en la práctica totalidad de las Constituciones de los Estados democráticos modernos, requieren inexcusablemente de un marco legal de soporte que respalde un avance tan considerable como supone la integración de la inteligencia artificial en funciones asistenciales de la función jurisdiccional. Y todo ello sin olvidar que debe ser aceptado racionalmente por la ciudadanía (Morales Moreno, 2021), quien, al fin y a la postre, es la destinataria de los resultados de la actividad jurisdiccional y de la hipotética aplicación de herramientas algorítmicas en su consecución.

2. El principio de supervisión humana y su despliegue en el ámbito jurisdiccional

¿Y dónde quedará entonces el factor humano? integrante y constituyente indisociable a la sociedad desde tiempos pretéritos. Ante este poder omnímodo de la tecnología y del tratamiento de datos, maquínico, y presuntamente infalible, el factor humano debe resistir en pie, debe ser la cortapisa de la discriminación algorítmica, de los sesgos, de la posible opacidad y debe ejercitarse uno de los grandes, y asentados dogmas, en que se basa la incorporación de la inteligencia artificial a los distintos ámbitos sociales, como es el principio de “control bajo humano” (human in command) establecido en las Directrices éticas para una inteligencia artificial fiable del Grupo de Expertos de Alto Nivel sobre inteligencia artificial de la Unión Europea (2018, p. 19).

La autonomía humana ha de conservarse intacta y su toma de decisiones, básica en el ámbito de la justicia, debe respetarse, por lo que la implementación de elementos de inteligencia artificial en el ámbito judicial debe hacerse bajo su condición de elemento asistencial, facilitador, pero nunca sustitutivo ni decisorio per se. Ha de ser un recurso más a disposición de los órganos jurisdiccionales, apoyando la actividad jurisdiccional, desde el máximo respeto a los derechos fundamentales, pero siempre bajo supervisión humana. Como desarrollaremos en los siguientes epígrafes, un modelo de justicia híbrido, en el cual el juzgador puede tomar decisiones autónomas, apoyado cuando sea preciso en los resultados de sistemas de inteligencia artificial, puede ser un modelo de interactuación asumible y satisfactorio, apoyando a tomar mejores y más documentadas decisiones, pero sin llegar al extremo de someter al justiciable a un proceso o decisiones jurisdiccionales basado exclusivamente en soluciones automatizadas de inteligencia artificial.

La supervisión humana garantiza que la utilización de sistemas de inteligencia artificial y de soluciones digitales automatizadas están al servicio de las personas, respetan sus derechos fundamentales, la dignidad y la autonomía personal y que, cuando proceda, se objetará u obviará su empleo si ello acarrea la vulneración de garantías o la discriminación injustificada y no proporcional. Sólo, por tanto, será admisible recurrir a herramientas algorítmicas en el ecosistema procesal cuando estén diseñadas de forma que sean adecuadamente entendibles, accesibles, controladas y supervisadas por humanos. En el concreto entorno procesal, la jurisdiccionalidad se erige, entonces, como presupuesto imperativo, avalando la concurrencia del principio básico de supervisión humana en el empleo de la inteligencia artificial. Y más, aún, cuando la inteligencia artificial en su aplicación a situaciones jurisdiccionales está considerada como sistema de alto riesgo, tal y como la ha clasificado el flamante Reglamento de la Unión Europea por el que se establecen normas armonizadas sobre la inteligencia artificial (Ley sobre Inteligencia Artificial) de acuerdo a la afectación que su utilización tiene en los derechos humanos, en los derechos fundamentales y en la propia estructura del Estado de Derecho por la calidad y pertinencia de los conjuntos de datos que son utilizados y su protección personal.

El artículo 6.2 del citado Reglamento remite a una enumeración pormenorizada, que consta en el Anexo II, dentro de la cual aparecen, en su apartado 5, los sistemas de inteligencia artificial catalogados de alto riesgo que puedan ser destinados a la actividad jurisdiccional (y policial), y siempre dentro de las previsiones legales que contemple a tal efecto la legislación nacional o comunitaria europea aplicable, vinculados a situaciones como:

a) Evaluación del riesgo de que una persona física sea víctima de infracciones penales.

b) Evaluación de la fiabilidad de las pruebas en el curso de una investigación o el enjuiciamiento de delitos.

c) Evaluación del riesgo de una persona física de delinquir o reincidir no basados únicamente en la elaboración de perfiles de personas físicas a que se refiere(1) el artículo 3.4 de la Directiva (UE) 2016/680 o para evaluar rasgos y características de personalidad o comportamientos delictivos anteriores de personas físicas o grupos.

d) Elaboración de perfiles de personas físicas en el curso de la detección, investigación o enjuiciamiento de infracciones penales a que se refiere el artículo 3, apartado 4, de la Directiva (UE) 2016/680 en el curso de la detección, investigación o enjuiciamiento de infracciones penales.

Evitar la opacidad de estos sistemas, y con ello facilitar y asegurar la supervisión por humano -en nuestro caso el titular del órgano jurisdiccional- implica establecer una serie de obligaciones de transparencia en su puesta en servicio y utilización. Como el propio Reglamento comunitario sobre Inteligencia Artificial de marzo de 2024 prevé en su considerando 47, estos sistemas de inteligencia artificial de alto riesgo deben diseñarse de manera que los implantadores puedan entender cómo funcionan, evaluar su funcionalidad y comprender sus puntos fuertes y limitaciones, además de ir acompañados de la información adecuada en forma de instrucciones de uso (características, capacidad y limitaciones del funcionamiento del sistema).

Queda por tanto en manos de órgano jurisdiccional asimilar la asistencia que la herramienta le puede conferir a su actividad jurisdiccional y ponderar los posibles riesgos que para los derechos fundamentales pueda generar el rendimiento del sistema. La transparencia, por tanto y en estos términos, posibilita que el órgano jurisdiccional esté en condiciones de elegir correctamente la aplicación de inteligencia artificial, emplearla adecuadamente dentro de los usos previstos y excluidos y sin menoscabar en ningún caso los derechos procesales fundamentales que puedan verse afectados.

La hoja de ruta más actual que podemos seguir nos la marca, por tanto, el texto del Reglamento de la Unión Europea por el que se establecen normas armonizadas sobre la inteligencia artificial (Ley sobre Inteligencia Artificial) de 2024, cuyo artículo 14 aborda de forma expresa el principio básico de supervisión humana en el empleo de herramientas de inteligencia artificial. Determina que los sistemas de inteligencia artificial de alto riesgo, como son los propios diseñados y encauzados para ser aplicables en el ámbito de la justicia, se diseñarán y desarrollarán de tal manera, incluso con herramientas de interfaz hombre-máquina, que puedan ser supervisados eficazmente por personas físicas durante el periodo en que el sistema esté en uso. ¿En qué consistirá, al menos, esa supervisión humana, y, en nuestro caso, el control jurisdiccional? Al menos, entendemos, en prevenir o reducir al mínimo posible cualquier aplicación no legal -bien por inexistencia de previsión legal o por aplicación de la herramienta excediendo las disposiciones normativas que habilitan su utilización- o lesiva a los derechos fundamentales de soluciones de inteligencia artificial en actuaciones procesales, cuya validez y eficacia final ha de asumir el propio órgano jurisdiccional mediante la resolución correspondiente en la cual integrará el resultado derivado del uso del sistema inteligente.

Esta supervisión jurisdiccional de una herramienta, por ejemplo, de valoración del riesgo de una víctima o de reincidencia de un encausado, conlleva que el juez o jueza, de acuerdo a la exigencia de transparencia y sus consecuencias expuestas anteriormente, recurra al sistema de inteligencia artificial de acuerdo con la finalidad prevista para el mismo -y no para otra diferente, siguiendo el ejemplo anterior, una herramienta diseñada para evaluar el riesgo de reincidencia no sería apta para valorar una prueba testifical- y en las condiciones de uso debido razonablemente previsibles -de las cuales es consciente por una formación e información previa. Introduce el precitado artículo un principio de proporcionalidad en la aplicación de la supervisión, dimensionando ésta en relación con los riesgos, nivel de autonomía y contexto de uso del sistema de inteligencia artificial, para lo cual ofrece, además, una serie de referencias que garanticen dicha circunstancia:

- Medidas identificadas por el proveedor y que sean adecuadas para ser aplicadas por el usuario.

- Comprensión de las capacidades y limitaciones del sistema con vistas a detectar y abordar anomalías, disfunciones y rendimientos inesperados, particularmente importante en el caso en que el juez detecte un posible sesgo o discriminación en la ratificación o algoritmización de la herramienta y con ello disfunciones en los posibles resultados.

Se advierte expresamente también de la toma de conciencia por el usuario de la “tendencia a confiar automáticamente o en exceso en los resultados producidos por un sistema de inteligencia artificial de alto riesgo”, el conocido como sesgo de automatización, efecto frecuente en los casos en que una herramienta de estas características se utiliza para proporcionar información o recomendaciones para las decisiones que deben tomar las personas físicas. Es el supuesto que fue abordado en España por la Sentencia de la Audiencia Nacional de 30 de septiembre de 2020, como consecuencia de la aplicación de los resultados ofrecidos por el sometimiento de un asunto de violencia de género y cálculo de posible riesgo de la víctima respecto del agresor a la herramienta VIOGEN, advirtiendo que “la responsabilidad de la decisión en la aplicación de VIOGEN no puede depositarse exclusivamente en la inteligencia artificial, sino que debe haber una valoración personal y humana, no una aplicación directa y automática del resultado”, por cuanto en el caso de autos el resultado emitido por la herramienta fue prácticamente aplicado sin valoración ni supervisión por los responsables (humanos). Es un aviso a navegantes que no puede pasar desapercibido y que judicialmente va a requerir, en consonancia con el principio estructural de utilización de soluciones de inteligencia artificial, que el juez o jueza haga suyo el resultado derivado de la herramienta algorítmica, debiendo además motivar en su resolución en sentido en el cual ha valorado y utilizado dicho resultado, sin caer en el error, no admisible, de una aplicación automática, no motivada e instintiva.

Además, el principio de supervisión humana en la aplicación de herramientas de inteligencia artificial otorga la capacidad, al juez en nuestro caso, de decidir cuándo, y cuándo no, utilizar y recurrir a las mismas, ante situaciones concretas en que emplear sistemas de inteligencia artificial de alto riesgo, como es en el caso de la justicia, aconsejen ignorar, anular o invertir de otro modo los resultados. Esta previsión es acorde con lo dispuesto en el artículo 29 del Reglamento de la Unión Europea por el que se establecen normas armonizadas sobre la inteligencia artificial (Ley sobre Inteligencia Artificial) de 2024, ya que establece la obligación de los responsables de despliegue de sistemas de inteligencia artificial de alto riesgo de adoptar las medidas técnicas y organizativas adecuadas para garantizar que utilizarán dichos sistemas de conformidad con las instrucciones de uso, por tanto bajo estricta supervisión y control humano, velando por que las personas físicas asignadas para garantizar la supervisión (en nuestro caso el juez cuando recurra a su empleo en actuaciones procesales) tenga la competencia, formación y autoridad necesarias, así como el apoyo (técnico y personal) necesario.

Por tanto, debe ser el juez o jueza, en primera persona, quien acuerde el empleo de la solución de inteligencia artificial, desde la base de una previsión legal que lo contemple, y debe ser quien motive su utilización, la active, supervise y aplique los resultados a la actuación procesal a que se anuda la implementación de una herramienta tecnológica de estas características, y siempre, desde la autonomía y libertad de valorar sus resultados de forma personal y singular al asunto, evitando aplicaciones automáticas y no ponderadas por el titular del órgano jurisdiccional.

3. ¿Qué es justicia híbrida?

La combinación entre factor humano, indispensable e insustituible en el ámbito del proceso judicial, y factor tecnológico, encarnado fundamentalmente por la irrupción y disrupción que la inteligencia artificial depara, supone que podemos estar encaminando nuestros pasos de futuro hacia una justicia híbrida, es decir, el resultado, como “producto”, de elementos de muy distinta naturaleza que se conjugan en nuestro caso en la generación de una justicia de nueva dimensión tecnológica, cuando hasta ahora era una justicia estrictamente humana, y en la cual el peso tecnológico, vía implementación de herramientas de inteligencia artificial que puedan asistir al juez, va a determinar un cambio de modelo, sin que en ningún caso, subrayamos nuevamente, se conciba ni permita que pueda sustituir o reemplazar el factor humano.

No podemos, ni debemos, asimilar el nivel de aplicación de la inteligencia artificial en otros campos y ramas de la vida o de la ciencia a su incorporación en la Justicia. Probablemente hay situaciones vitales y sociales en las cuales la inteligencia artificial puede sustituir y reemplazar decisiones o actuaciones humanas por cuanto se manejan como elementos fundamentales de las mismas cálculos probabilísticos u operaciones mecánicas y repetitivas. No es el caso de la Justicia, donde la mera estadística, las probabilidades o la reiteración de hechos similares no es la fórmula adecuada, ni admisible. Cada asunto, casa litigio, cada situación jurídica con derechos y obligaciones en liza, con consecuencias respecto a comportamientos ilícitos o con la mera exigencia de determinar hechos probados para aplicar la norma, es absolutamente singular y requiere, en la actividad jurisdiccional, de un cierto ejercicio de creación del Derecho -mediante la fijación de hechos y la aplicación e interpretación de las normas concurrentes- en cada concreto asunto.

La indisociable correlación en el ejercicio de la actividad jurisdiccional de juzgar y hacer ejecutar lo juzgado entre hechos y consecuencias jurídicas implica un razonamiento y una capacidad de apreciación de situaciones y normas que difícilmente encaja con el perfil de la inteligencia artificial, que, por definición y naturaleza, se basa en pura estadística predictiva. De unos datos previos -el pasado-, con unos criterios preestablecidos -algoritmos- ha de ofrecer una solución de futuro a un problema (jurídico) de presente, sí que además se le exija, al menos a priori, que garantice absoluta certeza, acierto y justicia.

Incluso, cuando se plantea la dificultad, cotidiana en el ejercicio de la función jurisdiccional, de interpretar las normas (tanto materiales como procesales), y han de acudirse a los criterios interpretativos de las normas de derecho material (Código Civil) o procesal (contenidos en la respectiva Ley de Enjuiciamiento o Código de Proceso), parece más idóneo y factible, en una justicia híbrida, que la capacidad de interpretación sea aportada por el factor humano, que puede valorar de manera más adecuada criterios como la realidad social del momento en que la norma ha de ser aplicada, o realizar una aplicación analógica, o la interpretación de principios generales del derecho estén o no expresamente contemplados normativamente (como puede ser, a título de ejemplo, la buena fe), entre otras circunstancias. Ya se indicaba en el apartado precedente, y concuerda perfectamente con la idea de justicia híbrida ante el innegable asentamiento de las tecnologías disruptivas al servicio de la Administración de Justicia, el principio de supervisión por humano y la reserva de funciones decisorias en favor del juez, es esencial e insustituible.

Sin que condicione la irrenunciable imparcialidad del titular del órgano jurisdiccional, la razonabilidad, creatividad e interpretación humana de las normas jurídicas al resolver un litigio supera en todo caso la presunta objetividad de la inteligencia artificial, y decimos presunta, porque no podemos olvidar el alto riesgo de sesgo que se constata en las herramientas y soluciones de inteligencia artificial debida a la concurrencia de variables como la propia ratificación de la inteligencia artificial, el diseño de sus algoritmos y las variantes que estos utilicen para procesar los datos y ofrecer sus predicciones, pronósticos, recomendaciones o cálculos.

Podemos considerar, desde una perspectiva más local, centrada en la reciente realidad española, un antecedente de lo que puede suponer un modelo institucional de justicia híbrida. Nos referimos a los cambios normativos que depara el Real Decreto Ley 6/2023, de 19 de diciembre, sobre medidas de eficiencia digital y procesal en el servicio público de Justicia, y que acomodan en el proceso judicial las posibilidades que ofrece la instauración de actuaciones automatizadas, proactivas y asistidas con utilización de herramientas de inteligencia artificial. Es transcendente, en primer lugar, esta referencia por cuanto aporta uno de los requisitos que consideramos imprescindibles para la configuración de una justicia híbrida, en el sentido que venimos exponiendo, dado que ofrece una normativa legal expresa y de cobertura para la aplicación de la inteligencia artificial en el ámbito judicial, tal y como proclama(2) en su artículo 1.1 y 1.2, complementando esta circunstancia con otra de no menor relevancia como es el carácter instrumental, de soporte y apoyo a la actividad jurisdiccional -por tanto en ningún caso decisorio y sí asistencial-, con pleno respeto a las garantías procesales y constitucionales.

No en vano, se establece en dicho cuerpo normativo un principio general de orientación al dato en la actividad del servicio público de Administración de Justicia, determinando que:

Todos los sistemas de información y comunicación que se utilicen en el ámbito de la Administración de Justicia, incluso para finalidades de apoyo a las de carácter gubernativo, asegurarán la entrada, incorporación y tratamiento de la información en forma de metadatos (…).

Ello permite que se evidencie en el apartado k) una concreta aplicación de dichos datos en:

Técnicas de inteligencia artificial para los fines anteriores u otros que sirvan de apoyo a la función jurisdiccional, a la tramitación, en su caso, de procedimientos judiciales, y a la definición y ejecución de políticas públicas relativas a la Administración de Justicia.

Nótese, de nuevo, como la elección del legislador español en este caso es, a nuestro modesto entender, acertada al configurar las herramientas de inteligencia artificial en el ámbito jurisdiccional como soluciones que “sirvan de apoyo”, sin ningún tipo de pretensión ni objetivo de sustitución o menoscabo de las funciones decisorias propias y exclusivas de los titulares (humanos) de los órganos jurisdiccionales.

Los arts. 56, 57 y 58 del citado Real Decreto Ley regulan tres tipos de actuaciones procesales con asistencia de herramientas de inteligencia artificial. En primer lugar, el artículo 56, contempla las actuaciones automatizadas, consideradas como aquellas actuaciones procesales “producida por un sistema de información adecuadamente programado sin necesidad de intervención humana en cada caso singular”. La propia catalogación nos sitúa perfectamente en la naturaleza de esta opción, ante actos procesales directamente generados por una herramienta inteligente, prevista para casos en que no se requiera interpretación jurídica, sino que se trate de actuaciones de trámite o resolutorias simples, indicando incluso, a título orientativo, una serie de posibles actuaciones que podrían derivarse hacia esta automatización inteligente: (i) El numerado o paginado de los expedientes; (ii) La remisión de asuntos al archivo cuando se den las condiciones procesales para ello; (iii) La generación de copias y certificados; (iv) La generación de libros; (v) La comprobación de representaciones; (vi) La declaración de firmeza, de acuerdo con la ley procesal. Ciertamente, a la vista de las opciones expuestas, se trata de actuaciones procesales meramente burocráticas y de trámite y ordenación formal de actuaciones en las cuales la labor netamente jurisdiccional de interpretación y aplicación de la ley está exenta.

En segundo lugar se da cobertura a las denominadas actuaciones proactivas, tratándose, en este caso, de actuaciones también automatizadas pero que además son autoiniciadas por los sistemas de información sin intervención humana, y que aprovechan la información obrante en un expediente o procedimiento de una Administración pública con un fin determinado, para generar avisos o efectos directos a otros fines distintos, en el mismo u otros expedientes, de la misma u otra Administración pública, y en todo caso conformes a la ley. Ello podría dar lugar, por ejemplo, a que constando en un expediente judicial la necesidad de incorporar determinada información a un Registro público, a los Cuerpos y Fuerzas de Seguridad o a la Agencia Tributaria, estos sistemas inteligentes y en aplicación de una actuación proactiva, directamente generen el aviso o efecto hacia expedientes vinculados a los resultados de un proceso judicial.

Observamos, expuestas las dos primeras posibilidades que se contemplan en la reciente normativa española, que se trata en ambos casos de actuaciones sin intervención humana, de carácter automático y de corte burocrático en las cuales no se realizan labores jurisdiccionales directas de enjuiciamiento o ejecución y que, además, comparten, según lo previsto en el artículo 57.4 del Real Decreto Ley 6/2023, una serie de circunstancias comunes asegurando, en ambos casos, el posible control y supervisión humana cuando sea precisa, y por ello se determina:

a) Que todas las actuaciones automatizadas y proactivas se puedan identificar como tales, trazar y justificar.

b) Que sea posible efectuar las mismas actuaciones en forma no automatizada.

c) Que sea posible deshabilitar, revertir o dejar sin efecto las actuaciones automatizadas ya producida.

Finalmente, en tercer lugar, el artículo 57 aborda y regula las que denomina “actuaciones asistidas” donde sí se da carta de naturaleza a una situación propia de justicia híbrida en los términos en que la hemos definido anteriormente. Son definidas por la norma como aquellas para las cuales “el sistema de información de la Administración de Justicia genera un borrador total o parcial de documento complejo basado en datos, que puede ser producido por algoritmos, y puede constituir fundamento o apoyo de una resolución judicial o procesal”. Hasta aquí llegaría el componente tecnológico, con una función estrictamente asistencial, de fundamento o apoyo, de una resolución judicial o procesal -de otros operadores jurídicos en el ámbito del proceso como pueden ser Letrado de la Administración de Justicia o Ministerio Fiscal. Pero, en ningún caso, dicho borrador documental constituirá por si mismo y de forma automática una resolución judicial o procesal, sin validación humana de la autoridad competente para dictar dicha resolución.

En este sentido el precepto establece de manera tajante que “los sistemas de la Administración de Justicia asegurarán que el borrador documental sólo se genere a voluntad del usuario y pueda ser libre y enteramente modificado por éste”, requiriendo siempre y en todo caso la validación del texto definitivo por el juez o jueza, magistrado o magistrada, fiscal o letrado o letrada de la Administración de Justicia, en el ámbito de sus respectivas competencias y bajo su responsabilidad, así como la identificación, autenticación o firma electrónica que en cada caso prevea la ley, además de los requisitos que las leyes procesales establezcan.

Ofrece por tanto la cobertura de legalidad y jurisdiccionalidad necesaria para una justicia híbrida con garantías y bajo el control por humano, dentro de la cual se pueda acudir a herramientas de inteligencia artificial que generen contenidos, previsiones, cálculos, predicciones, borradores, propuestas y evaluaciones que puedan servir de elemento de asistencia a una resolución judicial o procesal pero manteniendo incólume la responsabilidad exclusiva de la autoridad humana competente para asumirla, modificarla o excluirla. Y apelamos también a esa responsabilidad personal de los titulares del órgano jurisdiccional, u otros operadores jurídicos en el proceso, que recurran a actuaciones asistidas de esta naturaleza para evitar una inercia o comodidad mal entendida que les conduzca a una validación mecánica de la propuesta evacuada desde la herramienta tecnológica, evitando que el fundamento y base de su resolución sea el resultado algorítmico sino que sea, solamente, uno de los varios argumentos y circunstancias utilizados en la elaboración y fundamentación de la resolución correspondiente.

La justicia híbrida que se comienza a pergeñar como expresión de una justicia tecnológicamente transformada por la inteligencia artificial (Sanchís Crespo, 2023) se sustenta, por tanto, sobre una justicia asistida en las labores jurisdiccionales por herramientas de inteligencia artificial, fundamentalmente para tareas no interpretativas ni aplicativas de forma directa de la norma jurídica al litigio, reservando esa función al juez humano pero que, como advierte la autora previamente citada, puede llevarnos a una transformación tecnológica más extrema en la cual “el juez robot entre en escena”, lo que implicaría la conversión de la justicia híbrida en una justicia robótica y sin ningún tipo de componente humano. Queda por dilucidar, si, llegado el momento, estará la sociedad dispuesta a aceptar esta radical transformación que determinaría la supresión total del control y supervisión por humano de las herramientas de inteligencia artificial aplicadas al proceso judicial.

A día de hoy, el protagonismo de la inteligencia artificial en el ámbito de la justicia es creciente y diverso, como analizaremos seguidamente, llegando a influir, incluso, en la propia decisión judicial, tal y como hemos caracterizado en nuestra definición de una justicia híbrida. Ahora bien, no solo debemos considerar el impacto de la justicia híbrida en una vertiente netamente interna, en relación a la utilización de la inteligencia artificial por parte de los titulares de los órganos jurisdiccionales, la propia automatización de determinadas actividades del proceso puede afectar a la percepción social y pública de la labor jurisdiccional (Barysé & Sarel, 2024), particularmente cuando puede dar lugar a un cierto rechazo individual de los procesos judiciales en los cuales se perciba un cierto riesgo de imparcialidad, sesgo o falta de equidad en la configuración de la herramienta inteligente e, incluso, un grado de aversión hacia una justicia dependiente de los algoritmos que se manifiesta especialmente en relación a la posible automatización de las decisiones judiciales.

4. Justicia híbrida y derechos fundamentales

Condición sine qua non puede asentarse la evolución en el ámbito procesal que determina un modelo de justicia híbrida como el que acabamos de definir anteriormente es que cualquier incorporación de herramientas de inteligencia artificial en funciones asistenciales del órgano jurisdiccional está vinculada inexorablemente al pleno respeto a los derechos fundamentales (generales y procesales) comprometidos y afectados de forma directa en su empleo y en el acto procesal al cual se destinan desde la observancia de las garantías procesales concurrentes para el justiciable. La justicia híbrida debe asentarse en la correlación entre derechos fundamentales (y garantías procesales) y la utilización de justicia predictiva procedente de la aplicación de herramientas de inteligencia artificial en actuaciones procesales que se sustentaría sobre una serie de presupuestos básicos.

El primero de ellos guarda relación con la igualdad entre las partes y el derecho de defensa, en aquellos casos en que sean las partes, no el órgano jurisdiccional, quienes puedan servirse en su actuación procesal de herramientas de inteligencia artificial que terminen un absoluto desequilibrio a la hora de desplegar sus argumentos, acceso a medios de prueba, etc., determinando, por el coste que tiene la utilización de estas aplicaciones, una enorme y lesiva descompensación entre las partes en el proceso, debiendo el órgano jurisdiccional ponderar esta circunstancia si excede de una razonable proporcionalidad. Directamente bajo la propia responsabilidad del órgano jurisdiccional recae, tutelando el derecho fundamental de defensa de las partes, la exigencia de que traslade a las partes el conocimiento de la utilización de una herramienta de inteligencia artificial en la consecución o producción de una actuación procesal, debiendo informar no solo de esa contingencia sino que, para una garantía plena de dicho derecho, deberá dar conocimiento del funcionamiento de dicha aplicación o herramienta, sus condiciones y diseño (e incluso tratamiento de datos y posibles algoritmos), por cuanto de no ser así estimamos que puede verse afectado el derecho de defensa por hurtarles el conocimiento de la forma en que se ha obtenido el resultado o la predicción que posteriormente puede verse trasladada al contenido de un acto procesal que les afecta directamente.

Comprometido puede verse también el derecho al debido proceso, desde parámetros similares a los expuestos en el párrafo anterior por cuanto tanto la protección de datos personales, que puedan ser volcados a las aplicaciones de inteligencia artificial, como el hecho de que deba conocerse el funcionamiento interno de la solución tecnológica y su procesamiento de datos (es paradigmático en sentido el famoso caso LOOMIS en Estados Unidos) implican que cualquier elemento empleado por el órgano jurisdiccional en el desarrollo de actuaciones judiciales debe acomodarse a previsiones legales, decisión humana (judicial) de utilización y motivación de la interpretación y valoración del resultado, cuestión prácticamente imposible de cumplir si ya de partida y para el juez no ha sido inteligible, por ejemplo, como se ha datificado y algoritmizado dicha aplicación. Y en igual sentido para las partes en cuanto en el momento del juicio y para garantizar la plenitud de sus alegaciones no conocen los criterios de funcionamiento del sistema de inteligencia artificial con lo que se les privaría, si así fuera y como hemos señalado, de su derecho de defensa al no poder ejercerlo adecuadamente y en toda su amplitud. Estaríamos, para la salvaguarda del derecho de defensa y el derecho al debido proceso, ante la necesidad de que las herramientas de inteligencia artificial aplicadas en el proceso encajen en lo que podríamos considerar como “inteligencia artificial jurídicamente inteligible”, es decir, que sean lo suficientemente idóneas para ser explicadas, cognoscibles y entendibles en términos jurídicos y de su proyección procesal tanto al juez como a las partes en relación a su contenido, datificación, automatización y configuración algorítmica tanto a los efectos de demostrar su objetividad y ausencia de sesgo y predeterminación como la idoneidad ínsita a la aplicación para servir como elemento asistencial en el proceso y ante los concretos hechos controvertidos para los cuales van a ser de utilización.

En el ámbito particular del proceso penal, puede verse comprometido el derecho fundamental a la presunción de inocencia, cuando el sistema de inteligencia artificial aplicado, por ejemplo en la realización de actos de investigación tendentes a comprobar la existencia del hecho delictivo o sus autores o en la valoración de la prueba, está configurado de forma discriminatoria y sesgada, ya sea en su ratificación o en la determinación de los algoritmos, en relación con determinados perfiles de personas por su origen, condición, raza, género, lugar de residencia e, incluso, en razón de ostentar posibles antecedentes penales, reincidencia o perfiles de riesgo. Y, como pieza de cierre de un sistema de justicia híbrida garantista, hemos de aludir el derecho a la tutela judicial efectiva, origen y final del discurrir procesal acorde a las exigencias de protección de derechos fundamentales y garantías procesales por cuanto la exigencia de legalidad y jurisdiccionalidad en el empleo de herramientas de inteligencia artificial redunda en que toda resolución judicial en que se haya asistido el juzgado de este tipo de soluciones deberá motivar y fundamentar de forma suficiente, congruente y coherente los razonamientos y convicciones que de dicho elemento ha inferido para la concreta actuación procesal concernida.

5. Disrupción en el ámbito procesal: la eclosión de la inteligencia artificial en la actividad jurisdiccional

Los sistemas inteligentes van tomado posiciones, paulatinamente, en el entorno del proceso judicial, implicando con ello una disrupción, hasta ahora relativamente desconocida en la actividad jurisdiccional, tal y como ya hemos venido señalando en los apartados precedentes. La recopilación, almacenamiento, tratamiento y procesamiento de datos y precedentes jurisdiccionales incorporados en soluciones de software tecnológico deparan una especie de futura i-justicia (justicia inteligente) en la cual, con ese cariz híbrido y de control humano que hemos apuntado, los instrumentos tecnológicos de última generación asisten a los órganos jurisdiccionales en determinadas actividades propias de sus funciones. El procesamiento de datos y precedentes judiciales, la aplicación de algoritmos y con ello la previsión de propuestas, cálculos, evaluaciones o análisis que abarcan desde la concurrencia de criterios para admitir una demanda o la prelación de un recurso hasta la valoración de un medio de prueba pasando por la valoración del riesgo de reincidencia de un penado o incumplimiento de una medida cautelar llegando, en su extremo más disruptivo, a la automatización absoluta de determinadas tareas jurisdiccionales es, sin duda, el exponente de la eclosión de la tecnología en el ámbito procesal.

Y no se produce este fenómeno, lógicamente, por agotamiento de la operatividad humana del juez, sino que no es más que otro exponente, aplicado al ámbito del Derecho y de la Justicia, del progreso tecnológico. En consecuencia, el proceso judicial no puede quedar ajeno y de espaldas a las realidades que la inteligencia artificial ofrece, tanto en general a la sociedad como en particular a la actividad jurisdiccional. Eso sí, aterra, al menos personalmente, un hipotético futuro en que dicha disrupción sea llevada al extremo de que quienes decidan los litigios sean máquina, sean soluciones de software automatizadas, sean, en definitiva, incluso, avatares o humanoides guiados por una inteligencia artificial.

No presenta grandes objeciones ni a nivel legal ni desde su implantación práctica la implementación de herramientas de inteligencia artificial en actividades burocráticas vinculadas al desempeño de la función jurisdiccional. Es un ámbito en el cual, teóricamente, los derechos fundamentales y las garantías procesales de los justiciables no se ven afectadas. La informatización y datificación derivada de los procesos judiciales, desde un adecuado tratamiento y protección de datos personales permite que a través de herramientas de inteligencia artificial pueda ser más efectiva la consulta de bases de datos normativas o jurisprudenciales, la elaboración de estadísticas jurisdiccionales vinculadas tanto situaciones globales (tasas de congestión, dilaciones temporales) como particulares (seguimiento y control de expedientes judiciales) o la anonimización, seudonimización o disociación de determinados datos protegidos en resoluciones procesales que sean públicas. Incluso, como prevé la recientemente aprobada normativa española que hemos indicado en relación con actuaciones automatizadas y proactivas, pueden tener cabida en este espectro la paginación de expedientes, la declaración de firmeza o la remisión automática de comunicaciones a otros órganos, jurisdiccionales o no, de determinadas resoluciones o actuaciones procesales con trascendencia para su conocimiento y efectos. Distintas son, precisamente por su afección a los derechos fundamentales y las garantías procesales de las partes, las actuaciones en que la aplicación de tecnologías disruptivas e interacción entre el órgano jurisdiccional y una herramienta de inteligencia artificial pueda suponer un diagnóstico, propuesta, valoración o evaluación de situaciones, hechos, cuestiones y resoluciones procesales (justicia predictiva).

Ante cualquier uso de la inteligencia artificial en el ámbito del proceso es consustancial el pleno respeto a los derechos fundamentales y a las garantías procesales, no atender al marco de previsiones legales en relación con las garantías constitucionales fundamentales del justiciable y del funcionamiento de la propia justicia es una línea roja infranqueable. Ahí, de nuevo, entra en juego esa imprescindible esencia humana en la justicia, puesto que el juez tiene innegablemente asentadas en sus facultades y ejercicio las exigencias de interpretación y aplicación de la ley desde las más estrictas garantías de los derechos de los justiciables, sin que criterios de eficiencia y procesos de tratamientos masivos de datos puedan condicionarlas ni reducirlas en ningún caso.

Las más de las ocasiones las herramientas de inteligencia artificial están concebidas y diseñadas para simular, no directamente para pensar o interpretar, labor que sin duda realiza todo juez al resolver un litigio, ya sea ponderando argumentaciones de las partes, valorando el resultado de una prueba, determinando el fumus boni iuris o el periculum in mora como presupuestos de adopción de una medida cautelar, etc. Una herramienta de inteligencia artificial, con aplicaciones procesales, contrasta los datos actuales sobre la base de precedentes o antecedentes, pero no debemos olvidar que siempre hay matices, que siempre hay circunstancias fácticas y subjetivas que singularizan cada litigio, determinando entonces, sobre la base de los datos y los algoritmos de aplicación, una valoración generalmente estandarizada y neutra carente del análisis que, por ejemplo, los gestos, las reacciones o la forma de expresarse de un testigo o de una de las partes en su declaración aporta al juez para fijar hechos probados o en relación a la propia experiencia personal que ha acumulado el juez en su ejercicio profesional y que le permite, en muchas ocasiones, dilucidar e interconectar los hechos y los argumentos jurídicos con más elementos de juicio.

5.1. Referencias

Ante esta tesitura, vamos a ir pulsando una serie de situaciones procesales en las cuales entran en juego de forma directa las garantías y derechos fundamentales del justiciable, y su correlación con el empleo de herramientas de inteligencia artificial en su tramitación procesal, para valorar las diferentes aristas y acomodos en que estas soluciones pueden complementar la función jurisdiccional en la configuración de una justicia híbrida. Así, en primer lugar: ¿puede ser adecuada una herramienta de inteligencia artificial para determinar la admisión de un acto procesal? ¿su validez? ¿sus efectos? Tomemos en consideración que los actos procesales deparan, generalmente, derechos procesales, fundamentalmente orientados a la obtención de un pronunciamiento jurisdiccional (Goldschmidt, 2020, p. 39). Por ello, la decisión de admisión de una demanda, de un recurso, de la petición de práctica de una diligencia de investigación o de un medio de prueba van ligadas, por la propia norma de procedimiento, a la expectativa de una decisión sobre las pretensiones o solicitudes dirigidas al órgano jurisdiccional que en ella se contienen y que inciden sobre el derecho a la tutela judicial efectiva, tanto en su vertiente de acceso al órgano jurisdiccional como en la relativa al derecho a una resolución motivada sobre el fondo.

Delegar o transferir a una inteligencia artificial de forma exclusiva la determinación de la admisión de una demanda, un recurso, la petición de práctica de un medio de prueba, adopción de una medida cautelar, etc. priva de la esencia del contenido del derecho a la tutela judicial efectiva si no hay una motivación jurisdiccional (humana) en dicha resolución, pudiendo ser, eso sí, herramienta de apoyo una solución de inteligencia artificial que pueda ofrecer una orientación sobre el cumplimiento de requisitos de admisión, contenido, causas o exigencia legales respecto a la demanda, la medida cautelar, el recurso o la prueba requerida, pero más que eso, una propuesta o ponderación, nunca una automatización del acto procesal, ni tampoco para que confiera, por sí misma, validez o efectos a decisiones de esta transcendencia procesal.

¿Puede ser la inteligencia artificial una herramienta de utilidad, y de uso seguro, en la práctica de diligencias de investigación y en los actos probatorios? Abordamos una de las cuestiones más espinosas que la inteligencia artificial puede deparar en el ámbito del proceso penal y donde la tensión con los derechos fundamentales y las garantías procesales puede ser más evidente. La función del juez en relación al tamiz de la inteligencia artificial aplicada en la obtención de datos y evidencias para la investigación criminal, la valoración o el razonamiento de los resultados de la prueba o el cotejo de la adecuación del perito y su dictamen en la prueba pericial se presentan como algunos de los mayores retos que han de acometerse desde las posibilidades predictivas y valorativas que arrojen bases de datos gestionadas desde algoritmos preestablecidos por una inteligencia artificial que pueda plantear sus propuestas argumentadas en relación a los resultados de un acto de investigación o a la valoración de la licitud, validez, credibilidad, objetividad, fiabilidad o el resultado de la misma sobre el tratamiento de los datos que maneja.

La capacidad de gestión y análisis de datos que poseen las inteligencias artificiales puede ser de ayuda, para el órgano jurisdiccional, en la realización de cálculos y predicciones para la localización de vestigios o indicios de prueba respecto a los hechos (localización e identificación de posibles fuentes de prueba para un asunto), basándose en hechos similares anteriores, o, en el campo de la psicología del testimonio, analizar la credibilidad de la declaración en función del tiempo del recuerdo, la edad, etc. Incluso, podría llegar a analizar la posible ilicitud de una prueba en relación con su obtención y práctica y lo que con ello afecta a derechos procesales fundamentales como la presunción de inocencia o el debido proceso. Estaríamos, llegado el momento ante uno de los grandes cambios en la justicia contemporánea, y con ello a una de las expresiones más genuinas del modelo de justicia híbrida que hemos caracterizado anteriormente.

Nuevamente podemos aludir a una incipiente referencia española, por la cual se plantea la incorporación del tratamiento masivo de datos y su traslación a herramientas de inteligencia artificial en el entorno del proceso penal con fines de prevención, detección, investigación y enjuiciamiento de infracciones penales (Ley Orgánica 7/2021, de 26 de mayo) como consecuencia de la continuidad normativa que imponían instrumentos comunitarios de la Unión Europea como eran el Reglamento (UE) 2016/679, relativo a la protección de datos de las personas físicas y su libre circulación y la Directiva (UE) 2016/680 de la cual es causa directa en tratamiento de datos personales para fines de prevención, investigación, detección o enjuiciamiento de infracciones penales o de ejecución de sanciones penales la norma interna nacional. Causa de esta previsión fue que el inconcluso Anteproyecto de Ley de Enjuiciamiento Criminal de 2020 en España contenía previsiones, arts. 483 y 485, que daban cobertura normativa al empleo de instrumentos de valoración del riesgo o la reincidencia con herramientas de tratamiento de datos y aplicación de inteligencia artificial, bien es cierto que con el lastre de no contemplar, tal y como estimábamos en el apartado anterior, que es imprescindible una exigencia de información previa a las partes para salvaguardar su derecho de defensa.

En esa misma línea, los arts. 516 (en relación con el cruce automatizado e inteligente de datos, bajo autorización del Juez de Garantías), 517 (búsquedas selectivas, también bajo autorización del Juez de Garantías) y 518 (en relación al tratamiento de los datos utilizados y obtenidos) del citado Anteproyecto de Ley de Enjuiciamiento Criminal proyectaban el empleo de herramientas de inteligencia artificial, siendo igualmente cierto que adolecían de una regulación explícita en relación a las concretas actuaciones procesales en que podía acudirse a ellas.

Ha de manejarse con cautela el acomodo de la inteligencia artificial como herramienta de asistencia al juez en actos de investigación y prueba, no permitiendo, ni siquiera con habilitación legal, una integración absoluta e incondicional de forma indiscriminada y automatizada, como rutina o recurso habitual del proceso, remitiendo determinadas pruebas o aspectos de la prueba a la aplicación de soluciones de inteligencia artificial para propender una especie de pericial algorítmica, sino que debe estar presente una exigencia insoslayable de control y supervisión jurisdiccional, tanto en la elección del momento y actuación procesal a la cual se pueda aplicar elementos de inteligencia artificial como a la valoración de los resultados obtenidos. Sin olvidar que estamos moviéndonos en el entorno de recursos tecnológicos cuyo coste y requerimientos materiales (equipamientos), personales y técnicos (adquisición de licencias de los programas o software, así como la constante calibración del modelo) son elevados y que precisan de una elevada inversión económica para su puesta en funcionamiento y mantenimiento.

Otro ámbito de posible para la utilización de herramientas de inteligencia artificial es la relativa a la valoración del riesgo, en situaciones procesales como la adopción de medidas cautelares, la concesión de permisos penitenciarios, las evaluaciones criminológicas de posible reincidencia, en relación a la víctima (victimización secundaria, revictimización), donde la inteligencia artificial puede ofrecer al juzgador cálculos o previsiones de cumplimiento o incumplimiento de las antedichas situaciones. Ir más allá nos parece, hoy en día, muy arriesgado. Apostar por una inteligencia artificial en funciones de juez-robot que sustituya totalmente el factor humano a cargo del órgano jurisdiccional no nos parece asumible en virtud de toda la serie de razones que han venido siendo expuestas anteriormente.

El juez humano, pese a sus posibles inferencias subjetivas, posee una serie de capacidades de interpretación y aplicación de la ley al litigio que una inteligencia artificial, por muy completa que sea en su ratificación y muy perfilados y depurados que estén sus algoritmos no puede alcanzar, puesto que impartir justicia no es algo automático, estadístico ni matemático, sino que es una virtud humana que trata de otorga a cada uno lo que le corresponde de acuerdo a una serie de derechos y obligaciones legalmente estipulados y que han de ser puestos en el contexto de una concreta relación jurídica, con unos antecedentes, hechos y circunstancias propias.

5.2. Valoración: ventajas e inconvenientes

Pronosticar la idoneidad de la inteligencia artificial, en el entorno de una hipotética justicia híbrida, es un ejercicio de malabarismo jurídico condicionado por la fulgurante expansión de esta tecnología disruptiva y su acople a un ecosistema ciertamente rígido como es el de la Administración de Justicia y el ejercicio de la función jurisdiccional a través del proceso, donde el principio de legalidad que impera en las normas de procedimiento es un punto de no retorno. Solo con una previsión legal que habilite su utilización (posibilidades, condiciones, efectos y actos procesales) podrían darse los primeros pasos para calibrar, y siempre dentro de una configuración asistencial que no sustitutiva del juez, su repercusión y con ello sus bondades e inconvenientes.

Tampoco debe hacernos perder el norte, en un ejercicio valorativo de la inteligencia artificial y sus beneficios y riesgos en el ámbito del proceso y de la justicia, afrontar dicha tarea desde la premisa de que la inteligencia artificial, y su paradigmática vertiente eficientista es la solución a los diversos problemas de la justicia (lentitud, carestía, burocracia, entre otros). La inteligencia artificial, como tecnología disruptiva, es un recurso, novedoso, que puede ser de gran ayuda en determinadas -no todas- las actuaciones procesales, incluso en algunas, como también hemos señalado con anterioridad, como descargo automático de actividades meramente burocráticas o de trámite en que no hay ejercicio de la función jurisdiccional pero que requiere, ya de entrada, tal y como se ha indicado, una adecuada programación, una importante inversión económica y dotación presupuestaria y una imprescindible base legal que habilite su utilización.

En consonancia con nuestra defensa acérrima del principio de supervisión (control) por humano en la utilización de soluciones de inteligencia artificial, hemos de tener en cuenta que no está llamada a reemplazar al juez ni a generar un sistema de justicia totalmente tecnológico e inteligente (i-justicia), sino que su lugar vendría enmarcado en una nueva concepción de la justicia (híbrida) pero siempre a expensas del juez humano, pudiendo darse situaciones procesales para las cuales no sea susceptible que el factor humano pueda reemplazarse, como son las situaciones, de prácticamente toda resolución procesal, en que se demanda el razonamiento legal en la interpretación de la ley y la valoración de los hechos ocurridos o la actividad y fundamentación de las partes que suponen circunstancias procesales inexcusables y en las que la inteligencia artificial no puede aportar o sustituir y por sí misma.

Pero el cambio también es un reto. Y una nueva justicia, híbrida, en que la tecnología ostente una función asistencia relevante en la actividad jurisdiccional evidentemente es posible. La justicia no puede estancarse ni ser una realidad estática, ha de acomodarse a la realidad social a la que sirve como vía pacífica, constitucional y democrática de resolución de litigios. En ese sentido la versatilidad y flexibilidad que confiere la inteligencia artificial como elemento dinamizador, con programas y aplicaciones que se reformulan y adaptan a los requerimientos de los usuarios (juez), es una de sus ventajas. En materia probatoria, por ejemplo, pueden adecuarse a diferentes medios de prueba señalando objetivos concretos que pueden fijar en sus predicciones o cálculos, desde analizar la veracidad de un testimonio contrastándolo con datos objetivos, a aportar análisis periciales de elementos técnicos de un litigio, sin perder la gran capacidad de procesamiento de datos de que disponen y que, ahí sí, contribuye a dotar de eficiencia y agilización temporal determinadas actuaciones procesales. En esta misma línea argumental la inteligencia artificial aplicada a actos procesales disminuye dilaciones temporales y reduce costes económicos, redundará evidentemente en una tutela judicial efectiva de más calidad y que aportará, con ello, confianza y certeza en el sistema de justicia, tanto en la reducción de la dilación en la respuesta judicial a los litigios como en el establecimiento de criterios uniformes en relación a la práctica y valoración de determinados actos procesales que se ajusten positivamente respecto al principio de igualdad.

Sobre la presunta objetividad de los mecanismos de inteligencia artificial, como posible ventaja, es cierto que dicha atribución está muy condicionada a la certificada ausencia de sesgo o elementos discriminatorios en su conformación (base de datos y algoritmos que dilucidan). Sirva de ejemplo la utilización de herramientas de inteligencia artificial en la valoración del riesgo de reincidencia de un individuo en que se le penalice por su raza, origen étnico, país de procedencia, etc., donde factores subjetivos, físicos o personales no debidamente ponderados en la aplicación inteligente pueden conducir a un sesgo y discriminación que le penalice, y que, incluso, lesione derechos fundamentales como la presunción de inocencia. Una mayor objetividad, y un correlativo menor riesgo de sesgo o discriminación se aprecia, también materia probatoria, en posibles aplicaciones de corte pericial que toman como base el cálculo de probabilidades, la recreación de imágenes o escenarios, la valoración de bienes o daños, el contraste de determinados fenómenos naturales, atmosféricos, etc. Se puede contrastar, por tanto, que las aplicaciones de inteligencia artificial, y no solo en relación a actos de prueba, pueden contribuir a reducir posibles desviaciones subjetivas del juzgador.

Es argumento recurrente la apreciación de deshumanización de la justicia que puede conllevar elevar el protagonismo de la tecnología frente al ser humano (juez) como posible inconveniente ante una justicia híbrida, y el compromiso que ello puede determinar en una protección efectiva de los derechos y garantías de los justiciables al verse concernidos desde los derechos fundamentales procesales a la libertad, la seguridad jurídica o la igualdad. El beneficio o riesgo que la inteligencia artificial va a producir en el ámbito jurisdiccional consideramos que dependerá de donde se coloque el fiel que balancee adecuadamente, y en su justo término, la influencia de la tecnología en la actividad jurisdiccional, desde la premisa invariable de que son sistemas al servicio del juez y bajo su control.

Una justicia algoritimizada, bajo la dependencia absoluta de herramientas de inteligencia artificial no será verdadera justicia, por muy objetiva que parezca, por cuanto el coste que supone hacia determinados derechos y garantías de los justiciables es inasumible. Más aún con el peligro que para ello supone, ante la estabilidad que demandan los derechos fundamentales y las garantías procesales, la volatilidad de las nuevas tecnologías. Es un riesgo constatable y perceptible. Las soluciones tecnológicas evolucionan a un ritmo vertiginoso, demandando actualización permanente y sin descanso que a su vez exige inversiones económicas, e incluso materiales o personales, que puede derivar en que la Administración de Justicia no tenga capacidad para asumirlo. Junto a ello los condicionantes legales -norma que sustente su aplicación con respeto a la legalidad y a los derechos fundamentales-, y también técnicos y económicos, de acceso y utilización de estas tecnologías introducen un elemento añadido de inseguridad.

5.3. Condicionantes

Indudablemente, el condicionante principal en una justicia híbrida es el absoluto respeto a los derechos humanos, a los derechos fundamentales y a las garantías procesales de que debe disfrutar y hacer valer el justiciable bajo la tutela del juez. De lo contrario, cualquier acto procesal en el cual se utilice, efectúe o derive automáticamente hacia una inteligencia artificial devendría nulo y sin ninguna eficacia procesal, incluso hasta el extremo de que pudieran deducirse responsabilidades en relación con quien lo autorice o realice contraviniendo dichos derechos e incluso previsiones legales. De no menor relevancia, como condicionante absoluto para la utilización de inteligencia artificial en fines procesales, es la ya expuesta indisociable exigencia de información previa respecto a su utilización a las partes, ofreciendo datos sobre características y consecuencia del empleo de la inteligencia artificial en la actuación procesal que corresponda, así como podría ser de interés requerir en estos casos, y hasta donde no comprometa las actuaciones, el posible consentimiento de los afectados.

Este requisito se desprende, al menos en el ámbito europeo de aplicación del Reglamento (UE) 2016/679 del Parlamento Europeo y del Consejo, de 27 de abril de 2016, relativo a la protección de las personas físicas en lo que respecta al tratamiento de datos personales y a la libre circulación de estos datos (RGPD). En su artículo 22 contempla el derecho de todo interesado, en nuestro caso las partes en el correspondiente proceso judicial, a “no ser objeto a una decisión basada únicamente en el tratamiento automatizado, incluida la elaboración de perfiles, que produzca efectos jurídicos en él o le afecte significativamente de modo similar”. Recurrir a soluciones de inteligencia artificial en el ámbito procesal, afecta y determina consecuencias procesales y jurídicas sobre las partes (desde la concurrencia de requisitos para admitir una actuación procesal, pasando por cuestiones de prueba o valoración del riesgo hasta la propia ejecución de la sentencia). Ahora bien, cualquiera de las partes podrá rechazar, sin exigencia de justificación alguna, el que quede sometido a una decisión procesal que se base “únicamente” en el tratamiento automatizado, pero, sensu contrario, si estuviera sujeto a una decisión judicial en la cual se ha asistido el juez, que es quien decide en último término, de un elemento de inteligencia artificial como herramienta predictiva o asistencial.

De ahí que cobre sentido la excepción prevista en el apartado c) del párrafo segundo del artículo 22, cuando “se base en el consentimiento explícito del interesado”, en nuestro caso, en el consentimiento informado, al menos, de aquellas partes procesales a quienes afecte la herramienta utilizada, e incluso, llegado el caso a terceros participantes en el proceso cuya actividad pueda verse afectada por una herramienta de inteligencia artificial, como podría ser el caso de una herramienta que valora la veracidad de la declaración de un testigo y la adecuación del informe de un perito. Consentimiento que, cumplimiento con la exigencia de jurisdiccionalidad que preside cualquier utilización de soluciones de inteligencia artificial en el proceso debe ser prestado de forma voluntaria e inequívoca ante el órgano jurisdiccional ante el cual se sustancia el procedimiento judicial y, sin olvidar, que es imprescindible además la concurrencia del requisito de legalidad, por tanto, efectuándose siempre dentro de los límites legales aplicables. Además, en relación con esta previsión, el artículo 14 del RGPD (UE) requiere proporcionar al interesado por el responsable del tratamiento de datos (sería, entendemos, la empresa o entidad pública responsable del diseño y de la utilización de la herramienta de inteligencia artificial) la información necesaria para garantizar un tratamiento de datos leal y transparente respecto del interesado y en los que a nosotros interesa, cuando va a producirse la existencia de una decisión automatizada (incluida la elaboración de perfiles): “información significativa sobre la lógica aplicada, así como la importancia y las consecuencias previstas de dicho tratamiento para el interesado”. Se precisa por tanto de que las partes hayan sido informadas de manera independiente y previa a la utilización de la herramienta de inteligencia artificial y que consientan sobre los riesgos y potenciales de la aplicación de una inteligencia artificial, en nuestro caso en sus vertientes asistenciales o predictivas en el ámbito de la prueba en el proceso.

Cobran especial importancia ambas exigencias cuando en el campo del derecho procesal y de la justicia, y desde la perspectiva de los derechos humanos, la incorporación de la inteligencia artificial desde sistema digitales y técnicos como elemento de compilación, valoración o asistencia en materia probatoria y en la recreación de ciertos perfiles que puede ser problemática al afectar al derecho al debido proceso, a la presunción de inocencia o el derecho de defensa, entre otros derechos fundamentales procesales. Como contrapeso, y elemento de protección de los derechos humanos en la aplicación de tecnologías de inteligencia artificial por entidades públicas o por sujetos privados, se requiere, y de ahí las exigencias establecidas en el Reglamento europeo anteriormente expuestas, una exigencia de absoluta transparencia en relación con su funcionamiento (acceso a sus algoritmos(3) y despliegue de su actividad) datificación, resultados y calibración.

Un segundo condicionante, no tanto de índole jurídico legal, pero sí de corte personal y material, estriba en factores vinculados a la disponibilidad y capacidad personal para la utilización de este tipo de tecnologías y soluciones disruptivas por parte de los titulares de los órganos jurisdiccionales. Perfectamente es posible que jueces y juezas se nieguen o rehúsen recurrir a un elemento de inteligencia artificial puesto a su disposición como elemento asistencial en sus funciones jurisdiccionales. La previsión legal habilitará su utilización, con respecto a derechos y garantías de los justiciables, así como estableciendo el cauce, momento y situaciones procesales para los cuales es factible, pero no parece lógico que pueda llegar a imponer su utilización, como no lo hace con prácticamente ninguna circunstancia procesal de carácter asistencial en el ejercicio de la potestad jurisdiccional. Sumemos a ello la posible concurrencia del factor que implica la denominada “brecha digital”, tanto en lo personal, ante jueces o juezas que no dispongan de la formación o conocimiento adecuado para el manejo y aplicación de la herramienta de inteligencia artificial, como en lo material, ante la carencia de equipos, servidores, instalaciones, técnicos de apoyo o de disponibilidad económica para la adquisición del software, su mantenimiento, etc.

6. Conclusión: hoja de ruta para una Justicia Híbrida

La disrupción tecnológica en la justicia, y el avance sustancia que en ello supone la incorporación de soluciones de inteligencia artificial en actuaciones procesales, es el mayor reto que encara la justicia en estos momentos en el siglo XXI. Bien es cierto, y comprensible, que puede observarse con preocupación por el tinte deshumanizador que aparentemente puede comportar. Por ello, y como primera reflexión y orientación, la defensa a ultranza del principio de supervisión y control por humano: el juez es quien debe acordar la utilización de una herramienta de inteligencia artificial y es quien debe valorar y ponderar sus resultados. Ello no debe obstar, tampoco, a cerrar la puerta a una realidad incontestable y que puede traer ventajas en términos de coste y eficacia a la Justicia. Si se llegara a considerar que utilizar inteligencia artificial en una justicia más tecnológica es un riesgo, la ponderación de ese riesgo siempre ha de hacerse desde la trinchera de los derechos fundamentales y las garantías procesales de los justiciables, línea roja que no puede sobrepasarse en ningún caso.

Las condiciones propias de los sistemas de inteligencia artificial, en que su black box es inaccesible por concurrencia de los derechos de propiedad industrial e intelectual, es un escollo de opacidad que puede afectar directamente los derechos y garantías fundamentales del justiciable, por cuanto, como hemos expuesto, puede impedir conocer su funcionamiento, datificación y criterios de procesamiento de datos, privando de conocer como evacua sus pronósticos, informes, valoraciones o propuestas y lesionado, directa o indirectamente, el derecho a la tutela judicial efectiva, a la defensa o el derecho a un juicio justo si el juez recurre a ellas y no se puede facilitar al justiciable esos datos. En este mismo sentido, la hoja de ruta para la justicia híbrida requiere que las herramientas de inteligencia artificial sean accesibles, transparentes, comprensibles y auditables. Para ello, y desde el origen, ha de existir una trazabilidad de la herramienta, conociendo los datos utilizados, que provengan de fuentes certificadas e intangibles, comprobando la exactitud y licitud del tratamiento de estos y su vinculación con los algoritmos que se aplicarán.

Una justicia híbrida, o asistida por tecnologías disruptivas, ha de ser una justicia integradora y no discriminatoria, debiendo prevenirse y evitarse el empleo de herramientas de inteligencia artificial que puedan comportar un sesgo o la creación o intensificación de discriminaciones injustificadas y desproporcionadas, Una vez más, la supervisión por el juez será garantía de que ante cualquier sospecha de discriminación no se empleará dicha herramienta, salvaguardando, asimismo, la propia independencia e imparcialidad del órgano jurisdiccional, que no se vería comprometida por una posible arbitrariedad de los datos o algoritmos del sistema de inteligencia artificial que plantea utilizar. En conclusión, insistimos en el punto de partida para un modelo de justicia híbrida que vendría sustentado sobre tres condiciones fundamentales: jurisdiccionalidad (control y supervisión por el titular del órgano jurisdiccional), legalidad (previsión normativa que determine las actuaciones procesales y las condiciones y efectos de empleo de soluciones de inteligencia artificial) y pleno respeto a los derechos y garantías fundamentales del justiciable.

Referencias bibliográficas

Álvarez, M. (٢٠٢٣). Inteligencia artificial y medidas cautelares en el proceso penal: tutela judicial efectiva y autodeterminación informativa en potencia riesgo. Revista Española de Derecho Constitucional, (127), 177-207. https://doi.org/10.18042/cepc/redc.127.06

Arrabal, P. (2022). Los objetivos de desarrollo sostenible y la inteligencia artificial en el proceso judicial. Tirant Lo Blanch.

Baena, M. (2023). Aplicación de inteligencia artificial por los tribunales europeos. Tirant Lo Blanch

Barysé, D. y Sarel, R. (2024). Algorithms in the court; does it matter which part of the judicial decisión-making is automated?. Artificial intelligence and Law, 32(1), 117-146.

Bonet, J. (2018). La tutela judicial de los derechos no humanos. De la tramitación electrónica al proceso con robots autónomos. CEFLegal: Revista Práctica de Derecho, 208, 55-92.

Bonet, J. (2021). Valoración de la prueba y resolución mediante inteligencia artificial, Derecho Procesal: retos y transformaciones en L. Bujosa (Direc.), Derecho Procesal: retos y transformaciones (pp. 315-338). Atelier.

Borges, R. (2021). Inteligencia artificial y proceso penal. Thomson Reuters Aranzadi.

Borges, R. (2020). El sesgo de la máquina en la toma de decisiones en el proceso penal. Ius et Scientia, 6(2), 54-71. https://doi.org/10.12795/IETSCIENTIA.2020.i02.05

Bueno De Mata, F. (2010). E-justicia: hacia una nueva forma de entender la justicia. Riedpa: Revista Internacional de Estudios de Derecho Procesal y Arbitraje, (1), 10-20.

Bueno de Mata, F. (2022). El impacto de las tecnologías disruptivas en el derecho procesal. Thomson Reuters Aranzadi.

Corvalán, J. (2018). Inteligencia artificial: retos, desafíos y oportunidades - Prometea: la primera inteligencia artificial de Latinoamérica al servicio de la Justicia. Revista de Investigações Constitucionais, 5(1), 295-316.

Cotino, L. (2017). Big data e inteligencia artificial. Una aproximación a su tratamiento jurídico desde los derechos fundamentales. Dilemata, (24), 131-150.

Engel, C., Linhart, L. & Schubert, M. (2024). Code is Law: how COMPAS affects the way the judiciary handles the risk of recidivism. Artificial Intelligence and Law. https://doi.org/10.1007/s10506-024-09389-8

Fontestad, L. (2023).Consideraciones acerca de la aplicación de la inteligencia artificial en la cooperación judicial penal internacional. Ius et Scientia, 9(2), 10-26. https://doi.org/10.12795/IESTSCIENTIA.2023.i02.01

García, J. (21 de agosto de 2019) Deus ex machina. El País. https://elpais.com/retina/2019/08/13/tendencias/1565696336_176424.html

García-Varela, R. (2022). La (futura) legislación sobre inteligencia artificial: cuestiones sobre la prueba y responsabilidad derivada de su uso. Diario La Ley.

Goldschmidt, J. (2020). Teoría General del Proceso. Ediciones Olejnik.

Guzmán, V. (2021). Proceso penal y justicia automatizada. Revista General de Derecho Procesal, (53), 1-40.

Martín, P. (2022). El uso de big data y de inteligencia artificial en el ciberpatrullaje: de la tiranía del algorimo y otras zonas oscuras, IDP. Revista de Internet, Derecho y Política, 36, 1-13

Martínez, L. (2018). Peligrosidad, algoritmos y due process: el caso State vs. Loomis. Revista de Derecho Penal y Criminología, (20), 485-502.

Mckay, C. (2020). Predicting risk in criminal procedure: actuarial tools, algorithms, AI and judicial decision-making. Current Issues in Criminal Justice, 32(1). 22-39.

Miró, F. (2018). Inteligencia artificial y Justicia Penal: Más allá de los resultados lesivos causados por robots. Revista de Derecho Penal y Criminología, (20), 87-130.

Morales, A. (2021). Algoritmos en el estrado ¿realmente los aceptamos? Percepciones del uso de inteligencia artificial en la toma de decisiones jurídico-penales. Ius et Scientia, 7(2), 57-87. https://doi.org/10.12795/IETSCIENTIA.2021.i02.05

Nieva, J. (2018). Inteligencia artificial y proceso judicial. Marcial Pons.

Pérez Estrada, M. (2022). Fundamentos jurídicos para el uso de la inteligencia artificial en los órganos judiciales. Tirant Lo Blanch.

Piñar, J. (2018). Derecho. Ética e innovación tecnológica. Revista Española de Derecho Administrativo, (195), 11-30.

Quattrocolo, S. (2020). Artificial Intelligence, Computational Modelling and Criminal Proceedings. Springer.

Sanchis Crespo, C. (2023). Inteligencia artificial y decisiones judiciales: crónica de una transformación anunciada. Scire, 29(2), 65-84. https://doi.org/10.54886/scire.v29i2.4937

Surden, H. (2019). Artificial intelligence and Law: an overview. Georgia State University Law Review, 35(4), 1305-1337.

Van Dijck, J. (2014). Datafication, dataism and dataveillance: big data between scientific paradigm and ideology. Surveillance & Society, 12(2), 197-208. https://doi.org/10.24908/ss.v12i2.4776

Veliz, C. (13 de junio de 2019). Inteligencia artificial: ¿proceso o retroceso?. El País. https://elpais.com/elpais/2019/06/13/opinion/1560421249_824783.html

Yeung, K., Howes, A. & Y Pogrebna, G. (2019). AI Governance by Human Rights-Centred Design, Deliberation and Oversight: An End to Ethics Washing. En M. Dubber y F. Pasquale (Eds.), The Oxford Handbook of AI Ethics (pp. 76-106). Oxford University Press. https://doi.org/10.1093/oxfordhb/9780190067397.013.5

NOTAS

(*) Nota del Equipo Editorial: este artículo fue recibido el 27 de marzo de 2024 y su publicación fue aprobada el 7 de junio de 2024

(**) Doctor en Derecho por la Universidad de Salamanca. Catedrático de Derecho Procesal en la Universidad de Salamanca. ORCID: https://orcid.org/0000-0002-9288-8240. Correo electrónico: fmdiz@usal.es

(1) Dicho precepto, vinculado a la normativa comunitaria relativa a la protección de las personas físicas en lo que respecta al tratamiento de datos personales por parte de las autoridades competentes para fines de prevención, investigación, detección o enjuiciamiento de infracciones penales o de ejecución de sanciones penales, y a la libre circulación de dichos datos, conceptúa la actividad de «elaboración de perfiles» como toda forma de tratamiento automatizado de datos personales consistente en utilizar datos personales para evaluar determinados aspectos personales de una persona física, en particular para analizar o predecir aspectos relativos al rendimiento profesional, situación económica, salud, preferencias personales, intereses, fiabilidad, comportamiento, ubicación o movimientos de dicha persona física.

(2) Artículo 1. Objeto y principios. 1. La presente ley regula la utilización de las tecnologías de la información en el ámbito de la Administración de Justicia y en las relaciones de la Administración de Justicia con el resto de administraciones públicas, y sus organismos y entidades vinculadas y dependientes. 2. En la Administración de Justicia se utilizarán las tecnologías de la información de acuerdo con lo dispuesto en la presente ley, asegurando la seguridad jurídica digital, el acceso, autenticidad, confidencialidad, integridad, disponibilidad, trazabilidad, conservación, portabilidad e interoperabilidad de los datos, informaciones y servicios que gestione en el ejercicio de sus funciones.