Inteligencia artificial y justicia

El Consejo General del Poder Judicial (CGPJ) ha dado un paso relevante en la regulación del uso de la inteligencia artificial (IA) en el ámbito judicial español.

El pasado 28 de enero de 2026, el Pleno del órgano de gobierno del Poder Judicial aprobó la Instrucción 2/2026, publicada en el BOE el 30 de enero, que establece por primera vez criterios, pautas de uso y principios vinculantes para la utilización de sistemas de IA por jueces, juezas, magistrados y magistradas en el ejercicio de su actividad jurisdiccional.

Un alcance obligatorio que hace que, como señala la propia instrucción, su vulneración podría dar lugar a “las responsabilidades que procedan”

Resumen de la Instrucción 2/2026

Marco regulatorio europeo y nacional

La Instrucción se enmarca en el cumplimiento del Reglamento (UE) 2024/1689 de Inteligencia Artificial, que establece normas armonizadas en materia de IA e impone obligaciones específicas respecto de los sistemas de alto riesgo. El anexo III de dicho Reglamento incluye expresamente los sistemas destinados a ser utilizados por una autoridad judicial para ayudar en la investigación e interpretación de los hechos y de la ley.

En el plano interno, el Real Decreto-ley 6/2023 estableció un marco inicial para la transformación digital del servicio público de justicia, incluyendo la aplicación de técnicas de IA como instrumento de apoyo a fines jurisdiccionales. Este marco se completa con el Real Decreto 729/2023, que aprueba el Estatuto de la Agencia Española de Supervisión de Inteligencia Artificial (AESIA).

El CGPJ será designado como autoridad de vigilancia del mercado respecto de los sistemas de IA de alto riesgo relacionados con la administración de justicia, según establece el Anteproyecto de Ley para el buen uso y la gobernanza de la Inteligencia Artificial, aprobado en marzo de 2025.

Principios rectores del uso de IA en los órganos judiciales

La Instrucción establece nueve principios fundamentales que deben regir la utilización de sistemas de IA en el ejercicio de la actividad jurisdiccional:

  1. Control humano efectivo: La IA estará siempre sometida a un control humano real, consciente y efectivo por parte de los jueces y magistrados, sin que estos sistemas puedan operar de forma autónoma para la toma de decisiones judiciales.
  2. No sustitución: La IA no podrá sustituir en ningún caso a los jueces para la toma de decisiones judiciales, la valoración de hechos o pruebas, o la interpretación y aplicación del Derecho.
  3. Responsabilidad judicial: La responsabilidad plena y exclusiva de las resoluciones corresponde en todo caso a los jueces y magistrados, con independencia del uso de sistemas de IA como instrumento de apoyo.
  4. Independencia judicial: Los resultados generados por sistemas de IA no podrán condicionar, directa o indirectamente, la libertad de criterio del órgano jurisdiccional.
  5. Respeto a los derechos fundamentales: Especialmente la tutela judicial efectiva, la igualdad, la no discriminación y la protección de datos personales.
  6. Confidencialidad y seguridad: Garantía de la confidencialidad, integridad y seguridad de la información, evitando accesos no autorizados o usos indebidos.
  7. Prevención de sesgos algorítmicos: Los jueces deberán adoptar las cautelas necesarias para identificar y evitar sesgos algorítmicos.
  8. Proporcionalidad y uso limitado: La utilización de IA deberá ser proporcionada y limitada a supuestos en los que resulte útil y eficaz.
  9. Formación y capacitación: Los jueces y magistrados podrán recibir formación sobre el uso de sistemas de IA en el ámbito judicial.

Sistemas permitidos y usos autorizados de la IA

 

En general

 

La Instrucción establece que los jueces y magistrados únicamente podrán utilizar sistemas de IA que les sean facilitados por las Administraciones competentes en materia de justicia o por el propio CGPJ, quedando prohibido el uso de herramientas no autorizadas, incluidas las de IA generativa comerciales.

No sólo es que haya que realizar un análisis previo de la IA para su uso, sino que la Instrucción concreta qué tipo de utilización resulta factible, de acuerdo con lo previsto en el apartado 6 de la Instrucción:

  • Búsqueda y localización de información jurídica (normativa, jurisprudencia, doctrina).
  • Análisis, clasificación y estructuración de información contenida en actuaciones judiciales
  • Elaboración de esquemas, resúmenes o borradores de trabajo interno
  • Apoyo a tareas organizativas o auxiliares.

Régimen especial para borradores de resoluciones

Un aspecto especialmente relevante es la regulación de los borradores de resoluciones judiciales generados mediante IA, ya sea para su utilización parcial o total en la redacción de las resoluciones judiciales. Es importante tener presente la importancia que pueden tener sistemas como Google Notebook LM para la redacción de los resúmenes de las posiciones de las partes o de la concreción de hechos. Aspectos que no constituyen la ratio decidendi pero que la condicionan.

La Instrucción permite su utilización, pero exige en todo caso:

  • Revisión y validación personal, completa y crítica por parte del juez o magistrada. Una revisión que se conecta con la responsabilidad total del juzgador sobre la resolución y las partes que lo componen. El problema será descubrir el ámbito de la IA, cuando sistemas como GPTZero siguen teniendo numerosas carencias.
  • Que el borrador se genere únicamente a voluntad del juez.
  • Que pueda ser libre y enteramente modificado antes de su validación

Los borradores generados por IA no tendrán en ningún caso la consideración de decisiones automatizadas. Posiblemente hubiera sido necesario que hubiera una serie de previsiones sobre su utilización en los órganos colegiados, a fin de que los no ponentes de la sentencia conozcan todo el uso que se ha realizado de la Inteligencia Artificial.

Usos expresamente prohibidos

La Instrucción prohíbe categóricamente una serie de utilizaciones de la IA que suponen, en el fondo o bien la sustitución del juzgador o bien un mal desempeño de la actividad jurisdiccional:

  • La sustitución, automatización o delegación de la toma de decisiones judiciales
  • La incorporación a resoluciones de contenidos generados por IA sin validación crítica, completa y personal
  • El tratamiento de datos personales especialmente protegidos fuera de los supuestos autorizados
  • El perfilado de personas, predicción de comportamientos o evaluación de riesgos fuera de los casos previstos
  • La utilización de sistemas de IA no facilitados por las Administraciones competentes o el CGPJ (salvo para preparación o estudio con información de fuentes abiertas)

Protección de datos personales

La Instrucción dedica una atención especial a la protección de datos, estableciendo que los sistemas de IA deberán incorporar medidas técnicas y organizativas que garanticen la seguridad de los datos tratados, la prevención de accesos no autorizados, la trazabilidad de las operaciones y la imposibilidad de reutilización de datos con fines distintos de aquellos para los que fueron tratados.

El encomiable recordatorio de la normativa de protección de datos personales no obvia las dificultades técnicas de su materialización, teniendo en cuenta sobre todo que todos los sistemas de inteligencia artificial tienen su procesamiento en la nube, a través de servidores que están sometidos a la legislación de terceros paises, los Estados Unidos esencialmente-

Análisis crítico: la problemática del sesgo algorítmico

Aunque la Instrucción del CGPJ representa un avance significativo en la regulación del uso de IA en el ámbito jurisdiccional, la implementación de estos sistemas plantea desafíos estructurales que van más allá del marco normativo y que ponen en cuestión la viabilidad de garantizar una justicia verdaderamente imparcial cuando se utilizan herramientas algorítmicas.

El problema fundamental: los sesgos inherentes a la IA

El principio de prevención de sesgos algorítmicos establecido en la Instrucción, aunque loable, enfrenta una realidad técnica ineludible: los algoritmos de IA pueden verse afectados por sesgos inherentes a los datos utilizados para entrenarlos, y si los datos históricos contienen sesgos o discriminación sistemática, los algoritmos pueden reproducir y amplificar estas disparidades¹.

El caso emblemático de Wisconsin vs. Loomis en Estados Unidos ilustra este problema de manera dramática. Se demostró la existencia de un sesgo por razón del origen racial de las personas en Compass, un algoritmo predictivo adoptado por la Administración de Justicia de Estados Unidos para determinar el riesgo de reincidencia, que daba siempre como resultado un porcentaje de reincidencia más elevado en las personas de raza negra¹.

El efecto «caja negra» y la opacidad de los algoritmos

Más allá de los sesgos en los datos, existe un problema de opacidad inherente a muchos sistemas de IA. Muchos algoritmos de IA son «cajas negras», es decir, que su funcionamiento interno y las decisiones que toman no siempre son transparentes o explicables. Esta falta de transparencia plantea problemas fundamentales de responsabilidad y rendición de cuentas e incluso puede hacer aparecer sesgos que resultan desconocidos para el usuario de ese modelo de IA.

Un ejemplo concreto de este problema lo encontramos en la sentencia del Tribunal Ordinario de Bolonia de 31 de diciembre de 2020, que declaró ilegal el algoritmo Frank incorporado en el sistema de reserva de Deliveroo porque provocaba discriminaciones entre los repartidores, explicando que el fallo judicial se basa también en la imposibilidad de determinar los criterios específicos de cálculo para las estadísticas que el algoritmo realiza.

Casos preocupantes en el ámbito judicial

La aplicación de IA en el ámbito jurisdiccional ha generado ya casos problemáticos que evidencian los riesgos de un uso inadecuado. La Cámara en lo Penal de Esquel en Argentina anuló una sentencia porque la juez de Primera Instancia usó IA para redactarla, conteniendo el fallo anulado una frase reveladora: «Aquí tienes el punto IV reeditado, sin citas y listo para copiar y pegar»³. Los problemas de la utilización del sistema COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) que supuestamente predice los reincidentes, tiene, de igual manera, un sesgo importante contra la población de raza negra.

Incluso en España han surgido advertencias judiciales. El TSJ de Navarra, en su auto 2/2024, de 4 de septiembre, archivó una pieza separada contra un abogado que citó por error un artículo del Código Penal colombiano en una querella, tras usar ChatGPT, advirtiendo la Sala sobre las consecuencias del uso descuidado de estas tecnologías. Conocido es, también, el caso de la apertura de un procedimiento sancionador a un abogado por parte del Tribunal Constitucional, en aplicación de los artículos 552 y siguientes de la Ley Orgánica del Poder Judicial (LOPJ) por inventarse sentencias del Tribunal para justificar la relevancia constitucional que permitiera la admisión a trámite de un recurso de amparo.

La ilusión de neutralidad tecnológica

El problema que plantean los sistemas de inteligencia artificial aplicados a la justicia deriva del conflicto entre mito y realidad de la neutralidad tecnológica. El hecho de que estén basados en sistemas algorítmicos no significa, en modo alguno, que no esté sometido a los intereses de aquellos que la han creado.

La Instrucción del CGPJ aborda el problema de una forma muy sutil. Es cierto que los sistemas de inteligencia artificial serán facilitados por el propio Consejo. Pero ¿qué análisis de sesgos va a realizar antes de proporcionarlo a los integrantes del poder judicial para su uso?

Incluso, si tomamos los elementos valorativos que están recogidos en la propia Constitución, ¿somos conscientes, por ejemplo, si las cláusulas de discriminación positiva que derivan del artículo 9.2 son introducidas en el análisis que hace la IA? Porque no consiste sólo en decidir sino en aprovechar todos los resquicios del ordenamiento para hacer una lectura conforme con el Estado social y democrático de derecho.

¿Cómo se desarrolla la supervisión humana?

Aunque la Instrucción del CGPJ establece el principio de control humano efectivo, surge la pregunta de si esta supervisión es realmente suficiente para detectar y corregir sesgos algorítmicos complejos. Los algoritmos utilizados en los tribunales deben ser sujetos a escrutinio público y auditorías independientes para garantizar que cumplan con los más altos estándares éticos y legales.

La Instrucción parte del principio de que “los jueces, juezas, magistrados y magistradas podrán recibir formación y capacitación sobre el uso de los sistemas de IA en el ámbito de la Administración de Justicia”. Utilizar la IA sin una formación suficiente supone un riesgo real para la protección de los derechos de las personas que participen en los procedimientos judiciales. Piénsese que no sólo afecta a las primeras sentencias de un proceso sino, en los eventuales recursos, cómo se produce el descubrimiento de una IA abusiva, que viole la Instrucción, por parte del Tribunal revisor.

Y, del mismo modo, el contenido de la regla decimotercera constituye una necesidad del poder judicial que, sin lugar a duda, está ya utilizando IA, al igual que el resto de la ciudadanía: “el Consejo General del Poder Judicial ofertará a los jueces, juezas, magistrados y magistradas actividades formativas y de capacitación sobre el uso de sistemas de IA en el ámbito de la Administración de Justicia”. Será relevante examinar cuál es el contenido, metodología y alcance de esta formación para que el uso de la IA resulte satisfactorio.

Consideraciones finales

 

La Instrucción del CGPJ constituye un elemento de partida importante para regular un aspecto concreto pero importante del funcionamiento judicial, como es la IA, que puede facilitar el trabajo pero que no está exento de riesgos, incluso tecnológicos, en sistema cuya generalización es realmente novedosa.

Ciertamente, con los riesgos que se han señalado en este artículo no se están queriendo poner puertas al campo. El uso de la Inteligencia Artificial sirve para mejorar la justicia si está bien utilizado y una fuente de problemas en un Estado social y democrático si se utiliza mal.

Esta adaptación tecnológica de la justicia se ha de desarrollar de forma general para adaptar su funcionamiento a las consecuencias de la revolución tecnológica. Unos cambios que afectan también a las normas procesales, al número de jueces, a la formación para acceder a la judicatura y a su ejercicio y a cómo enjuician los problemas vinculados a la digitalización. Y, en esto, la formación y el conocimiento de los límites de la Ia IA constituyen elementos esenciales para un uso razonable.

Autor