Inteligencia artificial y servicio público de la justicia. Cuestiones de responsabilidad

- Editorial: Editorial Reus
- ISBN: 978-84-290-2967-3
- DOI: https://doi.org/10.30462/9788429029673/
- Depósito legal: M-19371-2025
- Páginas: 134
- Dimensiones: 13,50cm x 21,00cm
- Plaza de edición:
Madrid
,
España
- Encuadernación: Rústica
- Idiomas:
español (castellano)
- Fecha de la edición: 2025
- Edición: 1
- Peso: 175gr.
- Materias:
Nuevas tecnologías
- Colección:
- Palabras clave: administración de justicia, inteligencia artificial, jurimetría
Inteligencia artificial y servicio público de la justicia. Cuestiones de responsabilidad
La aplicación de sistemas o modelos de inteligencia artificial (IA) en diferentes ámbitos del servicio público de la justicia es una realidad, desde aplicarse a tareas de carácter más administrativo o de trámite, implementación de chatbots o apps hasta actuaciones más complejas como analizar hechos, pruebas, interpretar jurídicamente esos hechos, proponer una resolución judicial, decidir un caso, pasando por la denominada justicia predictiva. No hay que olvidarse de la jurimetría tan relevante en la práctica, especialmente, para los abogados. De hecho, la implementación de la IA en el servicio público de la justicia forma parte de una actuación más amplia, cual es la digitalización del sector público.
En este trabajo se reflexiona sobre el régimen de responsabilidad por los daños que se derivan de la aplicación de sistemas de IA en el servicio público de la justicia. En concreto, me centro en los sistemas de IA de alto riesgo, los sistemas que no son de alto riesgo, pero que se aplican en contextos de alto riesgo y los que el Reglamento de IA (RIA) denomina “determinados” sistemas de IA.
La aplicación de sistemas o modelos de inteligencia artificial (IA) en diferentes ámbitos del servicio público de la justicia es una realidad, desde aplicarse a tareas de carácter más administrativo o de trámite, implementación de chatbots o apps hasta actuaciones más complejas como analizar hechos, pruebas, interpretar jurídicamente esos hechos, proponer una resolución judicial, decidir un caso, pasando por la denominada justicia predictiva. No hay que olvidarse de la jurimetría tan relevante en la práctica, especialmente, para los abogados. De hecho, la implementación de la IA en el servicio público de la justicia forma parte de una actuación más amplia, cual es la digitalización del sector público.
En este trabajo se reflexiona sobre el régimen de responsabilidad por los daños que se derivan de la aplicación de sistemas de IA en el servicio público de la justicia. En concreto, me centro en los sistemas de IA de alto riesgo, los sistemas que no son de alto riesgo, pero que se aplican en contextos de alto riesgo y los que el Reglamento de IA (RIA) denomina “determinados” sistemas de IA.
Papel
Disponible
La aplicación de sistemas en diferentes ámbitos del servicio público de la justicia es una realidad. En este trabajo reflexiono sobre el régimen de responsabilidad por los daños que se derivan de la aplicación de sistemas de IA en el servicio público de la justicia. En concreto, me centro en los sistemas de IA de alto riesgo, los sistemas que no son de alto riesgo, pero que se aplican en contextos de alto riesgo y los que el Reglamento de IA denomina “determinados” sistemas de IA. La pregunta que surge es si los posibles daños ocasionados pueden ser concebidos como daños provocados por error judicial o por un funcionamiento anormal del servicio público de la justicia.
Asimismo, debe plantearse la cuestión de si las normas de responsabilidad patrimonial del sector público protegen suficientemente al justiciable que ha sufrido daños o bien debería establecerse una norma o un conjunto de normas específico para el caso de que en la producción de esos daños hubiera intervenido, en alguna fase, un sistema de IA, independientemente del orden jurisdiccional en el que se aplique el sistema. Dicho con otras palabras, si la Propuesta de Directiva de responsabilidad civil extracontractual por los daños ocasionados por sistemas de IA de 28 de septiembre de 2022, basada en la culpa, protegería de forma más eficiente a la víctima que la aplicación de las normas de responsabilidad “aparentemente” objetiva del sector público.
A ello debe añadirse la necesidad de replantearse si no sería más acertado recuperar la Propuesta de reglamento sobre responsabilidad civil del Parlamento europeo de 20 de octubre de 2020, que presenta un doble régimen de responsabilidad según estemos ante sistemas de alto riesgo o de bajo riesgo. Responsabilidad objetiva respecto de los primeros, responsabilidad subjetiva en relación con los segundos. Es decir, si no sería pertinente que el régimen de responsabilidad civil para el caso de daños ocasionados por sistemas de alto riesgo fuera un “auténtico” régimen de responsabilidad objetiva incorporando en él algunos expedientes que pudieran aliviar la posición de asimetría de la víctima respecto del proveedor o responsable del despliegue.
La exclusión de la aplicación de la regla de la exoneración de la administración (de justicia) por los denominados riesgos del desarrollo también tiene su espacio en este ensayo.