Читать книгу El impacto de las tecnologías disruptivas en el derecho procesal - Federico Bueno de Mata - Страница 13
5. BIBLIOGRAFÍA CONSULTADA
ОглавлениеARMENTA DEU, T., Derivas de la justicia: tutela de los derechos y solución de controversias en tiempos de cambio, Madrid, 2021.
BARONA VILAR, S., Algoritmización del derecho y de la justicia. De la Inteligencia Artificial a la Smart Justice, Valencia, 2021.
COLOMER HERNÁNDEZ, I., “Control y límites en el uso de la información y los datos personales por parte de la Inteligencia Artificial en los procesos penales”, Justicia algorítmica y neuroderecho: una mirada multidisciplinar, Valencia, 2021, pp. 287-336.
COTINO HUESO, L., “Big data e Inteligencia Artificial. Una aproximación a su tratamiento jurídico desde los Derechos Fundamentales”, Dilema, n. 24, 2017.
DE HOYOS SANCHO, M., “El Libro Blanco sobre inteligencia artificial de la comisión europea: reflexiones desde las garantías esenciales del proceso penal como ‘sector de riesgo’”, Revista Española de Derecho Europeo, Núm. 76, octubre-diciembre 2020, pp. 9-44.
DE LA OLIVA SANTOS, A., “Justicia predictiva. Interpretación matemática de las normas, sentencias robóticas y la vieja historia del Justizklavier”, en El cronista del Estado Social y Democrático de Derecho, n. 80, 2019.
ESTEBAN CASTILLO, E., “La fe pública judicial ante las nuevas tecnologías”, Revista jurídica de la Comunidad de Madrid, núm. 6, enero– febrero 2000, versión electrónica disponible en http://www.madrid.org/cs/.
GASCÓN INCHAUSTI, F., “Desafíos para el proceso penal en la era digital: externalización, sumisión pericial e inteligencia artificial”, La justicia digital en España y la Unión Europea: situación actual y perspectivas de futuro, Barcelona, Atelier, 2019, pp. 191-206.
MARTÍN DIZ, F.: “Inteligencia artificial y proceso: garantías frente a eficiencia en el entorno de los derechos procesales fundamentales”, Justicia: ¿garantías versus eficiencia?, Valencia, 2019, pp. 815-822.
NIEVA FENOLL, J. Inteligencia artificial y proceso, Madrid, 2018.
1. Artículo enmarcado como resultado de investigación en el Proyecto de Investigación I+D+i “El impacto de las tecnologías disruptivas en el derecho procesal” (PIC-2020-03.USAL). Programa de financiación propio USAL de grupos de investigación. IP. Federico Bueno de Mata.
2. Mundialmente conocido es el caso de COMPAS, (Correctional Offender Management Profiling for Alternative Sanctions) determina la probabilidad de una persona para reincidir en la comisión de un delito. Este programa de IA utiliza el género de las personas o su edad y encuestas que preguntan por su entorno o la pobreza de los barrios donde viven a la hora de estimar el riesgo. En un extenso análisis realizado en un condado de Florida, se concluyó que las personas de raza negra tenían el doble de posibilidades que las personas blancas de ser clasificadas por error como “alto riesgo”.
3. Que se entiende cuando no se puede establecer cuál es el camino que ha seguido el algoritmo para arrojar a un resultado (conclusión o decisión por ejemplo) o “caja blanca” que, por el contrario, se refiere a cuando sí se puede establecer cuál ha sido el método utilizado.
4. Vid. Misma reglamentación para todos los proveedores de red (frente a la reglamentación asimétrica que diferencia entre proveedores, normalmente para ofrecer igualdad de condiciones entre proveedores de menor y mayor importancia).
5. Vid. https://ec.europa.eu/info/strategy/priorities-2019-2024/europe-fit-digital-age/shaping-europe-digital-future_es (Fecha de consulta: 18 de mayo de 2021).
6. Vid. Nota de prensa de la Comisión titulada “Nuevas normas sobre la inteligencia artificial: preguntas y respuestas”, disponible en: https://ec.europa.eu/commission/presscorner/detail/es/qanda_21_1683 “La Comisión propone un planteamiento basado en el riesgo, con cuatro niveles de riesgo: Riesgo inadmisible: Se prohibirá un conjunto muy limitado de usos especialmente nocivos de la IA que contravienen los valores de la Unión al violar los derechos fundamentales (por ejemplo, puntuación social por parte de los Gobiernos, explotación de los puntos débiles de los niños, uso de técnicas subliminales y, salvo contadas excepciones, determinados sistemas de identificación biométrica remota en directo en espacios públicos con fines policiales). Alto riesgo: Se considera de alto riesgo un número limitado de sistemas de IA definidos en la propuesta y que tienen un impacto negativo en la seguridad de las personas o en sus derechos fundamentales (protegidos por la Carta de los Derechos Fundamentales de la UE). Se adjunta a la propuesta la lista de sistemas de IA de alto riesgo, que puede revisarse para adaptarla a la evolución de los casos de uso de la IA (a prueba de futuro). Entre ellos figuran los componentes de seguridad de los productos contemplados en la legislación sectorial de la Unión. Siempre serán de alto riesgo cuando estén sujetos a una evaluación de la conformidad por terceros con arreglo a dicha legislación sectorial. A fin de garantizar la confianza y un nivel elevado y coherente de protección de la seguridad y los derechos fundamentales, se proponen requisitos obligatorios para todos los sistemas de IA de alto riesgo. Esos requisitos se refieren a la calidad de los conjuntos de datos utilizados; la documentación técnica y la llevanza de registro; la transparencia y la divulgación de información a los usuarios; la supervisión humana, y la solidez, la precisión y la ciberseguridad. En caso de infracción, los requisitos permitirán a las autoridades nacionales acceder a la información necesaria para investigar si el uso de la IA cumplió la legislación. La normativa propuesta es coherente con la Carta de los Derechos Fundamentales de la Unión Europea y está en consonancia con los compromisos internacionales de la Unión en materia de comercio. Riesgo limitado: En el caso de determinados sistemas de IA se imponen obligaciones específicas de transparencia, por ejemplo, cuando exista un riesgo claro de manipulación (por ejemplo, mediante el uso de robots conversacionales). Los usuarios deben ser conscientes de que están interactuando con una máquina. Riesgo mínimo: Todos los demás sistemas de IA pueden desarrollarse y utilizarse con arreglo a la legislación vigente sin obligaciones jurídicas adicionales. La inmensa mayoría de los sistemas de IA utilizados actualmente en la UE pertenece a esta categoría. De forma voluntaria, los proveedores de estos sistemas pueden optar por aplicar los requisitos de una IA digna de confianza y adherirse a códigos de conducta voluntarios”.
7. Vid. DE LA OLIVA SANTOS, A., “Justicia predictiva. Interpretación matemática de las normas, sentencias robóticas y la vieja historia del Justizklavier”, en El cronista del Estado Social y Democrático de Derecho, n. 80, 2019.
8. La Comisión Federal de Comercio de Estados Unidos (FTC), que por primera vez ha declarado su intención de perseguir a aquellas empresas que utilicen o vendan algoritmos sesgados.
9. Esta cuestión ya viene apuntada por el Libro Blanco de la Inteligencia Artificial, con relación a la recopilación y el uso datos biométricos para la identificación remota; al indicar que su uso entraña riesgos específicos para los derechos fundamentales si dichas tecnologías se utilizan en espacios abiertos sin haber informado previamente a sus potenciales usuarios.
10 La Estrategia Justicia 2030, que, según la propia nota de prensa de la Moncloa “pretende dar respuesta a los desafíos surgidos como consecuencia de la pandemia de la Covid-19”.
El Ministerio crea una web para difundir este Plan Justicia 2030, en el que se plantea como un esquema de acciones “orientado a asegurar que la transformación digital se concreta en una mejora organizativa y de procesos. La eficiencia resultante ha de poder medirse en reducción de tiempos y satisfacción de la ciudadanía, pero también en una eficiente asignación de recursos invertidos, impacto ambiental y capacidad de gestión de datos. Es el objetivo orientado a la mejora interna del Servicio Público de Justicia”.
Tal y como indica el documento en el que se exponen sus bases, hablamos de un plan de trabajo común a 10 años, desarrollado en cogobernanza, que impulsa el Estado de Derecho y el acceso a la Justicia como palancas de la transformación de país. Sólo incide en aquellos puntos que tienen mayor impacto en el sistema o que han quedado desfasados y ya son poco operativos. No se trata de introducir cambios en cada uno de los componentes del Servicio Público de Justicia, sino de generar transformaciones en puntos que tienen efecto sistémico en el ecosistema Justicia.
11. Vid. https://diarioperspectiva.com/el-ministerio-de-justicia-empieza-a-usar-el-big-data-para-saber-que-pasa-en-tiempo-real/ Por tanto, este fenómeno llega con fuerza amparándose en sus resultados positivos, pues según la Secretaria de Estado “contar con un sistema de justicia avanzado puede mejorar el PIB de un país hasta un 15%, lo que pone de manifiesto la importancia de afrontar la transformación digital también desde la Administración de Justicia”. De hecho, el sistema de justicia español tiene como retos “conseguir una ordenación jurídica que se adapte a las necesidades actuales de la sociedad, que sea para las personas, creada con los profesionales, más dotada y mejor organizada, y con mejores tiempos de respuesta” y todos encuentran en la transformación digital una respuesta para afrontarlos.
12. Vid. COTINO HUESO, L., “Big data e Inteligencia Artificial. Una aproximación a su tratamiento jurídico desde los Derechos Fundamentales”, Dilema, n. 24, 2017.
13. RUIZ PÉREZ, I., “La revolución del Big Data llega a la justicia”, Diario Cinco Días, https://cincodias.elpais.com/cincodias/2018/03/26/companias/1522073495_258609.html (Fecha de consulta: 5 de diciembre de 2020).
14. Acerca de la perspectiva garantista respecto a la inteligencia artificial y el respeto a los derechos fundamentales, Vid. MARTÍN DIZ, F.: “Inteligencia artificial y proceso: garantías frente a eficiencia en el entorno de los derechos procesales fundamentales”, Justicia: ¿garantías versus eficiencia?, Valencia, 2019, pp. 815-822.
15. Vid. “BOE” núm. 276, de 17 de noviembre de 2007, https://www.boe.es/buscar/doc.php?id=BOE-A-2007-19814 (Fecha de consulta: 17 de junio de 2021).
16. Vid. Ley 37/2007, de 16 de noviembre, sobre reutilización de la información del sector público. Disponible en: https://www.boe.es/buscar/act.php?id=BOE-A-2007-19814 (Fecha de consulta: 21 de noviembre de 2020).
17. Vid. STS 476/2018 de 20 julio de 2018.
18. Vid. ESTEBAN CASTILLO, E., “La fe pública judicial ante las nuevas tecnologías”, Revista jurídica de la Comunidad de Madrid, núm. 6, enero-febrero 2000, versión electrónica disponible en http://www.madrid.org/cs/.
19. https://www.mjusticia.gob.es/es/AreaTematica/ActividadLegislativa/Documents/Consulta%20p%C3%BAblica%20-%20APL%20EFICIENCIA%20DIGITAL.pdf (Fecha de consulta: 21 de agosto de 2021).
20. De conformidad con lo previsto en el art. 133 de la Ley 39/2015, de 1 de octubre, del Procedimiento Administrativo Común de las Administraciones Públicas, en relación con el art. 26 de la Ley 50/1997, de 27 de noviembre, del Gobierno, con el objetivo de mejorar la participación de los ciudadanos en el procedimiento de elaboración de normas se sustancia una consulta pública sobre propuesta de Anteproyecto de Ley de Eficiencia Digital del Servicio Público de Justicia. De acuerdo con lo dispuesto en el Acuerdo del Consejo de Ministros de 30 de septiembre de 2016.
21. Se ofrece únicamente un plazo de quince días naturales, hasta el día 31 de mayo de 2021, a través del siguiente buzón de correo electrónico: consulta.apleficienciadig@mjusticia.es.