Читать книгу Nuevas normatividades: Inteligencia Artificial, Derecho y Género - Rafael Fernández Acevedo - Страница 9

1. LA SENTENCIA DEL SISTEMA SYSTEEM RISICOINDICATIE (SYRI) EN EL TRIBUNAL DE DISTRITO DE LA HAYA

Оглавление

Llegados a este punto resulta interesante dedicar unos párrafos a la sentencia del 5 de febrero de 2020 del Tribunal de Distrito de la Haya (C/09/550982/HA ZA 18-388), ya que actualmente es prácticamente la única que ha tratado la cuestión del uso de algoritmos para decisiones, aunque desde la óptica de los derechos humanos. En ella se declara contrario al artículo 8 del Convenio Europeo de Derechos Humanos (CEDH) (también bajo la lupa del RGPD) el sistema SyRI de los Países Bajos, cuyo objeto era la detección de fraudes de asistencia social. Este sistema se servía de una infraestructura técnica y procedimientos asociados mediante los que se relacionaban y analizaban datos anonimizados para producir informes de riesgo. Se servía de un algoritmo de procesado de datos en masa, siendo el resultado del proceso dichos informes de riesgo sobre las probabilidades de defraudar a la seguridad social. Concretamente en el año 2014 entró en vigor la normativa aplicable a SyRI, los artículos 64 y 65 de la Ley SUWI y el capítulo 5.a del Decreto SUWI23.

Respecto al funcionamiento del algoritmo, tras el establecimiento por parte del Ministerio de Seguridad Social y Empleo de una serie de temas prioritarios, las instituciones públicas pueden llevar a cabo proyectos de intervención usando este sistema. SyRI se pone en funcionamiento a través de un acuerdo de cooperación entre diversas autoridades públicas, con el objetivo de lograr una colaboración pública integral entre las diversas autoridades públicas. Además, para emplear este sistema se debe enviar una solicitud al Ministerio y constituir ese acuerdo especificando objetivos, aspectos organizativos y fechas del proyecto. Si el proyecto es aprobado definitivamente las instituciones participantes deben proporcionar los paquetes de datos a la Oficina de Información, que seudonimiza los datos y los compara con otros paquetes de datos para obtener perfiles que serán evaluados conforme al modelo de riesgo creando un perfil. Solamente serán estos los que la Oficina va a desanonimizar y enviar al Ministerio, para posteriormente destruir dichos datos. Por parte del Ministerio, los informes de riesgo serán conservados durante el tiempo necesario para el propósito con el que fueron elaborados.

Si bien, la Corte de Distrito de La Haya encontró esta normativa insuficiente y declaró que la normativa SyRI era incompatible con el artículo 8.2 CEDH en la medida en que la injerencia que supone este sistema en el derecho a la privacidad por parte del Gobierno neerlandés no cumple con las garantías exigidas por los juicios de necesidad y proporcionalidad. Y es que la Corte llega a la conclusión de que no puede evaluar con exactitud qué es este sistema ya que el Gobierno no ha publicado información sobre el modelo de riesgo en el que se basa SyRI. Además, la normativa establece un margen para el desarrollo de técnicas como el deep learning, data mining o la elaboración de perfiles. Entendiendo que conforme al tipo de tratamiento que se lleva a cabo con esta herramienta se elaboran perfiles de riesgo basados en datos históricos, personales o de otro tipo. Sin embargo, la normativa no prevé ninguna obligación de informar a aquellas personas cuyos datos son procesados con este propósito o de que le ha sido aplicado un informe de riesgo. Solamente se establece la obligación de publicar oficialmente que una de las autoridades públicas involucradas va a iniciar un proyecto de investigación, y en su caso, dar acceso a los perfiles de riesgo a aquellas personas que lo soliciten de manera expresa.

Con esta base la Corte argumentó que esta interferencia respondía a un interés legítimo del Estado, concretamente, el de prevenir y combatir el fraude en interés del bienestar económico. Si bien, no era proporcional por la falta de transparencia sobre el modelo algorítmico y los indicadores de riesgo, así como la ausencia de salvaguardas para paliar la opacidad, concluyendo por lo tanto que esta interferencia en el derecho al respeto por la vida privada no era proporcional en los términos requeridos por el Convenio. Dicha opacidad la vincula a la incapacidad de determinar unos datos mínimos y a la limitación de estos.

La clave para la Corte se fija en la falta de transparencia en aras de la verificabilidad, totalmente imprescindible frente a las posibles exclusiones o discriminaciones. Al mismo tiempo, también se subraya la falta de transparencia e información de los tratamientos a través de dicho algoritmo a los interesados.

Nuevas normatividades: Inteligencia Artificial, Derecho y Género

Подняться наверх