Читать книгу Inteligencia artificial y defensa. Nuevos horizontes - José Luis Domínguez Alvarez - Страница 59

VI. BIBLIOGRAFÍA

Оглавление

BUOLAMWINI, J., GEBRU, T.; Proceedings of the 1st Conference on Fairness, Accountability and Transparency, PMLR (Proceedings of Machine Learning Research), 81:77-91, 2018.

COMISIÓN EUROPEA, Libro Blanco sobre la Inteligencia Artificial. Una aproximación europea basada en la excelencia y confianza, 19 de febrero de 2020, COM (2020) 65 final.

COMMITTEE ON OVERSIGHT AND REFORM (Congress of the United States. House of Representatives), Memorandum Hearing on “Facial Recognition Technology (Part 1): Its Impact on Our Civil Rights and Liberties” (20 de mayo de 2019). Recuperado de: https://oversight.house.gov/legislation/hearings/facial-recognition-technology-part-1-its-impact-on-our-civil-rights-and

DÍAZ GONZÁLEZ, G. M.: “Algoritmos y actuación policial: la policía predictiva”. En HUERGO LORA (Dir.): La regulación de los algoritmos, Thomson Reuters Aranzadi. Pamplona, 2020.

FRA-EUROPEAN UNION AGENCY FOR FUNDAMENTAL RIGHTS: Facial recognition technology: fundamental rights considerations in the context of law enforcement, Publications Office of the European Union. Luxemburgo, 2020.

IZQUIERDO CARRASCO, M.: “La utilización policial de los sistemas de reconocimiento facial automático. Comentario a la sentencia del Alto Tribunal de Justicia de Inglaterra y Gales de 4 de septiembre de 2019”. Revista Ius et Veritas, núm. 60, mayo (2020).

MORENO DÍAZ, A. B.: Reconocimiento facial automático mediante técnicas de visión tridimensional, tesis doctoral, Universidad Politécnica de Madrid, 2004.

REBOLLO PUIG, M.: “La trama de la Ley de Seguridad Ciudadana”. En IZQUIERDO CARRASCO, M. y ALARCÓN SOTOMAYOR, L. (Dir.): Estudios sobre la Ley Orgánica de Seguridad Ciudadana. Thomson Reuters Aranzadi. Cizur Menor, 2019.

1. Proyecto de investigación PGC-2018-093760-B-I00 (M.° Ciencia, Innovación y Universidades, Fondos FEDER). Grupo de Investigación de la Junta de Andalucía SEJ-196.

2. Una aproximación general a la biometría informática, en MORENO DÍAZ, A. B: Reconocimiento facial automático mediante técnicas de visión tridimensional, tesis doctoral, Universidad Politécnica de Madrid, 2004, pp. 3-ss.

3. Los datos biométricos faciales pueden estar basados en rasgos locales de la cara (ojos, boca, nariz, etc.), a partir de los que se calculan los valores de estos rasgos consistentes en distancias, áreas, ángulos, etc., tales como la distancia entre las pupilas, la posición de la nariz o la distancia entre la comisura de los labios; o basarse en la apariencia global o información completa de la imagen, tanto de la cara como del fondo (técnicas holísticas). Sobre todos estos métodos, vid. MORENO DÍAZ, ibídem, pp. 17-34.

4. En la misma línea, el Tribunal Supremo ha sostenido que “Dos leyes fisiológicas, corroboradas por la opinión científica y por una amplia casuística, dan valor a la dactiloscopia como medio identificador: la singularidad de las huellas dactilares y su invariabilidad en el transcurso de la vida humana…” (entre otras, la Sentencia de 8 de febrero de 1.988, F J Único).

5. https://bit.ly/3t6sVVM.

6. Se trata de imágenes de personas no identificadas o sobre las que se quiere verificar la identidad, a partir de las que un programa informático extrae los datos biométricos faciales. En el ámbito que nos ocupa, las fuentes de estas imágenes pueden ser varias: fotografías, grabaciones de vídeo realizadas por aparatos móviles, imágenes de un circuito cerrado de televisión (CCTV) –bien en grabaciones realizadas por las Fuerzas y Cuerpos de seguridad o por sistemas de vigilancia privados–. En cuanto al momento, puede que el tratamiento se realice de manera simultánea a la captación de las imágenes (en tiempo real) o en un momento posterior.

7. Por ej., las que provienen de las fotografías que se realizan a las personas detenidas en dependencias policiales. A este respecto, vid. la Orden INT/1202/2011, de 4 de mayo, por la que se regulan los ficheros de datos de carácter personal del Ministerio del Interior, y donde se puede consultar el contenido de dichos ficheros y si el mismo incluye imágenes faciales. Por ej., el fichero BINCIPOL, que recoge información relativa a personas, cadáveres y restos humanos susceptibles de identificación en el ámbito de competencias de la policía científica, contiene, entre otros, “datos de reseña fotográfica” o “ficheros electrónicos de fotografía facial”.

En España, de conformidad con el vigente marco normativo –fundamentalmente, la legislación de protección de datos de carácter personal–, las fotografías empleadas para la expedición del Documento Nacional de Identidad no podrían ser objeto de una utilización sistemática, completa y rutinaria con esta finalidad por parte de las Fuerzas y Cuerpos de Seguridad.

Por otro lado, especialmente llamativo resulta el siguiente dato puesto de manifiesto en un memorándum del Comité de Supervisión y Reforma (COMMITTEE ON OVERSIGHT AND REFORM) del Congreso de los Estados Unidos, de 20 de mayo de 2019, bajo el título “Tecnología de Reconocimiento Facial (parte 1): su impacto en nuestros derechos civiles y libertades”: “On March 22, 2017, the Committee held a hearing to review federal law enforcement’s uses and policies on facial recognition technology. The Committee found that 18 states have memoranda of understanding with the FBI to share their databases and that, as a result, more than half of American adults are part of facial recognition databases”. (“El 22 de marzo de 2017, el Comité celebró una audiencia para revisar los usos y políticas de las fuerzas del orden federales sobre la tecnología del reconocimiento facial. El Comité encontró que 18 Estados tienen memorandos de entendimiento con el FBI para compartir sus bases de datos y que, como resultado, más de la mitad de los adultos estadounidenses están incluidos en bases de datos de reconocimiento facial”.) (la cursiva es nuestra) (traducción propia). Debe tenerse en cuenta que el Comité de Supervisión y Reforma es el principal comité de investigación de la Cámara de Representantes de los Estados Unidos.

8. Por ej., el reconocimiento facial automático que se adiciona a los sistemas de videovigilancia en tiempo real con una lista de personas de interés de las que se dispone sus datos biométricos faciales.

9. La capacidad máxima para una lista de observación en tiempo real está necesariamente vinculada con la capacidad de procesamiento informático del sistema que se emplee. Teniendo en cuenta que los sistemas comerciales actuales son capaces de escanear alrededor de 50 caras por segundo –téngase en cuenta que eso no significa necesariamente 50 personas distintas–, el listado máximo podría estar alrededor de las 2.000 imágenes.

10. Por ej., el sistema que se emplea en los puestos automáticos instalados en la línea de control fronterizo de algunos aeropuertos, donde se compara la plantilla biométrica facial extraída de la fotografía que en ese momento se toma del pasajero con la derivada de la imagen digital almacenada en el pasaporte electrónico.

11. FRA-European Union Agency for Fundamental Rights, Facial recognition technology: fundamental rights considerations in the context of law enforcement, 2020, p. 4. El documento realiza un análisis de los derechos fundamentales más afectados.

12. En tiempo real, aunque con carácter permanente, sí constan los sistemas establecidos en los puestos fronterizos. Al respecto, vid. la siguiente noticia: https://www.elespanol.com/omicrono/tecnologia/20200627/reconocimiento-facial-detecta-terroristas-frontera/500700940_0.html, donde, por cierto, también se informa de que el sistema ha sido establecido en las calles de Ceuta. Igualmente, también consta la instalación de esos sistemas en estaciones públicas de transporte (por ej., Estación Sur de autobuses de Madrid o Aeropuerto de Barajas), aunque no de la mano de las Fuerzas y Cuerpos de Seguridad, sino de los responsables de seguridad de tales instalaciones, lo que no deja de plantear interrogantes dada la finalidad que esta medida persigue –en algunos casos se afirma llanamente que es para identificar delincuentes–. Al respecto, vid. https://elpais.com/ccaa/2019/11/26/madrid/1574801864_377093.html (“Las cámaras que leen la cara se extienden por Madrid”).

13. Desde mediados de 2017, con la financiación del Departamento del Interior del gobierno del Reino Unido, la Policía de Gales del Sur llevó a cabo un proyecto piloto, conocido como “AFR Locate”, consistente en el despliegue en una serie de concretos eventos (la final de la Champions League, partidos internacionales de rubby, conciertos, un día de Navidad en una concurrida calle comercial de Cardiff, etc.) de cámaras de vigilancia para capturar imágenes digitales del público asistente, que en tiempo real se procesaban y comparaban con imágenes digitales de personas en listas de vigilancia compiladas por dicho cuerpo policial. De manera indirecta, este proyecto piloto fue enjuiciado en la Sentencia del Alto Tribunal de Justicia de Inglaterra y Gales, Sala de lo Civil, Sección de apelación, de 4 de septiembre de 2019. Un análisis de dicha sentencia, en IZQUIERDO CARRASCO, M: “La utilización policial de los sistemas de reconocimiento facial automático. Comentario a la sentencia del Alto Tribunal de Justicia de Inglaterra y Gales de 4 de septiembre de 2019”. Revista Ius et Veritas, núm. 60, mayo (2020), pp. 86-103.

14. Vid., la STEDH, asunto P.G. y J.H. v. United Kingdom (recurso n.° 44787/98), de 25 de septiembre de 2001: “A person who walks down the street will, inevitably, be visible to any member of the public who is also present. Monitoring by technological means of the same public scene (for example, a security guard viewing through closed-circuit television) is of a similar character. Private-life considerations may arise, however, once any systematic or permanent record comes into existence of such material from the public domain” (ap. 57) (la cursiva es nuestra).

15. Una persona debe razonablemente prever que su comportamiento en ciertos tipos de espectáculos públicos o actividades similares va a ser objeto de vigilancia policial, que se realizará bien mediante la presencia directa de agentes o bien mediante un sistema de videovigilancia sin grabación. Además, hay una conexión directa y casi unívoca entre la técnica utilizada y su finalidad. El objeto es vigilar los comportamientos humanos en un determinado lugar y para ello se utiliza una técnica que muestra imágenes de ese comportamiento. No hay más. Por el contrario, cuando se añade el reconocimiento facial automático, se produce un notable salto cualitativo. No es razonablemente previsible que una persona considere que su asistencia a un partido de fútbol va a ser utilizada por la policía con la finalidad de verificar si sobre ella recae, por ej., una orden de búsqueda y captura por un delito de estafa.

16. En la videovigilancia policial sin grabación, los datos personales que se obtienen son los mismos que se obtendrían con la presencia de agentes de policía en el sitio. No obstante, en este supuesto, no es así. Los datos biométricos que se consiguen sería imposible que un agente policial los adquiriera con su mera presencia. A lo sumo, el agente podría llevar unas fotografías de sospechosos e intentar buscar esas caras entre el público asistente. Nada parecido a la obtención de unos datos biométricos.

17. En la videovigilancia sin grabación si el sistema capta un comportamiento constitutivo de, por ej., un delito, el sujeto podrá ser detenido por ese motivo. Por el contrario, en el sistema de reconocimiento facial automático –en particular, en las condiciones expuestas–, lo que ofrece es una valoración de la posible coincidencia facial, que podrá originar que el sujeto sea llevado a dependencias policiales para verificar efectivamente su identidad (por ej., mediante las huellas dactilares) y puede que esa verificación sea positiva o no. En definitiva, el uso de los datos puede originar unos perjuicios en los ciudadanos que la simple videovigilancia sin grabación no genera, incluso un cierto efecto estigmatizador. Bien es cierto que la decisión última de actuación le corresponde al agente policial, sobre la base de su apreciación, pero tampoco se puede negar que la valoración ofrecida por el sistema de reconocimiento facial automático tendrá un notable peso en esa apreciación. Sobre el valor de esta decisión última de actuación en manos del agente policial en la denominada “policía predictiva” –aunque con mucha menos intensidad que otras manifestaciones, el reconocimiento facial automático supone la utilización de algoritmos en la actuación policial y hasta cierto punto presenta algunas conexiones con esa idea de la policía predictiva–, vid. DÍAZ GONZÁLEZ, G. M.: “Algoritmos y actuación policial: la policía predictiva”. En HUERGO LORA (Dir.): La regulación de los algoritmos, Thomson Reuters Aranzadi. Pamplona, 2020, pp. 181-ss.

18. O incluso, aunque de manera algo más forzada y sólo en algunos supuestos, el art. 5.2.c) LOFCS que impone un deber de actuación de los miembros de las Fuerzas y Cuerpos de Seguridad para “evitar un daño grave, inmediato e irreparable”.

19. Un análisis crítico de este precepto, en REBOLLO PUIG, M.: “La trama de la Ley de Seguridad Ciudadana”. En IZQUIERDO CARRASCO, M. y ALARCÓN SOTOMAYOR, L. (Dir.): Estudios sobre la Ley Orgánica de Seguridad Ciudadana. Thomson Reuters Aranzadi. Cizur Menor. Pamplona, 2019, pp. 116-118. Igualmente crítico, BARCELONA LLOP, J.: “Actuaciones para el mantenimiento y restablecimiento de la seguridad ciudadana: los principios de legalidad y de proporcionalidad” en IZQUIERDO CARRASCO, M. y ALARCÓN SOTOMAYOR, L. (Dir.): Estudios sobre la Ley Orgánica de Seguridad Ciudadana. Thomson Reuters Aranzadi. Cizur Menor. Pamplona, 2019, pp. 647-649.

20. “La recogida y tratamiento para fines policiales de datos de carácter personal por las Fuerzas y Cuerpos de Seguridad sin consentimiento de las personas afectadas están limitados a aquellos supuestos y categorías de datos que resulten necesarios para la prevención de un peligro real para la seguridad pública o para la represión de infracciones penales, debiendo ser almacenados en ficheros específicos establecidos al efecto, que deberán clasificarse por categorías en función de su grado de fiabilidad”.

21. Completamente diferente sería el análisis y la conclusión frente a despliegues amplios, sistemáticos y permanentes en las vías públicas de estos sistemas como los existentes en otros Estados a los que difícilmente se les puede unir la calificación de “democráticos”, pero recuérdese que el objeto de este trabajo son despliegues ocasionales. En cualquier caso, la lucha contra el COVID-19 ha puesto de manera palmaria sobre la mesa el debate entre seguridad y libertad, sus potenciales ventajas –en ocasiones, se citan como modelo de éxito Estados que han hecho uso de técnicas especialmente incisivas sobre la libertad del ciudadano, incluido el reconocimiento facial automático– y sus evidentes riesgos.

22. El Reglamento (UE) 2016/679 (Reglamento General de Protección de Datos) excluye expresamente este supuesto de su ámbito de aplicación: tratamiento de datos personales “por parte de las autoridades competentes con fines de prevención, investigación, detección o enjuiciamiento de infracciones penales, o de ejecución de sanciones penales, incluida la de protección frente a amenazas a la seguridad pública y su prevención” [art. 2.2.d)].

23. Téngase en cuenta la definición de “tratamiento” que contiene la mencionada Directiva: “cualquier operación o conjunto de operaciones realizadas sobre datos personales o conjuntos de datos personales, ya sea por procedimientos automatizados o no, como la recogida, registro, organización, estructuración, conservación, adaptación o modificación, extracción, consulta, utilización, comunicación por transmisión, difusión o cualquier otra forma de habilitación de acceso, cotejo o interconexión, limitación, supresión o destrucción”.

24. No podemos ahora detenernos en el debate de si todo tratamiento de datos biométricos es un tratamiento de categorías especiales de datos, ya que este precepto se refiere a los “datos biométricos dirigidos a identificar de manera univoca a una persona física”, por lo que una interpretación conjunta de este precepto con la definición contenida en el art. 3.13 podría dar a entender que los datos biométricos solo constituirían una categoría especial de datos en el caso de que se sometan a un tratamiento técnico específico dirigido a identificar de manera unívoca a una persona física y no en todo caso.

25. BUOLAMWINI, J., GEBRU, T.: Proceedings of the 1st Conference on Fairness, Accountability and Transparency, PMLR 81:77-91, 2018 [citado por COMISIÓN EUROPEA, Libro Blanco sobre la Inteligencia Artificial. Una aproximación europea basada en la excelencia y confianza, 19 de febrero de 2020, COM (2020) 65 final, p. 13].

26. “También encontró que la tecnología de reconocimiento facial identifica erróneamente a las mujeres y las minorías y a una tasa mucho más alta que a los hombres blancos, lo que aumenta el riesgo de sesgo racial y de género”) (traducción propia). COMMITTEE ON OVERSIGHT AND REFORM, Congress of the United States. House of Representatives (2019): Memorandum Hearing on “Facial Recognition Technology (Part 1): Its Impact on Our Civil Rights and Liberties” (20 de mayo), p. 6. Recuperado de: https://oversight.house.gov/legislation/hearings/facial-recognition-technology-part-1-its-impact-on-our-civil-rights-and.

Inteligencia artificial y defensa. Nuevos horizontes

Подняться наверх