Читать книгу Inteligencia artificial y defensa. Nuevos horizontes - José Luis Domínguez Alvarez - Страница 57
IV. LA PROHIBICIÓN DE LA DISCRIMINACIÓN
ОглавлениеEl art. 14 CE prohíbe discriminación alguna por razón de nacimiento, raza, sexo, religión, opinión o cualquier otra condición o circunstancia personal o social. A este respecto, los sesgos discriminatorios de los sistemas de reconocimiento facial automático han sido puestos de manifiesto por numerosos autores25 e instituciones privadas y públicas. En esta línea, el Comité de Supervisión y Reforma del Congreso de los Estados Unidos concluyó lo siguiente: “It also found that facial recognition technology misidentifies women and minorities and a much higher rate than white males, increasing the risk of racial and gender bias”26.
Como se expuso en el primer epígrafe, son muchos los elementos técnicos que intervienen en el proceso del reconocimiento facial automático, pero, entre ellos, en los que ahora nos ocupa, destaca el algoritmo que gestiona el sistema y ofrece al final una puntuación sobre el grado de coincidencia entre dos imágenes faciales. Evidentemente, no se trata de que el algoritmo sea en sí mismo discriminatorio, sino de que esa discriminación deriva de un incorrecto funcionamiento del mismo –con una mayor tasa de error en las mujeres y en las pieles de color–. Y ese incorrecto funcionamiento tiene su base en un mal diseño, generalmente derivado de los datos utilizados para “entrenar” el algoritmo. Así, por ej., si los datos utilizados para entrenar el algoritmo han sido mayoritariamente imágenes faciales de seres humanos del género masculino y piel blanca, posiblemente su precisión será mucho mayor en esos supuestos frente a otros, y ello sin perjuicio de ciertos problemas adicionales de carácter técnico vinculados con el tratamiento del color en las imágenes.
Pero insistimos, no es que el reconocimiento facial automático tenga por sí mismo un sesgo discriminatorio, sino que los programas comerciales de reconocimiento facial automático son susceptibles de presentar este sesgo, generalmente por los datos que se han empleado en su desarrollo. Por este motivo, consideramos especialmente acertada la propuesta contenida en el Libro Blanco de Inteligencia Artificial de la Comisión Europea, de someter ciertas aplicaciones de Inteligencia Artificial de alto riesgo –entre las que incluye los sistemas de reconocimiento facial automático (p. 21)– a una evaluación de la conformidad objetiva y previa –tanto del algoritmo como del conjunto de datos utilizado en la fase de desarrollo– para verificar y garantizar el respeto a ciertas exigencias obligatorias, entre las que se incluirían, los derechos fundamentales.
En cualquier caso, a este respecto, debe destacarse que el sistema de reconocimiento facial automático, en el uso que venimos analizando, sólo ofrece una puntuación a la posible coincidencia entre dos imágenes faciales, sin generar ninguna decisión automática al respecto, debiendo valorar el agente policial, de acuerdo con sus propios criterios de experiencia, esa coincidencia y la medida proporcionada que deba adoptarse. Todo ello supone una garantía adicional para esa prohibición de la discriminación.