Читать книгу Inteligencia artificial (Umbrales éticos, Derecho y Administraciones Públicas) - Mar Moreno Rebato - Страница 13

E) En especial, las directrices éticas para una inteligencia artificial fiable, grupo independiente de expertos creado por la Comisión Europea42

Оглавление

El objetivo de las Directrices fijadas por el grupo de expertos, anteriormente mencionado, es promover, en el ámbito europeo, una Inteligencia Artificial fiable. En este sentido, sostienen que la fiabilidad de la Inteligencia Artificial (IA) se apoya en tres componentes que deben satisfacerse a lo largo de todo el ciclo de vida del sistema: a) la IA debe ser lícita, es decir, cumplir todas las leyes y reglamentos aplicables; b) ha de ser ética, de modo que se garantice el respeto de los principios y valores éticos; y c) debe ser robusta, tanto desde el punto de vista técnico como social, puesto que los sistemas de IA, incluso si las intenciones son buenas, pueden provocar daños accidentales. A su vez, entienden, que los sistemas de IA deben cumplir siete requisitos:

1) acción y supervisión humanas,

2) solidez técnica y seguridad,

3) gestión de la privacidad y de los datos,

4) transparencia,

5) diversidad, no discriminación y equidad,

6) bienestar ambiental y social, y

7) rendición de cuentas43.

El Grupo de expertos parte de un enfoque de la ética en la IA basado en los derechos fundamentales consagrados en los Tratados de la Unión Europea, la Carta de los Derechos Fundamentales de la Unión Europea (la “Carta de la UE” [LCEur 2000, 3480]) y la legislación internacional de derechos humanos. El respeto de los derechos fundamentales, dentro de un marco de democracia y estado de Derecho, proporciona la base más prometedora para identificar los principios y valores éticos abstractos que se pueden poner en práctica en el contexto de la IA. Derechos fundamentales que son legalmente exigibles en la Unión Europea44.

Se enumeran cuatro principios éticos, arraigados en los derechos fundamentales, que deben cumplirse para garantizar que los sistemas de IA se desarrollen, desplieguen y utilicen de manera fiable. De estos principios éticos se derivan, a su vez, una serie de requisitos que deben cumplir los sistemas de IA. Estos son45:

I). Respeto de la autonomía humana: esto implica garantizar la supervisión y el control humano sobre los procesos de trabajo de los sistemas de IA. El control humano se refiere a la capacidad de que los seres humanos intervengan durante el ciclo de diseño del sistema y el seguimiento de su funcionamiento; y la capacidad de supervisar la actividad global del sistema, incluidos sus efectos económicos, sociales, jurídicos y éticos (“el mando humano”).

II). Prevención del daño: los sistemas de IA no deben provocar daños (o agravar los existentes) ni perjudicar de cualquier otro modo a los seres humanos. No pueden, por tanto, destinarse a usos malintencionados. Esto conlleva la protección de la dignidad humana, así como de la integridad física y mental. Estrechamente relacionado con este principio se encuentra el componente de la solidez técnica y la seguridad. La IA tiene que tener una solidez técnica, tiene que ser desarrollada con un enfoque preventivo en relación con los riesgos, de modo que sus sistemas se comporten siempre según lo esperado y minimicen los daños involuntarios e imprevistos, evitando causar daños inaceptables. Al mismo tiempo, los sistemas de IA tienen que ser capaces de resistir a los ataques informáticos y ser seguros, ya que se pueden alterar los datos y el comportamiento del sistema, pudiendo dar lugar a decisiones erróneas, maliciosas o, incluso, causar daños físicos. La privacidad y la protección de la intimidad, también están estrechamente relacionados con la prevención del daño. Los sistemas de IA deben garantizar la protección de la intimidad y de los datos a lo largo de todo el ciclo de vida del sistema. Esto incluye la información inicialmente facilitada por el usuario, así como la información generada sobre el usuario en el contexto de su interacción con el sistema. Es evidente, en este contexto, que los registros digitales de las personas y su comportamiento, no solo pueden dejar rastro de sus preferencias sino también es fácil inferir de los mismos su orientación sexual, edad, género, opiniones políticas y religiosas. Es necesario, por tanto, establecer protocolos que determinen quién puede acceder a los datos y en qué circunstancias.

III). Equidad: esto implica asegurar que las personas y grupos no sufran sesgos injustos, discriminación ni estigmatización. Los conjuntos de datos que utilizan los sistemas de IA (tanto con fines de formación como para su funcionamiento) pueden presentar sesgos históricos inadvertidos, lagunas o modelos de gestión incorrectos. El mantenimiento de dichos sesgos podría dar lugar a prejuicios y discriminación (directa e indirecta) contra determinados grupos o personas, lo que podría agravar los estereotipos y la marginación. Siempre que sea posible, los sesgos identificables y discriminatorios deberían eliminarse en la fase de recopilación de la información. La propia programación de algoritmos también puede presentar sesgos injustos, por lo que hay que contar con procesos de supervisión. Tampoco puede permitirse que se engañe a los usuarios ni se limite su libertad de elección. También incluye, en su faceta procedimental, oponerse a las decisiones adoptadas por los sistemas de IA y por las personas que los manejan. Se debe poder identificar a la entidad responsable de la decisión y explicar los procesos de adopción de decisiones. Igualmente, los sistemas de IA deben ser accesibles, para que todas las personas puedan utilizar los productos o servicios de IA con independencia de su edad, género, capacidades o características; especialmente para las personas con discapacidad, por lo que los sistemas de IA deben ser adaptables y tener en cuenta los principios del Diseño Universal. Además, la IA debe ser respetuosa con el medio ambiente, tanto desde la perspectiva de sus objetivos (contribuir a los objetivos de desarrollo sostenible46), como en los procesos de desarrollo, despliegue y utilización de sistemas de IA, aspectos que deben ser objeto de evaluación. También se debe evaluar sus repercusiones desde la perspectiva social, teniendo en cuenta sus efectos sobre las instituciones, la democracia y la sociedad en su conjunto (por ejemplo, en la toma de decisiones políticas o en procesos electorales). Deben, también, articularse mecanismos que permitan garantizar la responsabilidad y rendición de cuentas sobre los sistemas de IA y sus resultados (auditabilidad y utilización de evaluaciones de impacto, antes y después del desarrollo, despliegue y utilización de sistemas de IA, para minimizar sus efectos negativos y, en el caso de que se produzcan asegurar una compensación –indemnización– adecuada).

IV). Explicabilidad: es crucial para conseguir que los usuarios confíen en los sistemas de IA. Los procesos han de ser transparentes, las decisiones deben poder explicarse (de manera directa o indirecta) porque sin esta información no es posible impugnar adecuadamente una decisión. En este sentido, los algoritmos de “caja negra” (donde, muchas veces, no es posible explicar por qué un modelo ha generado un resultado o una decisión particular, ni qué combinación de factores contribuyeron a ello) requieren una especial atención. En este sentido, es necesario adoptar otras medidas relacionadas con la explicabilidad (por ejemplo, la trazabilidad, la auditabilidad y la comunicación transparente sobre las prestaciones del sistema), siempre y cuando el sistema en su conjunto respete los derechos fundamentales. La transparencia, por tanto, es un requisito de la IA; transparencia en los datos, el sistema y los modelos de negocio. Debe asegurarse la trazabilidad, es decir, los conjuntos de datos y los procesos que dan lugar a la decisión del sistema de IA deben documentarse con arreglo a la norma más rigurosa posible con el fin de posibilitar la trazabilidad y aumentar la transparencia; esto permitirá identificar los motivos de una decisión errónea por parte del sistema, lo que a su vez podría ayudar a prevenir futuros errores. La trazabilidad, por tanto, facilita la auditabilidad y la explicabilidad. Pero la explicabilidad también incluye la comunicación; el derecho del usuario a saber que está interactuando con un sistema de IA; por lo tanto, los sistemas de IA deben identificarse como tales, deben comunicar este extremo y, cuando sea necesario, se debería ofrecer al usuario la posibilidad de decidir si prefiere interactuar con un sistema de IA o con otra persona, con el fin de garantizar el cumplimiento de los derechos fundamentales.

Los anteriores principios éticos se traducen, a su vez, en siete requisitos, concretos, que deben concurrir para hacer realidad una IA fiable: 1) acción y supervisión humanas, 2) solidez técnica y seguridad, 3) gestión de la privacidad y de los datos, 4) transparencia, 5) diversidad, no discriminación y equidad, 6) bienestar ambiental y social, y 7) rendición de cuentas.

Estos requisitos tienen como destinatarios: a los desarrolladores, que deben introducir y aplicar los requisitos en los procesos de diseño y desarrollo; a los responsables del despliegue, que deben asegurarse de que los sistemas que utilizan y los productos y servicios que ofrecen cumplen los requisitos establecidos; a los usuarios finales y la sociedad en su conjunto, que deben permanecer informados sobre dichos requisitos y tener la capacidad de pedir que se cumplan47.

Inteligencia artificial (Umbrales éticos, Derecho y Administraciones Públicas)

Подняться наверх