Читать книгу Retos del mercado financiero digital - Belén Andrés Segovia - Страница 19

V. INICIATIVAS DE LA UNIÓN EUROPEA SOBRE LA INTELIGENCIA ARTIFICIAL

Оглавление

Europa lleva ya un tiempo ocupándose y preocupándose por los nuevos escenarios que se derivan de la IA, tanto en su dimensión de sector público como sector privado, tal y como puede comprobarse de un examen a la relación de los documentos que se han destinado a abrir el debate, a los que me voy a referir brevemente a continuación.

a) Declaración de cooperación en IA, de 10 de abril de 2018

Fue suscrita por 25 países europeos para reforzar los centros europeos de investigación sobre IA, crear sinergias en los planes de financiación de I+D+i en toda Europa e intercambiar opiniones sobre el impacto de la IA en la sociedad y la economía.

b) Comunicación de la Comisión al Parlamento Europeo, al Consejo Europeo, al Consejo, al Comité Económico y Social Europeo y al Comité de las Regiones titulada Inteligencia artificial para Europa, de 25 de abril de 2018

El documento coloca a la persona en el centro del desarrollo de la IA y fija tres grandes objetivos. En primer lugar, el impulso de la capacidad tecnológica e industrial de la UE, así como la asimilación de la IA en toda la economía. En segundo lugar, la anticipación y preparación para los cambios socioeconómicos vinculados a esta tecnología a través de la formación o ayuda en la transición laboral. Por último, la definición de un marco ético y legal apropiado alineado con los valores y con la Carta de Derechos Fundamentales de la UE.

c) Comunicación de la Comisión al Parlamento Europeo, al Consejo Europeo, al Consejo, al Comité Económico y Social Europeo y al Comité de las Regiones titulada Plan coordinado sobre la inteligencia artificial, de 7 de diciembre de 2018

El objetivo es fomentar la cooperación transfronteriza y movilizar a todos los agentes con el fin de aumentar las inversiones públicas y privadas hasta un mínimo de 20.000 millones de euros anuales durante la próxima década.

La comunicación asienta las bases de la cooperación entre los Estados miembros de la UE y la necesidad de mejorar sus sinergias para convertir a la UE en un actor capaz de competir a nivel global en inteligencia artificial. Asimismo, fija como prioridad el aumento de la inversión público-privada en esta materia, algo que permitía pasar de la mera teoría sobre cómo deben ser desde el punto de vista ético y social los sistemas de inteligencia artificial a la práctica.

d) Comunicación de la Comisión al Parlamento Europeo, al Consejo Europeo, al Consejo, al Comité Económico y Social Europeo y al Comité de las Regiones titulada Generar confianza en la inteligencia artificial centrada en el ser humano, de 8 de abril de 2019

En el documento, la Comisión subraya cómo los valores europeos son fundamentales para crear el entorno de confianza adecuado para el desarrollo y la utilización con éxito de la IA, y profundiza en los requisitos clave para una inteligencia artificial fiable.

e) Resolución del Parlamento Europeo, de 12 de febrero de 2019, sobre una política industrial global europea en materia de inteligencia artificial y robótica

En ella, también hace hincapié en que su desarrollo en la Unión tendrá una gran incidencia en las relaciones laborales, estimando que esa incidencia debe abordarse de manera equilibrada para promover la reindustrialización y permitir que también los trabajadores se beneficien del incremento de la productividad, indicando claramente la necesidad de la flexibilidad y el balance en el nuevo contexto.

De momento, estos documentos se mueven en un nivel muy genérico y fundamentalmente en el plano ético, no del Derecho.

En este sentido, el pasado 8 de abril de 2019, el Grupo de Expertos de Alto Nivel sobre Inteligencia Artificial (AI HLEG), creado por la Comisión Europea en la primavera del año anterior, publicó las Directrices Éticas para la Inteligencia Artificial de confianza.

El documento señala que la IA sólo será de confianza si:

a) Es lícita (respeta la normativa aplicable),

b) Es ética (respeta los principios éticos), y

c) Es robusta (desde un punto de vista técnico y social).

Y establece siete requisitos que deben respetar todas las aplicaciones de IA para ser consideradas «de confianza»:

1. Intervención y supervisión humana: los sistemas de inteligencia artificial deberían empoderar a los seres humanos, permitiéndoles tomar decisiones informadas y fomentar sus derechos fundamentales. Al mismo tiempo, se deben garantizar mecanismos de supervisión adecuados. La IA tiene que ser supervisada por seres humanos.

2. Robustez técnica y seguridad: los sistemas de IA deben ser resistentes, resilientes y seguros ante eventuales intentos de manipulaciones o de pirateo, y dotarse de planes de contingencia. Deben ser seguros, garantizar un plan alternativo en caso de fallo, además de ser precisos, confiables y reproducibles. Esa es la única forma de garantizar que también se puedan minimizar y prevenir daños no intencionales.

3. Privacidad y gestión de datos: se debe garantizar la privacidad de los datos de los ciudadanos en todo el ciclo vital de la IA. Además de asegurar el pleno respeto de la privacidad y la protección de datos, también deben preverse mecanismos adecuados de gobernanza de datos, teniendo en cuenta la calidad e integridad de los datos, y garantizando el acceso legítimo a los mismos.

4. Transparencia: la IA debe de ser transparente, lo que supone poder reconstruir cómo y por qué se comporta de una determinada manera, y quienes interactúen con esos sistemas deben de saber que se trata de una IA, así como qué personas son sus responsables. Los modelos de negocio de datos, sistemas e IA deben ser transparentes. Los mecanismos de trazabilidad pueden ayudar a lograr esto. Además, los sistemas de IA y sus decisiones deben explicarse de manera adaptada a las partes interesadas en cuestión. Los seres humanos tienen que ser conscientes de que están interactuando con un sistema de IA y deben estar informados de las capacidades y limitaciones del sistema.

5. Diversidad, no discriminación y equidad: la IA debe de tener en cuenta la diversidad social desde su desarrollo para garantizar que sus algoritmos no tengan sesgos discriminatorios, directos o indirectos. Se tiene que evitar el sesgo injusto, ya que podría tener múltiples implicaciones negativas, desde la marginación de los grupos vulnerables hasta la exacerbación de los prejuicios y la discriminación. Al fomentar la diversidad, los sistemas de IA deben ser accesibles para todos, independientemente de cualquier discapacidad, e involucrar a las partes interesadas relevantes a lo largo de todo su ciclo de vida.

6. Bienestar social y medioambiental: el desarrollo tecnológico tiene que considerar su impacto social y medioambiental de forma que sea sostenible y ecológicamente responsable. Los sistemas de IA deberían beneficiar a todos los seres humanos, incluidas las generaciones futuras. Por lo tanto, tiene que garantizarse que sean sostenibles y respetuosos con el medio ambiente. Además, deben tener en cuenta el medio ambiente, incluidos otros seres vivos, y su impacto social y social debe considerarse cuidadosamente.

7. Rendición de cuentas: la IA y sus resultados deben de rendir cuentas ante auditores externos e internos. Se deben establecer mecanismos para garantizar la rendición de cuentas y la responsabilidad de los sistemas de IA y sus resultados. La auditoría, que permite la evaluación de algoritmos, datos y procesos de diseño, desempeña un papel clave, especialmente en aplicaciones críticas. Además, debe preverse una reparación adecuada y accesible de la IA y los robots.

La Comisión Europea ha presentado estas guías éticas a los Estados miembros de la UE y a los distintos actores del sector, y ha diseñado una fase piloto (hasta el pasado 1 de diciembre de 2019) para obtener retroalimentación de quienes están implicados en el salto tecnológico que suponen los sistemas capaces de aprender y decidir por sí mismos.

A partir de esa información, se actualizarán las señaladas directrices a lo largo de 2021. Además, la Comisión Europea planea destinar 1.000 millones de euros anuales a partir de 2020 a la IA y espera que en total se movilicen 200.000 millones en la próxima década.

Y, más allá del enfoque ético, la nueva Comisión Europea surgida tras las elecciones de 2019 ha comenzado a regular jurídicamente la robótica y la IA, para lo cual ha presentado un Libro Blanco como primer paso en el procedimiento legislativo, a cuyo examen dirigiremos nuestros próximos pasos.

Retos del mercado financiero digital

Подняться наверх