Читать книгу Nuevas normatividades: Inteligencia Artificial, Derecho y Género - Rafael Fernández Acevedo - Страница 6

II. LA INTELIGENCIA ARTIFICIAL EN EL SECTOR PÚBLICO Y LA UNIÓN EUROPEA

Оглавление

La noción de IA está relacionada con sistemas informáticos capaces de pensar, aprender, recopilar datos e información de múltiples fuentes y actuar de acuerdo con varios objetivos correlacionados con algoritmos. La creación de estos algoritmos es un proceso estadístico, matemático y también humano, que incluye gran cantidad de recopilación y análisis de datos en diferentes fases. Según la Comisión Europea13, la IA se refiere a sistemas que muestran un comportamiento inteligente al analizar su entorno y tomar acciones, con cierto grado de autonomía, para lograr objetivos específicos. Por lo tanto, los sistemas de IA pueden estar basados en software, como el caso de asistentes de voz, o puede estar integrada en dispositivos de hardware, como los coches autónomos. Por ello, la UE ha optado por implementar estrategias que fortalezcan la excelencia y confianza en la IA, así como diferentes iniciativas que promuevan su desarrollo en el sector público, pues ha demostrado ser un potente transformador de la economía y competitividad europeas.

Concretamente, la “Digital Agenda for Europe, a set of policies that pretend to redesign the European telecoms sector and to achieve the ‘data-driven’” se basa en tecnologías como la IA, el blockchain o el Big Data. Si bien, la UE ha también ha tenido en cuenta los riesgos que conlleva esta tecnología y ha supervisado la promoción de un marco basado en los principios y valores europeos. Consecuentemente, la UE está intentando crear una política sobre IA y un incipiente marco legal estructural para apoyarla. En ese sentido, el Parlamento Europeo14 ha destacado no solo los beneficios de la IA en el sector público, sino también una serie de preocupaciones éticas, legales y económicas relacionadas con los riesgos a los que se enfrentan la sociedad y las libertades fundamentales. Por ello, el uso de la IA requiere estar centrada en el ser humano y basarse en los derechos fundamentales.

Actualmente, múltiples organizaciones han elaborado varios códigos éticos y directrices para el desarrollo de la IA, en respuesta a la preocupación de los posibles efectos adversos que podría ocasionar esta tecnología15. Si bien, los diferentes documentos relativos a la ética en la aplicación y uso de la IA se han enfocado más en los marcos éticos que en las posibilidades de una nueva regulación o la actualización de la existente. Desde 2017, la UE ha estado trabajando en el establecimiento de una política común sobre la IA, también durante estos años múltiples documentos provenientes de la Comisión y otros órganos europeos han analizado los riesgos de esta tecnología y se han encargado de establecer las bases para las políticas comunitarias. Concretamente, en la comunicación “Artificial intelligence for Europe” se recopilaron tres ideas fundamentales: la primera, la adopción de medidas en el ámbito educativo y laboral para enfrentar los cambios económicos generados por la cuarta revolución industrial; la segunda, la promoción de la capacidad tecnológica e industrial con el uso de la IA; y la tercera, el desarrollo de un marco ético-legal basado en los valores europeos. Estos elementos deben desarrollarse en atención a otros estándares europeos como la protección de datos, la ciberseguridad o los datos abiertos u open data. Durante estos últimos años, la Comisión Europea y los estados miembros firmaron una declaración de cooperación en el campo de la IA, que incluye la intención de cooperar en este ámbito y el establecimiento de políticas a nivel nacional. También, se elaboró un plan de acción que se encarga de promover acciones coordinadas y armonizadas vinculadas al desarrollo de un marco ético y a la aprobación de normas técnicas por falta de regulación europea.

A principios de 2020 la Comisión Europea publicó el “Libro Blanco sobre la Inteligencia artificial: un enfoque europeo orientado a la excelencia y la confianza” para avanzar diversas propuestas regulatorias, remarcando la necesidad de desarrollar un ecosistema de la IA enfocado en los ciudadanos, en el desarrollo empresarial y a los servicios de interés público. Unos meses más tarde, el Parlamento Europeo aprobó tres informes que estudian cómo adoptar una regulación que impulse la innovación, el respeto de estándares éticos y la confianza en la tecnología. Tres son los elementos clave que se analizan, en primer lugar, el equilibrio entre la protección de derechos y el impulso tecnológico, con el que normativamente se contemplen el respecto a la intervención y la supervisión humana; en segundo, la existencia de un sistema de responsabilidad civil; y, finalmente, un sistema de propiedad intelectual, así como garantías para los desarrolladores. Resulta evidente por todo lo expuesto hasta ahora que, aunque la UE comienza a asentar las bases de un régimen sobre IA, esta no cuenta con regulación coherente, como si ocurre con el resto de las tecnologías más avanzadas. Aunque, desde 2018 con el Plan Coordinado de Inteligencia Artificial diversos países europeos han desarrollado sus estrategias nacionales de IA, siendo actualmente más de 20 países los que han publicado sus políticas nacionales sobre esta tecnología16.

Nuevas normatividades: Inteligencia Artificial, Derecho y Género

Подняться наверх