Читать книгу Inteligencia artificial (Umbrales éticos, Derecho y Administraciones Públicas) - Mar Moreno Rebato - Страница 14

3. PRINCIPIOS ÉTICOS Y DERECHO. AUTORREGULACIÓN Y/O REGULACIÓN

Оглавление

Hemos hecho referencia, anteriormente, a los principios éticos que sustentan el uso de la Inteligencia Artificial, la pregunta ahora es si dichos principios éticos son suficientes para garantizar el desarrollo y el buen uso de la misma. Es decir, si además de estos es necesaria la adopción de un marco normativo vinculante, específico de la Inteligencia Artificial, que resuelva las deficiencias y lagunas que se presentan, en este sector, y de respuesta a problemas estrictamente jurídicos que se plantean. Es cierto que, por lo menos en el marco europeo, algunos de estos principios éticos pueden extraerse o derivarse de normas concretas del Derecho Comunitario (y de normas nacionales de los países miembros) tanto del Derecho originario (Tratados) como del Derecho derivado (Reglamentos y Directivas, fundamentalmente) como, por ejemplo, el principio de igualdad y no discriminación (en relación a la discriminación algorítmica, por ejemplo) y en tanto forman parte de dicho Derecho se convierten en principios jurídicos aplicables y vinculantes. Ahora bien, este sería sin duda un sistema inacabado, con lagunas interpretativas e, incluso, con vacío legal en muchos aspectos, como expondremos más adelante. Y es que en el uso de esta tecnología pueden surgir disputas legales sobre responsabilidades entre los proveedores de tecnología de Inteligencia Artificial y las empresas y entre estas y los usuarios que pueden ver, por ejemplo, vulnerados sus derechos, algunos de ellos, incluso, derechos fundamentales (a la igualdad, a la no discriminación, a la tutela judicial efectiva…) o que dicha vulneración de derechos se derive del uso de la Inteligencia Artificial por parte de las Administraciones Públicas, lo que puede dar lugar al derecho a percibir una indemnización (de responsabilidad patrimonial) por parte de las mismas. La pregunta, por tanto, es si es suficiente con una autorregulación en el uso de esta tecnología, basada en los principios éticos que se han ido estableciendo al respecto, y de los que hemos dado cuenta anteriormente, o bien si es más conveniente la aprobación de un marco jurídico vinculante que, además, pueda ser complementado con normas éticas e instrumentos de soft law (directrices, guías, códigos éticos…). La respuesta es, sin duda controvertida, dada la necesidad de no “encorsetar” u “obturar” el desarrollo de esta tecnología. Así, entre las distintas potencias en Inteligencia Artificial, la respuesta es dispar. Mientras Estados Unidos viene defendiendo que la regulación debe considerarse como “última ratio” y siempre que no sea posible la autorregulación, China, por su parte, sigue un modelo de fuerte intervención y liderazgo gubernamental con vistas a dominar el mercado global48.

La Unión Europea, por su parte, está apostando por la regulación, por la elaboración de un Reglamento comunitario de Inteligencia Artificial (que complementa, a su vez, al resto del Derecho de la Unión que afecta a esta tecnología) complementado con unos principios éticos. En este sentido se dice:

“Por tanto, es necesario un marco jurídico de la Unión que establezca normas armonizadas sobre inteligencia artificial para fomentar el desarrollo, el uso y la asimilación de la inteligencia artificial en el mercado interior que, al mismo tiempo, cumpla con un alto nivel de protección de los intereses públicos, como la salud, la seguridad y la protección de los derechos fundamentales, reconocidos y protegidos por el Derecho de la Unión. Para alcanzar ese objetivo, deben establecerse normas que regulen la comercialización y la puesta en servicio de determinados sistemas de inteligencia artificial, garantizando así el buen funcionamiento del mercado interior y permitiendo que dichos sistemas se beneficien del principio de libre circulación de bienes y servicios. Al establecer dichas normas, el presente Reglamento respalda el objetivo de la Unión de ser un líder mundial en el desarrollo de inteligencia artificial segura, fiable y ética, según lo declarado por el Consejo Europeo y garantiza la protección de los principios éticos, tal y como se solicita específicamente por el Parlamento Europeo”49.

No obstante, para los sistemas de Inteligencia Artificial que no se consideran de alto riesgo se crea un marco para la creación de códigos de conducta que permitan la aplicación voluntaria de los requisitos obligatorios para los sistemas de IA de alto riesgo50.

En definitiva, la Unión Europea opta por establecer un marco normativo horizontal (el Reglamento de Inteligencia Artificial) proporcionado, basado en el riesgo, con la posibilidad de que todos los proveedores de sistemas de IA que no sean de alto riesgo sigan un código de conducta; es decir, prescinde de realizar un enfoque sectorial, o basarse en un sistema de etiquetado voluntario, o de establecer unos requisitos obligatorios para todos los sistemas de IA, independientemente del riesgo que plantean.

En relación a los códigos de conducta, la propuesta de Reglamento de la UE sobre IA establece51:

1. Que la Comisión y los Estados miembros fomentarán y facilitarán la elaboración de códigos de conducta, voluntarios, para los sistemas IA que no son considerados de alto riesgo. Estos códigos de conducta (códigos éticos) promoverán la aplicación voluntaria de los requisitos exigidos a los sistemas IA de alto riesgo (requisitos que, en relación a estos, sí son de obligado cumplimiento).

2. Estos códigos podrán ser elaborados por proveedores individuales de los sistemas de IA, por organizaciones que los representen o por ambos, también con la participación de usuarios y de cualquier parte interesada y sus organizaciones representativas. Estos códigos de conducta podrán abarcar uno o varios sistemas de IA.

Distintos países, a título individual, ya contemplan las cuestiones éticas dentro de sus Estrategias nacionales de IA52.

1.vid. PONCE SOLÉ, J.: “Inteligencia artificial, Derecho Administrativo y reserva de humanidad: algoritmos y procedimiento administrativo debido tecnológico”, Revista General de Derecho Administrativo, n.° 50, 2019, p. 7.

2.vid. ARELLANO TOLEDO, W.: “El derecho a la transparencia algorítmica en big data e inteligencia artificial”, Revista General de Derecho Administrativo, n.° 50, 2019, p. 5.

3.Ibídem, pp. 1, 2 y 3.

4.Piénsese en empresas como Google o Facebook que aparentemente ofrecen un servicio sin coste alguno a cambio de aceptar sus términos, condiciones de uso y política de privacidad mientras que llevan a cabo un tratamiento masivo de datos personales que, a su vez, ceden a terceros. O piénsese, también, en fenómenos como el de la compra de WhatsApp o Instagram por Facebook y, por tanto, de los datos e información personal que ambas manejan. En este negocio se inscriben las empresas denominadas “data brokers”.

5.vid. SANCHO LÓPEZ, M.: “Estrategias legales para garantizar los derechos fundamentales frente a los desafíos del big data”, Revista General de Derecho Administrativo, n.° 50, 2019, p. 4.

6.https://www.europarl.europa.eu/doceo/document/TA-8-2017-0076_ES.html

7.vid. LEA, G.: “Why we need a legal definition of artificial intelligence”, The Conversation, 2 September 2015, (https://theconversation.com/why-we-need-a-legal-definition-of-artificial-intelligence-46796).

8.vid. Intelligent Robots Development and Distribution Promotion Act. (Act No. 9014, Mar. 28, 2008, Amended by Act No. 9161, Dec. 19, 2008). Statutes of the Republic of Korea. http://elaw.klri.re.kr/eng_mobile/viewer.do?hseq=17399&type=sogan&key=13.

9.Guidelines to Secure the Safe Performance of Next Generation Robots, de 6 de abril de 2007 y New Robots Strategy de 10 de febrero de 2015, (http://www.meti.go.jp/english/press/2015/pdf/0123_01b.pdf).

10.vid. NISA ÁVILA, J. A.: “Robótica e Inteligencia Artificial ¿legislación social o nuevo ordenamiento jurídico?”, en ElDerecho.com, 30 de marzo de 2016.

11.vid. Committee on Technology, “Preparing for the Future of Artificial Intelligence” (National Science and Technology Council – Executive Office of the President of the United States of America, 12 October 2016), y The national artificial intelligence research and development strategic plan, October, 2016, https://obamawhitehouse.archives.gov/sites/default/files/whitehouse_files/microsites/ostp/NSTC/national_ai_rd_strategic_plan.pdf.

12.vid. Documento del Comité de Ciencia y Tecnología de la Cámara de los Comunes titulado: Robotics and artificial intelligence, 12 de octubre de 2016, y la respuesta del Gobierno a dicho informe de 11 de enero de 2017, (https://publications.parliament.uk/pa/cm201617/cmselect/cmsctech/145/14502.htm, https://publications.parliament.uk/pa/cm201617/cmselect/cmsctech/896/896.pdf).

13.vid. Resolución del Parlamento Europeo, de 16 de febrero de 2017, con recomendaciones destinadas a la Comisión sobre normas de Derecho civil sobre robótica (2015/2103(INL)), http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//TEXT+TA+P8-TA-2017-0051+0+DOC+XML+V0//ES. Sobre esta Resolución, vid. SHEAD, S.: “European politicians have voted to rein in the robots”, en Business Insider Nederland, 16 February 2017; WALKER-OSBORN, Ch. and CHAN, Ch.: “Artificial Intelligence and the Law”, ITNOW, Volume 59, Issue 1, 1, March 2017, https://doi.org/10.1093/itnow/bwx017. En especial, la Propuesta de Reglamento del Parlamento europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial (ley de inteligencia artificial) y se modifican determinados actos legislativos de la Unión, de 21 de abril de 2021, COM/2021/206 final, https://eur-lex.europa.eu/legal-content/ES/TXT/?uri=COM:2021:206:FIN.

14.vid. Recomendación 2102 (2017) de la Asamblea Parlamentaria del Consejo de Europa, titulada: “Technological convergence, artificial intelligence and human rights”, de 28 de abril, http://assembly.coe.int/nw/xml/XRef/Xref-XML2HTML-en.asp?fileid=23726&lang=en.

15.El 7 de septiembre de 2017 se firmó el acuerdo para la creación del primer Centro de Inteligencia artificial y robótica de las Naciones Unidas, con sede en la ciudad de La Haya dependiente de la UNICRI (Instituto Interregional de las Naciones Unidas para investigaciones sobre la delincuencia y la justicia), http://www.unicri.it/in_focus/on/UNICRI_Centre_Artificial_Robotics.

16.vid. http://www.lamoncloa.gob.es/serviciosdeprensa/notasprensa/minetur/Paginas/2017/141117iartificialybigdata.aspx.

17.Sobre esta cuestión, vid. DANAHER, J.: “Is effective regulation of AI possible? Eight potential regulatory problems”, Philosophical Disquisitions, 7 July 2015; BROGAN, K.: “To Regulate or not to Regulate? That is the AI Question”, Compelo, 14 February 2017, http://www.compelo.com/ai-regulation; CASTILLA, A. and ELMAN, J.: “Artificial intelligence and the law”, TechCrunch, 28 January 2017; SCHERER, M.: “Is Legal Personhood for AI Already Possible Under Current United States Laws?” Law and AI, May 14, 2017, pp. 353-400; HOFFMANN-RIEM, W.: “Artificial intelligence as a challenge for law and regulation”, In Regulating artificial intelligence, Spinger, 2020, pp. 1-29.

18.SURDEN, H.: “Artificial intelligence and law: An overview”, Georgia State University Law Review, 35 (4), 2019, 1305-1337.

19.vid. SAINATO, M.: “Stephen Hawking, Elon Musk, and Bill Gates Warn About Artificial Intelligence”, Observer, 19 August 2015; http://observer.com/2015/08/stephen-hawking-elon-musk-and-bill-gates-warnabout-artificial-intelligence/. Para evitar este temor, se ha creado la Fundación Partnership on AI to Benefit People and Society por parte de empresas como Microsoft, Amazon, Apple, Google, Facebook, IBM para explicar los beneficios de la inteligencia artificial, vid. https://www.partnershiponai.org/.

20.Sí lo hace, por ejemplo, la norma ISO/IEC 2382:2015(en), 212377, sobre Información tecnológica, que define la inteligencia artificial como la capacidad de una unidad funcional para realizar funciones que generalmente están asociadas con la inteligencia humana, como el razonamiento y el aprendizaje.

21.vid. artículo 3 y Anexo I de la Propuesta de Reglamento del Parlamento Europeo y del Consejo estableciendo normas armonizadas sobre IA, COM (2021) 206 final, de 21 de abril de 2021, https://eur-lex.europa.eu/legal-content/ES/TXT/?uri=COM:2021:206:FIN.

22.vid. artículos 4 y 7 de la Propuesta de Reglamento de la UE sobre IA.

23.vid. artículo 4 de la Propuesta de Reglamento realizada por el Parlamento Europeo en la Resolución del Parlamento Europeo, de 20 de octubre de 2020, con recomendaciones destinadas a la Comisión sobre un marco de los aspectos éticos de la inteligencia artificial, la robótica y las tecnologías conexas.

24.vid. COTINO HUESO, L: “Riesgos e impactos del Big Data, la inteligencia artificial y la robótica. Enfoques, modelos y principios de la respuesta del Derecho”, Revista General del Derecho Administrativo, n.° 50, 2019, p. 3.

25.vid. https://es.wikipedia.org/wiki/Inteligencia_artificial#cite_note-1.

26.vid. RUSSELL, S. J. y NORVIG, P.: Inteligencia Artificial: Un Enfoque Moderno, 2.ª edición, Pearson, 2008, p. 2. Las seis disciplinas que abarcan la mayor parte de la Inteligencia artificial son (Ibídem, p. 3):

– Procesamiento de lenguaje natural que le permita comunicarse satisfactoriamente en un idioma;

– Representación del conocimiento para almacenar lo que se conoce o siente;

– Razonamiento automático para utilizar la información almacenada para responder a preguntas y extraer nuevas conclusiones;

– Aprendizaje automático para adaptarse a nuevas circunstancias y para detectar y extrapolar patrones;

–Visión computacional para percibir objetos;

– Robótica para manipular y mover objetos.

vid. SAMOILI, S., LÓPEZ COBO, M., GÓMEZ, E., DE PRATO, G., MARTÍNEZPLUMED, F., y DELIPETREV, B.: AI Watch. Defining Artificial Intelligence. Towards an operational definition and taxonomy of artificial intelligence, 2020, Luxembourg.

27.Directrices éticas para una IA fiable. Grupo independiente de expertos de alto nivel sobre inteligencia artificial, creado por la Comisión Europea, 2018, página 5 del documento.

28.Artificial Intelligence: the global landscape of ethics guidelines, Health Ethics & Policy Lab, ETH Zurich, 2019.

29.Sobre los principios éticos y la IA, vid. CARRILLO, M. R.: “Artificial intelligence: From ethics to law”, Telecommunications Policy, 2020. https://doi.org/10.1016/j.telpol.2020.101937; The IEEE Global Initiative on Ethics of Autonomous and Intelligent Systems. Classical Ethics in A/IS. In Ethically Aligned Design, 2019, pp. 36-67. https://standards.ieee.org/industry-connections/ec/autonomous-systems.html; EMA, A.: EADv2 Regional Reports on A/IS Ethics: Japan. The Ethics Committee of the Japanese Society for Artificial Intelligence, 2018. https://standards.ieee.org/content/dam/ieeestandards/standards/web/documents/other/eadv2_regional_report.pdf; JOBIN, A., IENCA, M., & VAYENA, E.: “The global landscape of AI ethics guidelines”, Nature Machine Intelligence, 1(9), 2019, 389-399; FLORIDI, L.: “Establishing the rules for building trustworthy AI”. Nature Machine Intelligence, 1(6), 2019, 261-262. https://doi.org/10.1007/s11023-018-9482-5; FLORIDI, L., COWLS, J., BELTRAMETTI, M., CHATILA, R., CHAZERAND, P., DIGNUM, V., C. LUETGE, R. MADELIN, U. PAGALLO, F. ROSSI, B. SCHAFER, P. VALCKE AND E. VAYENA: “AI4People white paper: Twenty recommendations for an ethical framework for a good AI society”, Minds and Machines, 28, 2018, 689–707. https://doi.org/10.1007/s11023-018-9482-5; ASÍS, R. de: “Inteligencia artificial y Derechos Humanos”, Materiales de Filosofía del Derecho, n.° 4, 2020.

30.Una crítica a este documento puede verse en: MCMILLAN, D., & BROWN, B.: “Against ethical AI”, en Proceedings of the Halfway to the Future Symposium, 2019, pp. 1-3; SMUHA, N. A.: “The EU approach to ethics guidelines for trustworthy artificial intelligence”, CRi-Computer Law Review International, 20 (4), 2019, pp. 97-106.

31.Un estudio más pormenorizado de las mismas en HERNÁNDEZ PEÑA, J. C.: “Gobernanza de la Inteligencia Artificial en la Unión Europea. La construcción de un marco ético-jurídico aún inacabado”, Revista General de Derecho Administrativo, n.° 56, 2021.

32.ASILOMAR AI PRINCIPLES, 2017, especialmente los principios sobre ética y valores (6 a 18); vid. https://futureoflife.org/ai-principles/.

33.Recommendation of the Council on Artificial Intelligence OECD, 22 de mayo de 2019 (file:///C:/Users/urjc/Downloads/OECD-LEGAL-0449-en.pdf).

34.https://www.accessnow.org/the-toronto-declaration-protecting-the-rights-to-equality-and-non-discrimination-in-machine-learning-systems/.

35.https://campusialab.com.ar/wp-content/uploads/2020/07/Carta-e%CC%81tica-europea-sobre-el-uso-de-la-IA-en-los-sistemas-judiciales–.pdf.

36.https://rm.coe.int/ethical-charter-en-for-publication-4-december-2018/16808f699c.

37.file:///C:/Users/urjc/Downloads/Inteligencia_artificial__La_Comisi_n_contin_a_ su_trabajo_sobre_directrices__ticas.pdf.

38.https://rm.coe.int/guidelines-on-artificial-intelligence-and-data-protection/168091f9d8.

39.https://search.coe.int/cm/pages/result_details.aspx?objectid=090000168092dd4b.

40.https://rm.coe.int/unboxing-artificial-intelligence-10-steps-to-protect-human-rights-reco/1680946e64.

41.vid. por ejemplo, Holanda, el documento sobre Directrices para la aplicación de algoritmos por parte de los organismos públicos, 2019 y en Malta, vid. Towards Trustworthy AI, Malta Ethical AI Framework, october, 2019, p. 7 y ss.

42.Directrices éticas para una IA fiable. Grupo independiente de expertos de alto nivel sobre inteligencia artificial, creado por la Comisión Europea, 2018, vid. https://op.europa.eu/es/publication-detail/-/publication/d3988569-0434-11ea-8c1f-01aa75ed71a1.

43.Directrices éticas para una IA fiable. Grupo independiente de expertos de alto nivel sobre inteligencia artificial, creado por la Comisión Europea, 2018, páginas 6 y 18 del Documento.

44.Ibídem, p. 12 del documento Directrices éticas para una IA fiable.

45.Ibídem, pp. 14 y ss. y pp. 20 y ss. del documento Directrices éticas para una IA fiable.

46.vid. TRUBY, J.: “Governing artificial intelligence to benefit the UN sustainable development goals”. Sustainable Development, 2020, https://doi.org/10.1002/sd.2048.

47.Directrices éticas para una IA fiable. Grupo independiente de expertos de alto nivel sobre inteligencia artificial, creado por la Comisión Europea, 2018, páginas 6 y 18 del documento.

48.vid. HERNÁNDEZ PEÑA, J. C.: “Gobernanza de la Inteligencia Artificial en la Unión Europea. La construcción de un marco ético-jurídico aún inacabado”, Revista General de Derecho Administrativo, n.° 56, 2021, p. 38.

49.vid. Considerando (5) de la propuesta de Reglamento del Parlamento Europeo y del Consejo estableciendo normas armonizadas sobre inteligencia artificial (Ley de Inteligencia Artificial) y modificando ciertos actos legislativos de la Unión. Bruselas, 21-4-2021.

50.vid. Título IX de la propuesta de Reglamento del Parlamento Europeo y del Consejo estableciendo normas armonizadas sobre inteligencia artificial (Ley de Inteligencia Artificial) y modificando ciertos actos legislativos de la Unión. Bruselas, 21-4-2021.

51.vid. artículo 69 de la propuesta de Reglamento UE sobre IA recoge: “Artículo 69 Códigos de conducta.

1. La Comisión y los Estados miembros fomentarán y facilitarán la elaboración de códigos de conducta destinados a promover la aplicación voluntaria de los requisitos establecidos en el título III, capítulo 2, a sistemas de IA distintos de los de alto riesgo, sobre la base de especificaciones y soluciones técnicas que constituyan medios adecuados para garantizar el cumplimiento de dichos requisitos a la luz de la finalidad prevista de los sistemas.

2. La Comisión y el Comité fomentarán y facilitarán la elaboración de códigos de conducta destinados a promover la aplicación voluntaria a sistemas de IA de los requisitos relativos, por ejemplo, a la sostenibilidad ambiental, la accesibilidad para personas con discapacidad, la participación de partes interesadas en el diseño y desarrollo de los sistemas de IA y la diversidad de los equipos de desarrollo, sobre la base de objetivos claros e indicadores clave de resultados para medir la consecución de dichos objetivos.

3. Los códigos de conducta podrán ser elaborados por proveedores individuales de sistemas de IA, por organizaciones que los representen o por ambos, también con la participación de usuarios y de cualquier parte interesada y sus organizaciones representativas. Los códigos de conducta podrán abarcar uno o varios sistemas de IA, teniendo en cuenta la similitud de la finalidad prevista de los sistemas pertinentes.

4. La Comisión y el Comité tendrán en cuenta los intereses y necesidades específicos de los proveedores a pequeña escala y las empresas emergentes cuando fomenten y faciliten la elaboración de códigos de conducta”.

52.Malta ha establecido un Comité Nacional de Ética Tecnológica en el marco de la Autoridad de Innovación Digital de Malta (MDIA) para supervisar el Marco Ético de IA, (vid. Malta: The Ultimate AI Launchpad, A Strategy and Vision for Artificial Intelligence in Malta 2030, Octubre 2019 y Malta digital innovation authority act, de 15 de julio de 2018).

Suecia ha creado el Comité de Ética e Innovación Tecnológica (Komet). Fue establecido por el gobierno sueco el 14 de agosto de 2018.

En Reino Unido, el Servicio Digital del Gobierno (GDS) y la Oficina de Inteligencia Artificial (OAI) han publicado una guía conjunta sobre cómo construir y usar inteligencia artificial (IA) en el sector público (https://www.gov.uk/government/collections/a-guide-to-using-artificial-intelligence-in-the-public-sector). El Centro de Ética e Innovación de Datos (CDEI) es un organismo asesor independiente creado y encargado por el gobierno del Reino Unido para asesorar sobre cómo maximizar los beneficios de estas tecnologías, incluida la inteligencia artificial (https://www.gov.uk/government/publications/the-centre-for-data-ethics-and-innovation-calls-for-evidence-on-online-targeting-and-bias-in-algorithmic-decision-making).

En Austria, el Consejo Austriaco de Robótica e Inteligencia Artificial, identifica y analiza las oportunidades, los riesgos y los desafíos actuales y futuros que surgen del uso de robots y sistemas autónomos (RAS) y la inteligencia artificial (IA) desde una perspectiva tecnológica, económica, social y legal.

En Estonia, en agosto de 2017, el Ministerio de Transporte, Innovación y Tecnología estableció un Consejo de Robótica e Inteligencia Artificial (ACRAI), para brindar recomendaciones sobre los desafíos y oportunidades actuales y futuros de la IA.

En Alemania existe una Comisión de Ética de Datos. La Comisión de Ética de Datos está compuesta por dieciséis expertos de los campos de la medicina, el Derecho, la informática, la estadística, la economía, la teología, la ética y el periodismo. Es independiente, pero cuenta con el apoyo organizativo del Ministerio Federal del Interior, Construcción y Comunidad (BMI) y del Ministerio Federal de Justicia y Protección al Consumidor (BMJV). La Comisión tiene la tarea de proponer directrices éticas para la política de datos, algoritmos, Inteligencia Artificial e innovación digital, y proporcionar recomendaciones y propuestas regulatorias al gobierno alemán.

En Francia se ha creado un Comité Digital dentro del Comité Consultivo Nacional de Ética. Los principios éticos se concretan a través de las siguientes recomendaciones de política, entre otras:

– Para garantizar la conciencia ética desde la etapa de diseño, la ética podría incorporarse en la formación de ingenieros e investigadores que estudian la IA;

– Fortalecimiento de la ética en las empresas (por ejemplo, creación de comités de ética, difusión de buenas prácticas sectoriales, revisión de códigos de conducta profesional preexistentes, previsión de códigos éticos para programas de investigación).

– Creación de una plataforma nacional de auditoría de algoritmos. La evaluación de la conformidad con los marcos legales y éticos aumentaría la transparencia y reduciría los posibles abusos del uso de la IA.

En Finlandia se ha desarrollado un Programa de Certificación de Ética de la Asociación de Normas del Instituto de Ingenieros Eléctricos y Electrónicos (IEEE) para sistemas autónomos e inteligentes (ECPAIS) (vid. Comunicado de prensa, IEEE, IEEE Launches Ethics Certification Program for Autonomous and Intelligent Systems (2 de octubre de 2018), https://standards.ieee.org/news/2018/ieee-launches-ecpais.html, archivado en https://perma.cc/3WBR-VJ6U). El programa ha creado especificaciones para los procesos de certificación y marcado que promueven la transparencia, la rendición de cuentas y la reducción del sesgo algorítmico en los sistemas autónomos e inteligentes.

Inteligencia artificial (Umbrales éticos, Derecho y Administraciones Públicas)

Подняться наверх