Читать книгу Retos del mercado financiero digital - Belén Andrés Segovia - Страница 24

X. A MODO DE CONCLUSIÓN

Оглавление

El Derecho desempeña un papel fundamental en el uso y desarrollo de la IA. Las leyes establecen reglas y normas de comportamiento vinculantes para asegurar el bienestar social y proteger los derechos individuales, y pueden ayudarnos a obtener los beneficios de esta tecnología mientras minimizamos sus riesgos, que son significativos. La IA ha estado involucrada en caídas repentinas en el mercado de valores, en el cibercrimen y en la manipulación social y política por medio de las fake news. Famosos tecnólogos como Elon Musk y académicos como Stephen Hawking han llegado a argumentar que la IA puede condenar a la raza humana. Sin embargo, la mayoría de las preocupaciones se centran en problemas más prácticos y a corto plazo, como el desempleo tecnológico, la discriminación y la seguridad.

Aunque se reconocen ampliamente los riesgos y beneficios de la IA, hay poco consenso sobre la mejor manera de regularla y los ordenamientos jurídicos de todo el mundo se enfrentan a las medidas que deben adoptarse. Ya existe una importante división internacional en cuanto al modo en que la IA puede utilizarse en la vigilancia estatal de sus residentes, cómo abordar el problema de la posesión de los datos personales vitales para el desarrollo de la IA, así como en qué medida los ciudadanos tienen derecho a una explicación de las decisiones íntegramente adoptadas por la IA (que van desde la aprobación del crédito hasta la concesión de la libertad condicional).

A mi juicio, es ilusorio esperar que la IA encaje perfectamente en las normas existentes, pero las normas jurídicas diseñadas para regular el comportamiento de los actores humanos a menudo tienen consecuencias involuntarias y negativas una vez que las máquinas empiezan a actuar como personas. A pesar de ello, las leyes reguladoras de la IA están tardado en desarrollarse, debido en parte a la preocupación de que un entorno regulador excesivamente gravoso impida la innovación. Sin embargo, la IA ya está sujeta a las normas vigentes que regulan cuestiones como la protección de datos, la seguridad física y lógica y la competencia desleal. Lo que se necesita no es necesariamente más o menos regulación, sino la regulación correcta.

Y es que prácticamente todo lo que se ha presentado hasta la fecha, todas las iniciativas, tanto de la Unión Europea, como de los Estados miembros, se mueve en el plano de la ética, pero las directrices éticas no son vinculantes y no crean obligaciones jurídicas. Es verdad que algunos de los requisitos que contienen están ya en vigor en las normas de protección de datos, en las normas de seguridad industrial europea, en las normas de protección al medio ambiente…, pero no todos los requisitos tienen una traducción jurídica. Por ello, ante este escenario creo que lo urgente y prioritario es reivindicar el papel del Derecho. No cabe admitir la supremacía de la Ética sobre el Derecho. De lo contrario acabaríamos sustituyendo el papel de los parlamentos democráticamente elegidos por otros actores que no gozan de esta legitimación. Pues entonces, ¿quién debe fijar lo que constituye una “norma” ética?

Además, todas estas iniciativas tienen un defecto fundamental más allá de que no existe una jerarquía de los principios, que es que no tienen ningún mecanismo de supervisión regulatoria para asegurar su aplicación. Todas estas iniciativas no establecen mecanismos para garantizar y hacer cumplir sus compromisos. Ya hemos visto con algún actor tecnológico muy relevante lo que ha sucedido con su comité de ética, que no ha durado ¡ni tres meses! Además, gigantes tecnológicos chinos han declarado que no van a constituir comités de ética.

Otros autores también advierten sobre el riesgo de que la industria tecnológica financie y lidere el debate ético sobre algoritmos y sistemas automatizados de toma de decisiones. En fin, la falta de normas jurídicas plantea la cuestión de la inexistencia de habilitación de los organismos o autoridades públicos para supervisar la aplicación de las directrices éticas de la UE.

Ahora bien, cuando se redactan normas para los sistemas de IA, las voces de las empresas deben seguir siendo contribuyentes, sin duda muy relevantes, pero no legisladores. Las compañías tecnológicas pueden estar bien posicionadas para diseñar reglas debido a su experiencia en la materia, pero los actores de la industria rara vez están en la mejor posición para evaluar adecuadamente los riesgos democráticos, morales y éticos. La historia muestra lo que puede suceder si los Estados se retiran y dejan que las empresas privadas establezcan sus propias normas reguladoras.

Además, sin un marco unificado, un exceso de comités de ética privados también podría conducir a la existencia de demasiados conjuntos de “normas”. Sería caótico y peligroso que cada gran empresa tuviera su propio código para la IA, al igual que si cada ciudadano privado pudiera establecer sus propios estatutos legales. Sólo los Estados tienen el poder y el mandato de asegurar un sistema justo que imponga este tipo de adhesión en todos los ámbitos. Por eso los Estados son soberanos, tienen parlamentos y un poder judicial.

Por todo ello, cada vez son mayores las voces que piden una mayor intervención por parte de las autoridades públicas para influir en el desarrollo y la aplicación de estas iniciativas. Es verdad que la regulación no es sencilla, ni se limita a un solo cambio jurídico mágico, como por ejemplo la concesión a la IA de una personalidad jurídica similar a la de una sociedad mercantil, que vaya a resolver los problemas en todas las ramas del Derecho, por lo que es necesario realizar la difícil labor de analizar las consecuencias de la IA en los diferentes entornos.

Concluyo mi ponencia reivindicando el papel de los juristas, que debemos estar presentes desde el minuto cero en los desarrollos de la inteligencia artificial (Lay by default and by design), desarrollos que tienen que abordarse en un equipo interdisciplinar de profesionales.

1. Para una referencia bibliográfica in extenso, me remito a dos obras mías recientes: BARRIO ANDRÉS, M., Manual de Derecho digital, Tirant lo Blanch, Valencia, 2020 y BARRIO ANDRÉS M. (dir.), Derecho de los Robots, Wolters Kluwer, Madrid, 2019, 2ª edición. También es fundamental el trabajo de VIDA FERNÁNDEZ, J.: «Los retos de la regulación de la inteligencia artificial: algunas aportaciones desde la perspectiva europea», en DE LA QUADRA-SALCEDO Y FERNÁNDEZ DEL CASTILLO, T. y PIÑAR MAÑAS, J.L. (dirs.), Sociedad digital y Derecho, Boletín Oficial del Estado, Madrid, 2018.

2. BARRIO ANDRÉS M. (dir.), Legal Tech. La transformación digital de la abogacía, Wolters Kluwer, Madrid, 2019. También, HARTUNG, M. et al., Legal Tech: A Practitioner’s Guide. Editorial Nomos Verlagsges, MBH, Berlín, 2018.

3. GARCÍA-PRIETO CUESTA, J., «¿Qué es un robot», en BARRIO ANDRÉS M. (dir.), Derecho de los Robots, Wolters Kluwer, Madrid, 2019, 2ª edición, pp. 50 y ss.

4. COM(2020) 65 final.

5. (2020/2015(INI)).

6. (2020/2014(INL)).

7. (2020/2012(INL)).

Retos del mercado financiero digital

Подняться наверх