Читать книгу Retos del mercado financiero digital - Belén Andrés Segovia - Страница 30

2.1. El modelo de smart approach (suptech)

Оглавление

La apuesta por el smart regulation requiere de programadores en el seno de las Administraciones y el uso de aplicaciones de inteligencia artificial, entendida esta como: “sistemas de software (y en algunos casos también de hardware) diseñados por seres humanos que, dado un objetivo complejo, actúan en la dimensión física o digital mediante la percepción de su entorno a través de la obtención de datos, la interpretación de los datos estructurados o no estructurados que recopilan, el razonamiento sobre el conocimiento o el procesamiento de la información derivados de esos datos, y decidiendo la acción o acciones óptimas que deben llevar a cabo para lograr el objetivo establecido. Los sistemas de IA pueden utilizar normas simbólicas o aprender un modelo numérico; también pueden adaptar su conducta mediante el análisis del modo en que el entorno se ve afectado por sus acciones anteriores30”.

En el ámbito del sector financiero, y en especial del suptech, cabe destacar el machine learning o aprendizaje automático31 que puede entenderse como “un proceso que permite a los algoritmos extraer patrones o realizar asociaciones a partir de conjunto de datos32”. Las herramientas de maching learning son una de las manifestaciones de inteligencia artificial que en la actualidad ha surgido como una fórmula eficaz para supervisar a las entidades del mercado. Esta tecnología consiste en la gestión de gran cantidad de datos en base a algoritmos de programación. Estos pueden encontrarse “supervisados”, es decir, con reglas de aprendizaje predefinidas o “no supervisados”, “en los que el programa se diseña para que analice el conjunto de datos e identifique patrones33”. Estas herramientas poseen una gran cantidad de aplicaciones prácticas: en marketing, medicina, en recursos humanos, en asistentes virtuales, etc. En el caso de las Administraciones públicas estas aplicaciones comienzan a ser utilizadas en investigaciones policiales, por la Agencia Tributaria34 o por la Seguridad Social, aunque con su implantación no acabe de impulsarse35.

De conformidad con el informe de 202036, FSB en la actualidad estas son las herramientas de suptech usadas por las autoridades reguladoras:


Desde el punto de vista público el uso de este nuevo modelo provoca retos todavía no resueltos por el Derecho como el acceso por la Administración al código fuente (black box) sobre el que el que la Administración adopta sus decisiones sobre las entidades supervisadas, la protección de los datos personales, etc. Este nuevo esquema requiere de competencias digitales por parte del personal al servicio de las Administraciones reguladoras esenciales para una adecuada supervisión.

En el caso de los machine learning por ejemplo, que permiten analizar una cantidad significativa de información y detectar a los reguladores rápidamente riesgos posibles para el mercado o prácticas fraudulentas, tarea compleja dada la ingente cantidad de información que es exigida a las entidades supervisadas y que han de ser revisadas por las autoridades competentes. Sin embargo, uno de los riesgos ya señalados de estos sistemas de supervisión, son los propios errores del diseño del sofware37 que corresponde a un tercero, ajeno a la organización administrativa y cuyo acceso es entorpecido por la invocación de estos del derecho a la protección del derecho a la propiedad intelectual. Se produce un frontal enfrentamiento entre los intereses públicos (traducidos en garantías jurídicas), y los privados (materializados en derechos individuales). Si el regulador confía en dichos algoritmos debe acceder y monitorizar el código fuente para garantizar el respeto a la protección de datos personales, la no discriminación de ciertos colectivos, la inexistencia de lagunas, la trazabilidad de la información38 (transparencia), etc. Un exceso de confianza es enormemente peligroso dado que dichas herramientas son programadas por empresas cuyos intereses no son coincidentes con los de la Administración pública.

Desde otra perspectiva, las previsiones que arrojan estos algoritmos serán utilizados como razones de posteriores decisiones administrativas por lo que su utilización puede implicar la traslación de la función de supervisión del mercado a un algoritmo diseñado por terceros y frente al que la Administración, carente de competencias digitales, relega la motivación de sus posteriores decisiones39.

Frente a esta realidad se suman los esfuerzos por trasladar a este escenario digital las garantías públicas de todo acto administrativo, del que no pueden quedar excluidas las modalidades de Inteligencia Artificial (IA) que en materia de supervisión comienzan a ser utilizadas por las autoridades competentes. Como ha recordado el profesor MARTÍNEZ, “Desde el Derecho no podemos someter la innovación a un corsé que la asfixie. Pero tampoco podemos renunciar a un modelo democrático que pone su centro la dignidad y la libre determinación de las personas40”.

La opacidad de estos algoritmos son una dificultad para el control de sus previsiones con mayor relevancia en el caso de que esos resultados incidan en decisiones de los supervisores. Para autores como CERRILLO41 esta opacidad puede deberse a causas técnicas, jurídicas u organizativas. En el primer caso, se alude a la complejidad de los propios algoritmos y a su diseño; la segunda a la protección de estos algoritmos por derechos como la propiedad intelectual, el secreto empresarial o su confrontación con la protección de los datos personales o la seguridad pública que obstaculiza el acceso incluso para las propias administraciones. Finalmente, las cuestiones organizativas debidas, por ejemplo, a la dificultad por conocer la propia Administración el código fuente generado en ocasiones en terceros países. Al margen de estas cuestiones, el acceso al contenido del algoritmo, el conocimiento sobre su funcionamiento es fundamental para que la Administración puede basar en ella sus decisiones42. La transparencia en las decisiones de las Administraciones es una de las exigencias que se contraponen a las dificultades de acceso, abriendo con ello el debate sobre la necesidad de imponer un modelo de regulación propio para los algoritmos que garanticen esta transparencia43.

Garantías como el procedimiento adecuado44, la imposición de controles y de la necesidad de que estos sean continuos son algunas de las garantías jurídicas que se tratan de trasladar a la inteligencia artificial, pero el debate sigue abierto, aunque las bases de una futura regulación específica comienzan a dibujarse45.

El Comité de expertos de alto nivel sobre inteligencia artificial en sus Directrices de 201946 ya propuso las líneas sobre las que promover una inteligencia artificial fiable en el mercado europeo. Según este documento, la IA exige para su adecuado desarrollo e implantación una serie de caracteres: ha de ser lícita, esto es, ha de cumplir con las normas de aplicación; ha de ser ética, de modo que se garantice el respeto de los principios y valores éticos; y debe ser robusta, tanto desde el punto de vista técnico como social.

Estas directrices han sido recogidas por la EBA para el sector bancario en su informe de 202047 y más genéricamente para todo el contexto europeo en el White Paper On Artificial Intelligence – A European approach to excellence and trust48, también de este 2020. Este último documento europeo apuesta por la inclusión de valores éticos que den respuesta a la inteligencia artificial y refuercen la protección de los derechos de los consumidores, no siendo los consumidores de servicios financieros una excepción. En concreto, tras definir la inteligencia artificial y asumirla como una realidad que hay que afrontar por los poderes públicos, la Comisión incide en la necesidad de que su desarrollo no implique la vulneración de los derechos fundamentales ni de los derechos de los consumidores que pueden verse afectos por su progresiva y necesaria implantación en todos los sectores sociales, partiendo de las dificultades que en ocasiones supone acoplar la legislación actual a la nueva tecnología.

Al margen de los problemas que genera la implementación de la inteligencia artificial por las autoridades supervisoras, no puede descartarse los problemas de interoperatividad que esta genera, lo que impone recordar una de las premisas del mercado único digital: la neutralidad de la red49. Esto obliga a una importante inversión en las redes por parte de las Administraciones públicas que han de estar interconectadas con las redes europeas y que explica la escasa utilización de estas herramientas por las autoridades nacionales de supervisión.

Retos del mercado financiero digital

Подняться наверх