Читать книгу Inteligencia artificial y administración tributaria: eficiencia administrativa y defensa de los derechos de los contribuyentes - Fernando Serrano Antón - Страница 18
1.3. LÍMITES GENÉRICOS AL USO DE INTELIGENCIA ARTIFICIAL POR LA ADMINISTRACIÓN TRIBUTARIA: RESPETO DE LOS DERECHOS Y GARANTÍAS DE LOS OBLIGADOS TRIBUTARIOS
ОглавлениеLa economía, la eficacia y la eficiencia de los procedimientos tributarios que favorece el empleo de IA no puede menoscabar en modo alguno el pleno sometimiento de la actuación de la Administración tributaria española a la ley y al Derecho, tal y como le exige el artículo 103.1 CE. Por consiguiente, el exquisito respeto de la ley y del Derecho constituye un límite genérico infranqueable al empleo de IA en los procedimientos de gestión tributaria, de inspección tributaria, de recaudación tributaria, de imposición de sanciones tributarias y de revisión en vía administrativa de actos administrativos y actuaciones tributarias.
A la hora de concretar este límite, el artículo 3.2 de la Ley 58/2003, de 17 de diciembre, General Tributaria («LGT», en lo sucesivo), ofrece un todavía genérico pero relevante punto de partida: «La aplicación del sistema tributario se basará en los principios de proporcionalidad, eficacia y limitación de costes indirectos derivados del cumplimiento de obligaciones formales y asegurará el respeto de los derechos y garantías de los obligados tributarios».
No se puede dudar, por tanto, de que el respeto de los derechos y de las garantías de los obligados tributarios limita el empleo de tecnologías de IA en los procedimientos tributarios, cosa distinta es si los que tienen reconocidos son o no son suficientes para protegerles contra los riesgos de estas tecnologías de IA13, de entre los que cabe destacar tres, en sintonía con el acertado análisis que realiza González de Frutos14:
En primer lugar, la pérdida de privacidad, como consecuencia del incentivo que existe en la Administración tributaria para incorporar información “no estructurada” con trascendencia tributaria (extraída de redes sociales, de dispositivos y sistemas conectados, de plataformas y servicios digitales…), que complete y sobre todo permita el contraste con la información tributaria “estructurada” en su poder.
En segundo lugar, la discriminación algorítmica, como consecuencia de los sesgos introducidos por el diseño del algoritmo o de los producidos por su funcionamiento, que pueden derivar en categorizaciones de obligados tributarios o en decisiones sobre obligados tributarios injustificables conforme al principio de igualdad en la aplicación de la ley y, por ende, discriminatorias y arbitrarias.
En tercer y último lugar, la opacidad, sea por el propio funcionamiento del algoritmo cuando se basa en el Machine learning o en el Deep learning, pues incorpora reglas de decisión dinámicas que llegan a convertirse en un mecanismo de Black box, donde se ignora cuál es el exacto proceso de decisión; sea por el interés de los diseñadores en proteger su propiedad intelectual e industrial, o sea por el interés de la Administración tributaria en garantizar la confidencialidad del proceso de decisión con el fin de impedir que su conocimiento por los obligados tributarios les permita eludir el exacto y puntual cumplimiento de sus obligaciones.
Es necesario realizar dos precisiones para comprender cabalmente las posibilidades del empleo de IA en los procedimientos tributarios y, por ende, para concretar sus límites:
La primera precisión es que la Administración tributaria podría y puede emplear tecnologías de IA antes del inicio del procedimiento tributario, para decidir, por ejemplo, qué concretos obligados tributarios serán sometidos a una actuación de comprobación e investigación por ser mayor para ellos la probabilidad de que hayan cometido fraude fiscal; durante el procedimiento tributario, para decidir, por ejemplo, sobre la eventual adopción de una medida cautelar o sobre la eventual solicitud de un determinado informe técnico, y en la terminación del procedimiento tributario, para permitir una fundamentación más precisa y completa de la resolución con la que finalice o para dictar de forma automatizada o semiautomatizada dicha resolución.
La segunda precisión es que no es lo mismo el empleo de IA por la Administración tributaria como simple instrumento de apoyo a la decisión que como instrumento de decisión automatizada o semiautomatizada, porque no tiene la misma relevancia, verbigracia, desconocer cuál es el exacto proceso de decisión del algoritmo cuando sólo sirve de apoyo para decidir que cuando da lugar a una decisión automatizada.
Hasta la fecha se puede calificar como decepcionante, al igual que la califica Boix Palop15, la respuesta ofrecida por el ordenamiento jurídico español y de la Unión Europea en cuanto al establecimiento de garantías suficientes para proteger a los ciudadanos frente al empleo de algoritmos y programas informáticos por las Administraciones públicas. La respuesta del ordenamiento jurídico español lo es porque ha ido eliminando paulatinamente las genéricas cautelas y previsiones que existían en una visión posibilista y cortoplacista16, como agudamente la tilda el mencionado autor, al constatar que podían comprometer la evolución tecnológica de las Administraciones públicas. La reacción del ordenamiento jurídico de la Unión Europea es también decepcionante porque se ha vehiculado, como el mismo autor destaca, únicamente a través de las normas sobre protección de datos personales, obviando que, en la medida que los ciudadanos no tienen opción de sustraerse a sus efectos, las normas que regulan el uso de algoritmos por las Administraciones públicas para adoptar decisiones deben ser diferentes y más garantistas que las estrictamente derivadas de las normas en materia de protección de datos, que además se refieren sólo a una de las cuestiones implicadas en el empleo de tecnologías de IA.
Sostiene Boix Palop la sugerente posibilidad de considerar como reglamentos a los algoritmos empleados para adoptar decisiones administrativas o como apoyo esencial de las mismas, en tanto que, a su juicio, cumplen una función materialmente equivalente a aquellos, y, por ende, la necesidad de que sean revestidos de las mismas garantías decantadas para el ejercicio de la potestad reglamentaria17, que van más allá, como es bien sabido, de la reclamada garantía de publicidad de los algoritmos empleados y su código fuente y de los programas informáticos empleados por la Administración, hoy ni siquiera asegurada, porque esa consideración habilitaría el derecho a recurrir las bases de programación en abstracto –recurso contencioso-administrativo directo– o en relación con un resultado concreto de su aplicación –recurso contencioso-administrativo indirecto–18.
No mejora el negativo diagnóstico expuesto cuando se examinan, en particular, las garantías de los obligados tributarios frente al empleo de tecnologías de IA por la Administración tributaria española, donde las posiciones doctrinales oscilan entre la necesidad de reconocerles nuevos derechos, como por ejemplo sugiere Bilbao Estrada19 (derecho de acceso inmediato a todos los datos fiscales en poder de la Administración tributaria y derecho de rectificación de los provenientes de información “no estructurada”; derecho a la información relevante sobre el algoritmo en la comunicación de inicio de los procedimientos de gestión e inspección; derecho a una motivación reforzada, y derecho al error), y la imperiosa necesidad de reforzar los existentes (del derecho a la defensa, a través de la transparencia de las Administraciones tributarias, y del derecho a la motivación de los actos administrativos tributarios, mediante una mayor precisión y mejor fundamentación), como verbigracia destaca García-Herrera Blanco20. En todo caso, la intervención del legislador resulta muy necesaria, si no se la quiere calificar como inevitable, y al hacerlo debería prestar atención prioritaria a los límites que imponen los derechos fundamentales de los obligados tributarios al empleo de IA por la Administración tributaria.