Читать книгу Inteligencia artificial y administración tributaria: eficiencia administrativa y defensa de los derechos de los contribuyentes - Fernando Serrano Antón - Страница 11
6. INTELIGENCIA ARTIFICIAL, JUSTICIA TRIBUTARIA Y SESGO
ОглавлениеEl Derecho Tributario está integrado por un conjunto de normas investidas de fuerza para garantizar su cumplimiento. Pero esta fuerza ha de ser justa.
Así lo establece la propia Constitución Española:
Art.31.1. Todos contribuirán al sostenimiento de los gastos públicos de acuerdo con su capacidad económica mediante un sistema tributario justo inspirado en los principios de igualdad y progresividad que, en ningún caso, tendrá alcance confiscatorio.
La justicia tributaria tiene dos dimensiones:
• Tratar de la misma forma a quienes tengan la misma situación.
• Tratar de forma desigual a quienes no la tengan, basándose en su capacidad económica y con un criterio de graduación progresiva.
Si no respeta la dimensión de la igualdad, se estará incurriendo en un supuesto de sesgo.
La aplicación de la inteligencia artificial como soporte de la actividad administrativa ha de evitar cualquier supuesto de desviación del principio de igualdad.
La Real Academia Española define al sesgo como “Error sistemático en el que se puede incurrir cuando, al hacer muestreos o ensayos, se seleccionan o favorecen unas respuestas frente a otras”. Pero ¿cómo puede ocasionar sesgo el uso de la inteligencia artificial?
En los sistemas basados en reglas (SBR) el riesgo de sesgo procede de las reglas que hayan establecido los expertos. Aquí la IA no introduce ningún factor de riesgo adicional, al que se produce cuando se actúa sin ella. En todo caso, podría argumentarse que, al haberse codificado la regla sesgada del experto en un programa, el problema se extiende a todos los supuestos de hecho que trate el programa. Pero el origen del problema no está en la inteligencia artificial.
Cosa distinta sucede con los sistemas basados en casos pasados (SBC).
Los sesgos que afectan al uso de la inteligencia artificial, en estos casos, pueden estar en los datos utilizados para realizar el entrenamiento y en los propios algoritmos.
Los algoritmos son abstractos. Utilizan variables, pero no identifican el significado que tienen las variables que utilizan. Pueden tener errores de diseño que producirían una predicción equivocada. La predicción errónea podría ser motivo de error del tipo sesgado si producen discriminación subjetiva, ya sea favorable o desfavorable, en determinado tipo de personas. Al tomar en consideración sus características subjetivas como variables a procesar, y en la medida que el algoritmo tuviera errores, produciría conclusiones erróneas.
En la práctica cuando los científicos de datos construyen modelos de inteligencia artificial no desarrollan el algoritmo. Utilizan alguno, de los que ha sido desarrollado por la industria o por las universidades. Son algoritmos de uso general, por lo que han sido verificados por la comunidad de usuarios que los utiliza. Caso de haberse detectado errores, la propia comunidad los hubiera puesto de manifiesto.
La imagen siguiente muestra algunos de estos algoritmos, que está disponibles para su uso por los científicos de datos.
Es poco probable, por lo tanto, que haya riesgo de sesgo en los algoritmos, que sirven para la construcción de los modelos de inteligencia artificial.
El segundo factor de riesgo lo constituyen los datos, con los que se entrenan los modelos. Estos datos deben representar todos los casos posibles. Además, a los casos que se utilizan para el entrenamiento es necesario clasificarlos como positivos o negativos en función del resultado observado en el pasado.
Si los datos de entrenamiento no representan la población, tanto para los casos positivos o para los casos negativos, el entrenamiento será incompleto. La aplicación del modelo a otros casos dará un resultado no fiable y por tanto puede incurrir en supuestos de sesgo.
En el caso de que la predicción del modelo no suponga una actuación automatizada, sino que sea una mera propuesta a revisar, la propia revisión detectará que los resultados obtenidos no coinciden con los esperados. Supóngase que el modelo asigna una probabilidad de que una factura sea falsa. El resultado de la actividad inspectora será la que determine finalmente si la estimación ha sido correcta. Este análisis permitirá detectar supuestos en los que el modelo esté sesgado, por ejemplo, al no haber sido entrenado con los casos suficientes, que representen la población de los casos positivos o de los negativos.
El riesgo es mayor cuando el resultado del modelo suponga la ejecución de una decisión: Por ejemplo, se concede un aplazamiento a partir de un modelo entrenado con casos pasados, estimándose la probabilidad de que el deudor pueda hacer frente a las obligaciones futuras de pago.
El sesgo puede producir una discriminación injustificada por condiciones o circunstancias personales o sociales, incumpliéndose lo prescrito en el artículo 14 de la Constitución Española: Los españoles son iguales ante la ley, sin que pueda prevalecer discriminación alguna por razón de nacimiento, raza, sexo, religión, opinión o cualquier otra condición o circunstancia personal o social.
Las razones pueden ser debidas a que el modelo ha seleccionado indebidamente este tipo de variables al no haber dispuesto de suficientes casos pasados. Esto puede haber asignado a este tipo de variables mayor peso que el que debiera.
IBM ha aplicado la propia inteligencia artificial para detectar si un modelo de inteligencia artificial incurre en sesgo. El producto se denomina Open Scale. Se expone un ejemplo para ilustrar su funcionamiento. Supóngase que se va a evaluar si el modelo entrenado tiene sesgo respecto al sexo de la persona que solicita el aplazamiento.
IBM Watson OpenScale utiliza las predicciones realizadas por el modelo. Supóngase que el modelo propone la denegación de la concesión del aplazamiento a una mujer. Se repite, ahora, la estimación cambiando el valor Mujer por Hombre. Si el resultado cambiara, Open Scale consideraría que el modelo está sesgado. Utilizando está información Open Scale reajustaría el modelo para corregir esta desviación. Para ello introduciría nuevos casos para el entrenamiento con las mismas variables empleadas para la evaluación de la solicitud de la mujer, pero con el resultado estimado para hombre. Es decir, consideraría la revaluación de la estimación realizada como un caso pasado para reajustar el proceso de entrenamiento.