Читать книгу Prueba Digital - Gastón Andres Navarro - Страница 9
Presentación ¿Puede la Inteligencia Artificial predecir si tengo razón o no en un juicio?
ОглавлениеPor Horacio R. Granero (*)
Cualquier cosa que insista en las importantes repercusiones de la tecnología en el mundo real, y las responsabilidades de sus creadores con respecto a ellas, seguramente será bienvenida en una época en que los sistemas automatizados están implicados en todas las facetas de la existencia humana, sin embargo, cuando se trata de las formas en que se discuten los códigos de ética de la IA, existe una tendencia preocupante incluso cuando el mundo despierta a la importancia de este campo.
Los tecnólogos creen que los desafíos éticos de la IA se pueden resolver escribiendo códigos, pero los desafíos son mucho más complejos. Esta es la creencia de que los códigos de IA son recetas para automatizar la ética misma; y que una vez que se haya alcanzado un amplio consenso en torno a dichos códigos, el problema de determinar una dirección futura éticamente positiva para el código informático habrá comenzado a resolverse.
Pero… no existe un conjunto de principios éticos que puedan justificarse racionalmente de una manera que cada ser racional acepte. Si bien existe una convergencia global emergente en torno a cinco principios éticos (transparencia, justicia y equidad, no maleficencia, responsabilidad y privacidad), queda sin considerar la divergencia sustancial en relación con la forma en que se interpretan estos principios, por qué se consideran importantes, a qué tema, dominio o actores pertenecen, y cómo deben implementarse.
Los códigos éticos son mucho menos parecidos a código de computadora que lo que sus creadores podrían desear. No son tanto conjuntos de instrucciones como aspiraciones, formuladas en términos que generan más preguntas de las que responden y este problema no va a desaparecer, en gran parte porque no existe un conjunto único de principios éticos que puedan justificarse racionalmente de una manera que cada ser racional acepte.
Quizás el mito más revelador de nuestro tiempo es el de la súper inteligencia de máquinas, cuya promesa convierte simultáneamente la ética de la inteligencia artificial en un enfrentamiento con amenazas existenciales y un proceso de diseño destinado a desterrar la sinrazón humana.
¿Puede un programa de inteligencia artificial determinar si tengo razón o no en un juicio? ¿La justicia predictiva es posible?
Hasta hace algunos años, intentar predecir cómo un juez podría fallar en un caso, requería encontrárselo muchas veces en la corte o buscar consejos de colegas sobre qué argumentos el juez encontraba persuasivos.
Un antecedente de las empresas de “legal analytics” sería Lex Machina (1) (ahora propiedad de LexisNexis) que permite a las empresas y a sus abogados estimar sus chances de ganar un caso tan pronto como son notificadas de la demanda. Para realizar estos cálculos, usan diversa información como cuántas veces el abogado de la otra parte presentó ciertos tipos de casos, en qué tribunal, con qué tasa de éxito, a quiénes representaron y a qué abogados se enfrentaron. Una vez que un juez ha sido asignado al caso, las compañías de legal analytics proporcionan estadísticas sobre su desempeño. Lex Machina, surgió en la Facultad de Derecho de Stanford, empezó con litigios de propiedad intelectual. Una vez que tuvo acceso a la gran base de datos de LexisNexis, se expandió a otras áreas de la ley de alto volumen de casos como empleo, impuestos, negligencia médica, seguros y quiebras.
Muchos abogados comerciales de Estados Unidos establecieron alertas en el sistema electrónico de registros judiciales, que como Pacer (2), les avisa cuando se presenta una nueva demanda contra una empresa de su área. Pocos minutos después de que aparece el alerta, el equipo legal de la empresa demandada empieza a recibir llamadas de abogados que se ofrecen para defender a la compañía.
A medida que se extienden los casos de uso del legal analytics, también surgen más empresas para satisfacer la demanda. Entre ellas se encuentra Premonition (3) con sede en Nueva York, que provee datos sobre el historial de litigios de jueces, abogados y bufetes de abogados, incluidas las tasas de victorias / derrotas para juicios en comparación con los competidores, las tasas de éxito de diferentes tipos de demanda en tribunales individuales y una base de datos de quien demanda y quien es demandado con mayor frecuencia.
Law Litigation Analytics (4) y Gavelytics (5) ofrecen un servicio similar. Empresas como Casetex (6) y Judicata (7) ofrecen un análisis en profundidad de los documentos legales más relevantes para el caso en que un abogado está trabajando, como casos similares presentados por otras firmas, el historial de casos relevantes y las citas de los jueces.
En la Argentina se desarrolló Sherlock-Legal, el programa de inteligencia artificial de Albrematica SA, empresa editora de elDial.com, que analiza a través del procesamiento con lenguaje natural fallos de tribunales argentinos en general en base a preguntas formuladas por sus clientes el software produce una lista de casos más procedentes, citas relevantes y una evaluación en términos porcentuales de las probabilidades de ganar o perder del cliente manifestando, a criterio del programa que, a su vez, se basa en algoritmos desarrollados en base a los datos de jurisprudencia, si le pregunta del solicitante es positiva o negativa. A través de una interfaz gráfica dinámica, intuitiva y muy sencilla de utilizar se efectúan las preguntas por parte del usuario, las que mediante algoritmos diversos se analizan sintáctica, gramática y pragmáticamente y se interpretan con el fin de encontrar en primer lugar, dentro de los sumarios de los fallos de la base, aquellos fragmentos relacionados que considera más relevantes.
Sherlock despliega un grupo de las distintas respuestas que considera pertinentes, generándose gráficos que indican los porcentajes de aceptación o rechazo y dando, finalmente, su opinión en forma automática sobre la probabilidad que ésta sea afirmativa o negativa con relación a la consulta efectuada. Por último, al desear consultar cada uno de los resultados, se despliegan los fragmentos más relevantes y la opción de visualizar el texto completo del sumario y el fallo completo, siendo posible calificar tanto si la respuesta se considera pertinente y si el algoritmo clasificó correctamente el precedente judicial mostrado. De esa forma Sherlock va aprendiendo de los errores y aciertos que comete, completando el entrenamiento de la herramienta para la obtención de mejores respuestas. El programa cuenta con un historial de preguntas realizadas para poder reiterar alguna consulta anterior y un tutorial para guiar al usuario en la obtención de la respuesta correcta. Desde el punto de vista técnico, el problema a resolver por el equipo de desarrollo consistió principalmente en generar una herramienta que responda relacionando preguntas realizadas en lenguaje natural con parte de los textos jurídicos de la base de datos, razón por lo que se optó por un modelo de Question Answering (QA) para un dominio cerrado. La respuesta “larga” serían los textos relacionados dentro del sumario y la respuesta “corta” -en el caso de las preguntas fácticas- es ésta era “si” o “no, según el caso, teniendo presente que, en el caso en análisis, una diferencia fundamental con el modelo de QA es que en el ámbito jurídico a una pregunta dada puede haber más de una respuesta, tanto sea en el caso de la “larga” como de la “corta”.
El programa, se resume a dos módulos, buscando hallar sumarios pertinentes con la pregunta realizada (problema de la pertinencia) y luego hallar el/los párrafos dentro de los sumarios pertinentes que directa o indirectamente mejor respondan se busca dar una respuesta a la pregunta realizada, analizando si ésta es por “si” o por “no”. En el primer Módulo, con relación al problema de la pertinencia que realiza en primer lugar un análisis sintáctico de la pregunta realizada y luego el programa se queda con los lemas y entidades. Posteriormente se obtienen las raíces de la palabras, se quitan los stopwords y se busca en la base de fallos utilizando un modelo de Bag of words (Bag of N-grams words) o sea vectores de ocurrencia de las palabras/N-gramas de dimensión n que forman matrices para todos los sumarios y TF-IDF (Term frequency – Inverse document frequency), técnica de recuperación de información que pesa la frecuencia de un término (TF) y su frecuencia de documento inversa (IDF). Cada palabra o término tiene su respectivo puntaje TF e IDF y el producto de los puntajes TF e IDF de un término se lo considera el peso TF * IDF de ese término. En un paso siguiente se utilizan criterios de similitud para encontrar documentos similares como el criterio del coseno (utilizando los vectores creados para los documentos se aplica el teorema del coseno resultando una nueva matriz) y se generan distintos escenarios para la pregunta, verificándose los resultados contra un modelo entrenado por Naive Bayes si la lista de documentos resultante es la más pertinente. En el segundo Módulo, con respecto al problema de la respuesta se recibe en primer lugar la pregunta junto con los ids de los documentos que fueron previamente pre-procesados, se analizan los documentos, buscando el/los fragmento/s que más se acerquen a la respuesta, se analiza, en el caso de preguntas fácticas si el/los fragmentos seleccionados responden por “si” o por “no” y para una aproximación sintáctica (resolver oraciones en voz pasiva y oraciones subordinadas) se pre procesa el texto y se lo divide en párrafos (que permite resolución de anáforas) para luego dividirlo en sentencias y finalmente se construyó una representación sintáctica en forma de árbol y se consideran las respuestas todas por “si” y se busca la negación para las respuestas por “no”. Sherlock-Legal se presenta también como una función adicional del buscador tradicional de elDial.com que permite al usuario la posibilidad de conseguir antecedentes judiciales similares al elegido como más pertinente, ampliando así la búsqueda en forma automática a casos que, aplicando inteligencia artificial, considera más relevantes. El sistema es aplicable a jurisprudencia o cualquier base de datos sea de índole legislativa o documental en general. (8)
En setiembre de 2020 el equipo de I+D de Albrematica comenzó a analizar la mejora de la performance en las respuestas y para ello implementó una etapa en la que se encuentra investigando los desarrollo en NLU y NLP, principalmente en el método BERT -que básicamente implica entrenar una red neuronal para aprender “lenguaje”, y luego esta red se usa como una columna vertebral para realizar diversas tareas de NLP- y en GPT-3
Lo que lo hizo revolucionario a BERT fue el hecho de que fue la primera representación de lenguaje profundamente bidireccional, lo que significa que miró las palabras después de una palabra dada, no solo las palabras anteriores. Esto, se cree, es lo que lo hace superior a las representaciones unidireccionales. Además, su arquitectura está basada en transformadores, lo que le ayuda a ponderar el contexto en el que aparece una palabra en una oración. Todos estos factores combinados explican su éxito de alguna manera.
Ahora bien, en comparación con BERT, la arquitectura tradicional agnóstica de tareas que requiere decenas de miles de ejemplos específicos de tareas para ajustar una tarea posterior, GPT-3 permite realizar una nueva tarea (clasificación, respuesta a preguntas, traducción, razonamiento y muchas otras) a partir de solo unos pocos ejemplos o instrucciones sin ajustes precisos. Esta es una gran ventaja sobre otros modelos de lenguaje convencionales como BERT, ELMO, XLM.
Al enviar el mensaje de texto, la API GPT-3 devolverá la finalización, intentando hacer coincidir el patrón que le dio en los ejemplos. Hace que el modelo de vanguardia sea más accesible para los desarrolladores para explorar posibles casos de uso y reduce significativamente la barrera de adoptar inteligencia artificial / PNL. Los desarrolladores ya no necesitan gastar esfuerzos adicionales en adquirir conjuntos de datos específicos de tareas, dominar el complicado proceso de ML y ajuste fino, y manejar la infraestructura de ML. El cambio de paradigma proviene de 3 ángulos diferentes para los posibles cambios con el debut o la era de AIAS (AI as A Service).
En noviembre 2021 Albrematica obtuvo de OPEN AI la autorización para efectuar pruebas de GPT-3 en su plataforma, avocándose el equipo técnico a su inmediato análisis, arribando a resultados auspiciosos por las capacidades predictivas demostradas hasta el momento de la herramienta. Se efectuaron pruebas con los diversos “engines” provistos para la prueba (Da Vinci, Ada, Babbage) y se aplicaron diversas “temperaturas” (profundidad) a las búsquedas para las mismas preguntas, con resultados igualmente favorables, especialmente en la función Q&A.
Los defensores de legal analytics insisten en que es solo cuestión de tiempo antes de que haya conjuntos de datos masivos para cubrir amplias áreas de la ley. Y afirman que esto conducirá a un mejor sistema de justicia. Desde mostrar qué casos son una pérdida de tiempo y dinero hasta exponer qué jueces son rebeldes y atípicos, creen que el uso de datos puede mejorar la forma en que funciona el sistema legal. Por otra parte, habría que hacer una salvedad respecto a las bases de información. Una cosa es la predicción en Estados Unidos o el Reino Unido, con bases de datos ordenadas y accesibles y un concepto jurídico y otra son los países latinos, quizás con menos historial registrado y con un concepto (y sistema) jurídico diferente.
“A medida que ampliamos nuestro conjunto de datos, esperamos que el ministerio de justicia y los reguladores vean cómo se aplica justicia en todo el país y dónde están las inconsistencias”, dice Edward Bird, director de Solomonic (9), una compañía del Reino Unido formada por un grupo de abogados comerciales y científicos de datos que intenta replicar algunos de los modelos analíticos de Estados Unidos. “Los mejores jueces en los tribunales comerciales del Reino Unido son extremadamente consistentes. Pero en casos de menor valor, es posible que uno obtenga un resultado diferente, dependiendo de quién sea el juez. Esto no debería ocurrir”. “Si finalmente llegamos a un punto en que los datos realizan la predicción, ¿esto puede generar un cortocircuito en el sistema legal?”, pregunta Bird. “¿Cómo esto afecta la posibilidad de acceso a la justicia de un demandante a quien se le dice ‘sus probabilidades de ganar no son más que este número, y la corte no revisará su caso?” (10)
Francia ha ya tomado una decisión importante sobre este tema en relación con una materia muy concreta: prohibir por ley, con penas de hasta cinco años de prisión, que se puedan realizar patrones sobre las decisiones de jueces y tribunales. En concreto, el artículo modificado establece que: “Los datos de identidad de magistrados y miembros de la judicatura no podrán ser reutilizados con el propósito o al efecto de evaluar, analizar, comprar o predecir su práctica profesional cierta o supuesta” (11). Los argumentos que parecen haber motivado esta prohibición son varios. El principal parece ser la voluntad de proteger a los jueces frente a la posibilidad de que se les acuse de tener sesgos a la hora de tomar sus decisiones y, en relación con ese mismo argumento, evitar otras prácticas indeseables como el forum shopping o incluso la recusación recurrente de un juez para la revisión de determinadas materias. Sin embargo, rápidamente han surgido otras voces que se oponen a esta prohibición con argumentos igual de consistentes como, por ejemplo, que uno de los síntomas de salud de una democracia es, precisamente, la posibilidad de auditar el comportamiento de las instituciones públicas o que, mediante dicha prohibición, se limitan los derechos de defensa de los individuos.
Como se puede comprobar, tanto los argumentos a favor, como en contra, versan sobre principios o valores fundamentales de un Estado democrático y de derecho que, como tales, son los pilares de la convivencia de las sociedades modernas. Por este motivo no es difícil conjeturar que el asunto será objeto de una profunda discusión y no es descartable que, incluso, sea objeto de revisión por el tribunal constitucional francés.
Las nuevas tecnologías ofrecen grandes posibilidades de cambio, pero, en nuestra mano está, como sociedad, luchar porque dicho cambio sea sólo para bien y que, como individuos, salgamos de este debate reforzados y con mayor protección de nuestros derechos, nunca al revés. (12)
El principio de precaución es, quizás, la respuesta a estas preguntas. La incertidumbre que rodea aún a la posibilidad de replicar una consciencia humana y una empatía emocional equivalente en la inteligencia artificial nos llevaría a proponer la aplicación jurídica del principio de precaución para prevenir los graves riesgos con los que nos enfrentamos (máquinas adoptando decisiones automatizadas discrecionales que eventualmente afectan a derechos de humanos).
El Código de conducta ética para los ingenieros en robótica anexo a la Resolución del Parlamento Europeo, de 16 de febrero de 2017, con recomendaciones destinadas a la Comisión sobre normas de Derecho civil sobre robótica (2015/2103 -INL-) incorpora entre otros el principio de precaución según el cual “Las actividades de investigación en el ámbito de la robótica deben llevarse a cabo de conformidad con el principio de precaución, anticipándose a los posibles impactos de sus resultados sobre la seguridad y adoptando las precauciones debidas, en función del nivel de protección, al tiempo que se fomenta el progreso en beneficio de la sociedad y del medio ambiente”. (13)
Algo similar ocurre actualmente con la decisión que se encuentra a estudio de la Unión Europea con respecto al reconocimiento facial por inteligencia artificial, que está siendo cada vez más utilizado en todo tipo de escenarios, por los eventuales ataques de invasión a la privacidad, y en un documento de 18 páginas plantea una directiva según la cual la Unión Europea estaría a punto de anunciar la prohibición de sistemas de reconocimiento facial en áreas públicas durante los próximos años. Esa prohibición podría ir de los tres a los cinco años, y durante ese tiempo “se podría identificar y desarrollar una metodología sólida para evaluar los impactos de esta tecnología y las posibles medidas de gestión de riesgos”. El documento plantea excepciones como proyectos relacionados con la seguridad o la investigación y desarrollo en este ámbito.
También se tiene en cuenta la imposición de ciertos requisitos a desarrolladores y usuarios de la inteligencia artificial, además de la puesta en escena de responsables de la UE que se encarguen de monitorizar el seguimiento de la normativa. (14)
En forma analógica, un antecedente del tema tiene relación con lo ocurrido con la torre de perforación Deepwater Horizon, de la firma suiza Transocean Ltd. y alquilada por la empresa transnacional British Petroleum (BP), estalló y se incendió el 20 de abril 2010 frente a las costas del sudoriental estado estadounidense de Louisiana en Estados Unidos, y se hundió dos días después. La tragedia dejó 11 trabajadores desaparecidos y 17 lesionados. La negra mancha, que tocó tierra el jueves en Louisiana, ya superó los 9.000 kilómetros cuadrados y amenaza con convertirse en el peor desastre ecológico en América del Norte. El pozo abierto y la instalación rota liberaron unos 5.000 barriles (800.000 litros) diarios generando un desastre ecológico de alcances extraordinarios ante la imposibilidad de solucionar de inmediato un perjuicio generado por un daño producido a una profundidad que era casi imposible repararlo. La reacción no se hizo esperar, el gobierno norteamericano prohibió a las plataformas submarinas a perforar pozos petroleros a una profundidad mayor de la que eran capaces de reparar los daños que eventualmente pudiera producirse. (15)
El Parlamento Europeo ha instado el 23 de enero 2020 a la Comisión Europea a que examine si es necesario adoptar medidas adicionales para proteger a los consumidores, en una Resolución de la comisión parlamentaria de Mercado Interior por el que se solicita que aclare cómo va a garantizar que los consumidores estén protegidos ante prácticas comerciales desleales y / o discriminatorias, o de los riesgos que conllevan los servicios profesionales impulsados por la inteligencia artificial. Asimismo, tendría que garantizar una mayor transparencia en estos procesos y asegurarse de que solo se utilicen conjuntos de datos de alta calidad y sin sesgos. “Tenemos que asegurarnos de que se garantice la protección y la confianza del consumidor, que las normas de la UE sobre seguridad y responsabilidad por productos y servicios sean adecuadas para la era digital”, señaló la presidenta de la comisión de Mercado Interior del PE, Petra De Sutter. (16)
Considero prudente, por lo tanto, una regulación que impida -cuanto menos por el momento en espera de contar con más datos futuros- las decisiones totalmente automatizadas con ausencia de discrecionalidad humana a ejercer, sin perjuicio de que la inteligencia artificial pueda emplearse dese ahora como un importante apoyo en la instrucción del procedimiento antes de la decisión humana final.
Los algoritmos no son ni serán nunca fuente del Derecho como han sido siempre la norma jurídica, la costumbre, y principalmente la equidad. En el mejor de los casos, estas fuentes del Derecho luego podrán ser ejecutadas mediante el algoritmo y supervisadas, en definitiva, por un ser humano.
*- Abogado, Doctor en Ciencias Jurídicas, Profesor Emérito de la Universidad Católica Argentina. Responsable del Departamento Sherlock-Legal de Inteligencia Artificial de Albremática SA.
1- https://lexmachina.com/
2- https://pcl.uscourts.gov/pcl/index.jsf
3- https://premonition.ai/
4- https://legal.thomsonreuters.com/en/products/westlaw/edge/litigation-analytics
5- https://www.gavelytics.com/
6- https://casetext.com/
7- https://www.judicata.com/
8- http://www.albrematica.com.ar/sherlock/
9- https://www.solomonic.co.uk/
10- Citado por THOMPSON, Barney “Big data: legal firms play Moneyball”, Financial Times el 6 de febrero de 2019, https://www.ft.com/content/ca351ff6-1a4e-11e9-9e64-d150b3105d21
11- https://www.legifrance.gouv.fr/eli/loi/2019/3/23/2019-222/jo/article_33
12- https://empresas.blogthinkbig.com/ia-el-debate-sigue-pero-llegan-las-primeras-decisiones/
13- https://www.europarl.europa.eu/doceo/document/TA-8-2017-0051_ES.html
14- https://www.reasonwhy.es/actualidad/union-europea-estudia-prohibir-tecnologia-reconocimiento-facial
15- NOTAS SOBRE EL DERRAME PETROLERO EN EL GOLFO DE MÉXICO (Plataforma Deepwater Horizon) http://www.veracruz.gob.mx/finanzas/wp-content/uploads/sites/2/2019/11/Derrame-de-Petroleo-G-de-Mexico-MAYO-2010.8.ConPort.pdf
16- https://www.europarl.europa.eu/meetdocs/2014_2019/plmrep/COMMITTEES/IMCO/DV/2020/01-22/RE_1194746_EN.pdf