Читать книгу Nuevas normatividades: Inteligencia Artificial, Derecho y Género - Rafael Fernández Acevedo - Страница 42
VIII. REFERENCIAS BIBLIOGRÁFICAS
ОглавлениеAllen, R. - Masters, D., “Artificial Intelligence: the right to protection from discrimination caused by algorithms, machine learning and automated decision-making”, ERA Forum, 4, 2020, pp. 586-598.
Allhutter, D. et al, “Algorithmic profiling of job seekers in Austria: how austerity politics are made effective”, Frontiers in Big Data, 3, 2020, pp. 1-17.
Alston, P., Digital welfare states and human rights, UN Special Rapporteur on extreme poverty and human rights, report A/74/493, A/74/493, 11 de octubre de 2019.
Angwin, J. - Parris Jr., T., “Facebook lets advertisers exclude users by race”, Propublica, 2016.
Barocas, S. - Selbst, A. D., “Big data’s disparate impact”, California Law Review, vol. 104, 3, 2016, pp. 671-732.
“The intuitive appeal of explainable machines”, Fordham Law Review, vol. 87, 3, 2018, pp. 1085-1139.
Barrère Unzueta, M. A., “Problemas del derecho antidiscriminatorio: subordinación versus discriminación y acción positiva versus igualdad de oportunidades”, Cuadernos Electrónicos de Filosofía del Derecho, 9, 2003, pp. 1-26.
Barrère Unzueta, M. A. - Morondo Taramundi, D., “Subordiscriminación y discriminación interseccional: elementos para una teoría del derecho antidiscriminatorio”, Revista de Filosofía Jurídica y Política, vol. 45, 2011, pp. 15-42.
Boix Palop, A., “Los algoritmos son reglamentos: la necesidad de extender las garantías propias de las normas reglamentarias a los programas empleados por la Administración para la adopción de decisiones”, Revista de Derecho Público: Teoría y Método, vol. 1, 2020, pp. 223-270.
Bornstein, S., “Antidiscriminatory algorithms”, Alabama Law Review, vol. 70, 2, 2019, pp. 519-572.
Burrell, J., “How the machine ‘thinks’: understanding opacity in machine learning algorithms”, Big Data & Society, vol. 3, 1, 2016, pp. 1-12.
Calders, T. - Žliobaitė, I., “Why unbiased computational processes can lead to discriminative decision procedures”, Custers, B. et al., (eds.), Discrimination and privacy in the information society: data mining and profiling in large databases, Berlin, Springer, 2013, pp. 43-57.
Cath, C. - Wachter, S. - Mittelstadt, B. - Taddeo, M. - Floridi, L., “Artificial intelligence and the ‘good society’: the US, EU and UK approach”, Science and Engineering Ethics, vol. 24, 2, 2018, pp. 505-528.
Cerrillo i Martínez, A., “El impacto de la inteligencia artificial en el derecho administrativo ¿nuevos conceptos para nuevas realidades técnicas?”, Revista General de Derecho Administrativo, 50, 2019, pp. 1-38.
Citron, D. K. - Pasquale, F., “The scored society: due process for automated predictions”, Washington Law Review Online, vol. 89, 2014, pp. 1-33.
Craig, P. - De Burca, G., EU Law: Text Cases and Materials, New York, Oxford University Press, 5.ª ed., 2011.
Crawford, K., “Think again: big data”, Foreign Policy, 10th May 2013, disponible el 30 de abril de 2021 en https://foreignpolicy.com/.
Dastin, J., “Amazon scraps secret AI recruiting tool that showed bias against women”, Reuters, 10 de octubre de 2018, disponible el 15 de junio de 2021 en https://www.reuters.com/.
Datta, A. - Fredrikson, M. - Ko, G. - Mardziel, P. - Sen, S., “Proxy non-discrimination in data-driven systems: theory and experiments with machine learnt programs”, 2017, pp. 1-14, disponible el 20 de junio de 2021 en: https://arxiv.org/.
De La Cueva, J., “El derecho a no ser gobernados mediante algoritmos secretos”, cit., 2019. El Notario del Siglo XXI, 87, 2019, disponible el 12 de mayo de 2021 en https://www.elnotario.es/.
EU Agency for Fundamental Rights, Handbook on European non-discrimination law, Luxembourg, Publications Office of the European Union.
Eubanks, V., Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor, New York, St Martin’s Press, 2017.
Gellert, R. et al., “A comparative analysis of anti-discrimination and data protection legislations”, en Custers, B. et al., (eds.), Discrimination and Privacy in the Information Society: Data Mining and Profiling in large Databases, Berlin, Springer, 2013.
Grimmelmann, J. - Westreich, D., “Incomprehensible discrimination”, California Law Review Online, 7, 2017, pp. 164-177.
Hacker, P., “Teaching fairness to artificial intelligence: existing and novel strategies against algorithmic discrimination under EU law”, Common Market Law Review, vol. 55, 4, 2018, pp. 1143-1186.
Holl, J., Kernbeiß, G. - Wagner-Pinter, M., Das AMS-Arbeitsmarktchancen-Modell. Dokumentation zur Methode, 2018, disponible el 11 de mayo de 2021 en https://www.ams-forschungsnetzwerk.at/.
House of Commons Science and Technology Committee, Algorithms in decision-making, 2018.
Kaminski, M. E., “Binary governance: Lessons from the GDPR’s approach to algorithmic accountability”, Southern California Law Review, vol. 92, 6, 2019, pp. 1529-1616.
López, P., “Reinforcing Intersectional Inequality via the AMS Algorithm in Austria”, Proceedings of the STS Conference Graz (2019), pp. 289-309, disponible el 12 de mayo de 2021 en https://diglib.tugraz.at/.
Noble, S. U., Algorithms of Oppression: How Search Engines Reinforce Racism, New York, New York University Press, 2018.
Nunziato, D. C., “Gender equality: states as laboratories”, Virginia Law Review, vol. 80, 4, 1994, pp. 945-977.
OCDE, Profiling tools for early identification of jobseekers who need extra support, 2018.
O’Neil, C., Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy, London, Penguin Books, 2017.
Orofino, A. G., “The Implementation of the Transparency Principle in the Development of Electronic Administration”, European Review of Digital Administration & Law, vol. 1, 1-2, 2020, pp. 123-142.
Ponce Solé, J., “Inteligencia artificial, Derecho administrativo y reserva de humanidad: algoritmos y procedimiento administrativo debido tecnológico”, Revista General de Derecho Administrativo, 50, 2019, pp. 1-52.
Roberts, J. L., “Protecting privacy to prevent discrimination”, William & Mary Law Review, vol. 56, 6, 2015, pp. 2097-2174.
Scherer, M., “Regulating artificial intelligence systems: risks, challenges, competencies, and strategies”, Harvard Law & Technology Journal, vol. 29, 2 (2016), pp. 353-400.
Schreurs, W. - Hildebrandt, M. - Kindt, E. - Vanfleteren, M., “Cogitas, ergo sum. The role of data protection law and non-discrimination law in group profiling in the private sector” en Hildebrandt, M. - Gutwirth, S. (eds.), Profiling the European Citizen, Berlin, Springer, 2008, pp. 241-270.
Shneiderman, B., “Algorithmic Accountability: Designing for safety through human-centered independent oversight”, Turing Lecture (The Alan Turing Institute) 31 de marzo de 2017, disponible el 26 de noviembre de 2020 en https://www.youtube.com/.
Soriano Arnanz, A., “Decisiones automatizadas y discriminación: aproximación y propuestas generales”, Revista General de Derecho Administrativo, 56, 2021.
Soriano Arnanz, A. - Simó Soler, E., “Machine learning y derecho: aprendiendo la (des)igualdad”, en Barona Vilar, S., (ed.), Justicia algorítmica y neuroderecho: Una mirada multidisciplinar, Tirant lo Blanch, Valencia 2021, pp. 183-207.
Speicher, T. - Ali, M. - Venkatadri, G. - Ribeiro, F. N. - Arvanitakis, G. - Benevenuto, F. - Gummadi, K. P - Loiseau, P. - Mislove, A., “Potential for discrimination in online targeted advertising”, Proceedings of Machine Learning Research, 81, 2018, pp. 1-15.
Szigetvari, A., “Arbeitsmarktservice gibt grünes Licht für Algorithmus”, Der Standard, 17 de septiembre de 2019, disponible el 11 de mayo de 2021 en https://www.derstandard.at/.
Tobler, C., Limits and potential of the concept of indirect discrimination, Luxembourg, Publications Office of the EU, 2008.
Tutt, A., “An FDA for algorithms”, Administrative Law Review, vol. 69, 1, 2017, pp. 83-123.
UN Women, “UN Women ad series reveals widespread sexism”, 21 de octubre de 2013, disponible el 10 de junio de 2021 en http://www.unwomen.org/.
US Executive Office of the President, Artificial intelligence, automation and the economy, 2016.
Valero Torrijos, J., “The legal guarantees of artificial intelligence in administrative activity: reflections and contributions from the viewpoint of Spanish administrative law and good administration requirements”, European Review of Digital Administration & Law, vol. 1, 1-2, 2020, pp. 55-62.
Velasco Rico, C. I., “Vigilando al algoritmo. Propuestas organizativas para garantizar la transparencia”, en Puentes Cociña, B. - Quintiá Pastrana, A., (Dirs.), El Derecho ante la Transformación Digital, Barcelona, Atelier, 2019, pp. 73-89.
1.Este trabajo ha sido cofinanciado por las “Axudas para o ano 2021 para a organización de actividades que contribúan a sensibilización de valores igualitarios na Universidade de Vigo” concedida al programa “La Administración Pública frente los sesgos en la IA. Ética y transparencia en clave de género”. VIII. REFERENCIAS BIBLIOGRÁFICAS.
2.Cath, C. et al., “Artificial intelligence and the ‘good society’: the US, EU and UK approach”, Science and Engineering Ethics, vol. 24, 2, 2018, p. 506.
3.Soriano Arnanz, A., “Decisiones automatizadas y discriminación: aproximación y propuestas generales”, Revista General de Derecho Administrativo, 56, 2021.
4.Así, por ejemplo, la nueva propuesta de Reglamento Europeo en materia de Inteligencia Artificial. Ver, Comisión Europea, “Propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de Inteligencia Artificial (ley de inteligencia artificial) y se modifican determinados actos legislativos de la Unión”, Bruselas, 21.4.2021, COM (2021) 206 final, 2021/0106 (COD). Disponible el 20 de junio de 2021 en: https://eur-lex.europa.eu/.
5.Barocas, S. - Selbst, A. D., “Big data’s disparate impact”, California Law Review, vol. 104, 3, 2016, p. 681.
6.Datta, A. et al., “Proxy non-discrimination in data-driven systems: theory and experiments with machine learnt programs”, (2017), p. 1, disponible el 20 de junio de 2021 en: https://arxiv.org/.
7.Dastin, J., “Amazon scraps secret AI recruiting tool that showed bias against women”, Reuters, 10 de octubre de 2018, disponible el 15 de junio de 2021 en: https://www.reuters.com/.
8.Calders, T. - Žliobaitė, I., “Why unbiased computational processes can lead to discriminative decision procedures”, Custers, B. et al., (eds.), Discrimination and privacy in the information society: data mining and profiling in large databases, Berlin, Springer, 2013, p. 47.
9.Barocas, S. - Selbst, A. D., “Big data’s disparate impact...”, op. cit., 2016, p. 688.
10.Calders, T. - Žliobaitė, I., “Why unbiased computational processes can lead to discriminative decision procedures”, cit., 2013, p. 47.
11.Kaminski, M. E., “Binary governance: Lessons from the GDPR’s approach to algorithmic accountability”, Southern California Law Review, vol. 92, 6, 2019, pp. 1542-1543.
12.Ibid.
13.Soriano Arnanz, A. - Simó Soler, E., “Machine learning y derecho: aprendiendo la (des)igualdad”, en Barona Vilar, S., (ed.), Justicia algorítmica y neuroderecho: Una mirada multidisciplinar, Tirant lo Blanch, Valencia 2021, p. 194.
14.Crawford, K., “Think again: big data”, Foreign Policy, 10th May 2013. Disponible el 30 de abril de 2021 en, https://foreignpolicy.com/; US Executive Office of the President, Artificial intelligence, automation and the economy, 2016, p. 29; House of Commons Science and Technology Committee, Algorithms in decision-making, 2018, p. 22.
15.Noble, S. U., Algorithms of Oppression: How Search Engines Reinforce Racism, New York, New York University Press, 2018, pp. 15-16.
16.UN Women, “UN Women ad series reveals widespread sexism”, 21 de octubre de 2013, disponible el 10 de junio de 2021 en: http://www.unwomen.org/.
17.Angwin, J. - Parris Jr., T., “Facebook lets advertisers exclude users by race”, Propublica, 2016; Speicher, T. et al., “Potential for discrimination in online targeted advertising”, Proceedings of Machine Learning Research, 81, 2018, p. 2.
18.O’Neil, C., Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy, London, Penguin Books, 2017.
19.Holl, J. - Kernbeiß, G. - Wagner-Pinter, M., Das AMS-Arbeitsmarktchancen-Modell. Dokumentation zur Methode, 2018. Disponible el 11 de mayo de 2021 en, https://www.ams-forschungsnetzwerk.at/; OECD, Profiling tools for early identification of jobseekers who need extra support, 2018, p. 3; Szigetvari, A., “Arbeitsmarktservice gibt grünes Licht für Algorithmus”, Der Standard, 17 de septiembre de 2019, disponible el 11 de mayo de 2021 en https://www.derstandard.at/.
20.Allhutter, D. et al, “Algorithmic profiling of job seekers in Austria: how austerity politics are made effective”, Frontiers in Big Data, vol. 3 (2020), p. 5; Lopez, p. “Reinforcing Intersectional Inequality via the AMS Algorithm in Austria”, Proceedings of the STS Conference Graz (2019), p. 293, disponible el 12 de mayo de 2021 en https://diglib.tugraz.at/.
21.Alston, P., Digital welfare states and human rights, UN Special Rapporteur on extreme poverty and human rights, report A/74/493, A/74/493, 11 de octubre de 2019.
22.De La Cueva, J., “El derecho a no ser gobernados...”, op. cit., 2019.
23.Eubanks, V., Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor, New York, St Martin’s Press, 2017, pp. 14-16.
24.Allen, R. - Masters, D., “Artificial Intelligence: the right to protection from discrimination caused by algorithms, machine learning and automated decision-making”, ERA Forum, 4, 2020, p. 591.
25.Gellert, R. et al., “A comparative analysis of anti-discrimination and data protection legislations”, en Custers, B. et al., (eds.), Discrimination and Privacy in the Information Society: Data Mining and Profiling in large Databases, Berlin, Springer, 2013, p. 64.
26.Ibid., p. 65.
27.Barrère Unzueta, M. A., “Problemas del derecho antidiscriminatorio: subordinación versus discriminación y acción positiva versus igualdad de oportunidades”, Cuadernos Electrónicos de Filosofía del Derecho, 9, 2003, p. 6.
28.Nunziato, D. C., “Gender equality: states as laboratories”, Virginia Law Review, vol. 80, 4, 1994, pp. 946: “The antidiscrimination mediating principle is one of negative restraint that forbids the government from arbitrarily discriminating against classes of individuals”.
29.Roberts, J. L., “Protecting privacy to prevent discrimination”, William & Mary Law Review, vol. 56, 6, 2015, p. 2111.
30.Barrère Unzueta, M. A., “Problemas del derecho antidiscriminatorio...”, op. cit., p. 6.
31.Ibid.
32.Directiva 2000/43/CE del Consejo, de 29 de junio de 2000, relativa a la aplicación del principio de igualdad de trato de las personas independientemente de su origen racial o étnico; Directiva 2000/78/CE del Consejo, de 27 de noviembre de 2000, relativa al establecimiento de un marco general para la igualdad de trato en el empleo y la ocupación; Directivas 2004/113/CE, sobre aplicación del principio de igualdad de trato entre hombres y mujeres en el acceso a bienes y servicios y su suministro; Directiva 2006/54/CE del Parlamento Europeo y del Consejo, de 5 de julio de 2006, relativa a la aplicación del principio de igualdad de oportunidades e igualdad de trato entre hombres y mujeres en asuntos de empleo y ocupación; Directiva 2010/41/UE del Parlamento Europeo y del Consejo de 7 de julio de 2010 sobre la aplicación del principio de igualdad de trato entre hombres y mujeres que ejercen una actividad autónoma, y por la que se deroga la Directiva 86/613/CEE del Consejo; Directiva 92/85/CEE del Consejo, de 19 de octubre de 1992, relativa a la aplicación de medidas para promover la mejora de la seguridad y de la salud en el trabajo de la trabajadora embarazada, que haya dado a luz o en período de lactancia.
33.La discriminación directa es aquella que tiene lugar cuando una persona es tratada de manera menos favorable que otra en situación análoga por razón de su pertenencia a uno de los subgrupos contenidos en las categorías sospechosas.
34.La discriminación indirecta tiene lugar cuando una disposición, práctica o criterio aparentemente neutros sitúan a una persona en una posición de desventaja respecto de otras por razón de una de las categorías sospechosas.
35.Orofino, A. G., “The Implementation of the Transparency Principle in the Development of Electronic Administration”, European Review of Digital Administration & Law, vol. 1, 1-2, 2020, pp. 123-142.
36.Burrell, J., “How the machine ‘thinks’: understanding opacity in machine learning algorithms”, Big Data & Society, vol. 3, 1 (2016), p. 5.
37.Barocas, S. - Selbst, A., “The intuitive appeal of explainable machines”, Fordham Law Review, vol. 87, 3, 2018, pp. 1091-1092.
38.EU Agency for Fundamental Rights, Handbook on European non-discrimination law, Luxembourg, Publications Office of the European Union, 2018, p. 49.
39.Sentencia del TJUE de 1 de abril de 2008, C 267/06, Tadao Maruko contra Versorgungsanstalt der deutschen Bühnen, apartado 72: “Suponiendo que el órgano jurisdiccional remitente decida que los cónyuges supervivientes y los miembros de una pareja inscrita se hallan en una situación comparable en lo relativo a esa misma prestación de supervivencia, debe considerarse, en consecuencia, que una normativa como la controvertida en el procedimiento principal constituye una discriminación directa por motivos de orientación sexual, en el sentido de los artículos 1 y 2, apartado 2, letra a), de la Directiva 2000/78”.
40.Grimmelmann, J. - Westreich, D., “Incomprehensible discrimination”, California Law Review Online, 7, 2017, p. 176.
41.Bornstein, S., “Antidiscriminatory algorithms”, Alabama Law Review, vol. 70, 2, 2019, p. 521; Dastin, J., Amazon scraps secret AI recruiting tool that showed bias against women..., op. cit.
42.Hacker, P., “Teaching fairness to artificial intelligence: existing and novel strategies against algorithmic discrimination under EU law”, Common Market Law Review, vol. 55, 4, 2018, p. 1161.
43.EU Agency for Fundamental Rights, Handbook on European non-discrimination law, cit., 2018, p. 94.
44.Directiva de Igualdad de Género en el Empleo, Art. 14 (2); Directiva de Igualdad Racial, Art. 4; Directiva de Igualdad en el Empleo, Art. 4 (1).
45.Craig, P. - De Burca, G., EU Law: Text Cases and Materials, New York, Oxford University Press, 5.ª ed., 2011, p. 526.
46.Ver art. 8 de la Directiva de Igualdad Racial, art. 10 de la Directiva de Igualdad en el Empleo, art. 19 de la Directiva de Igualdad de Género en el Empleo y art. 9 de la Directiva de Igualdad de Género en el Acceso a Bienes y Servicios.
47.Tobler, C., Limits and potential of the concept of indirect discrimination, Luxembourg, Publications Office of the EU, 2008, p. 43.
48.Grimmelmann, J. - Westreich, D., “Incomprehensible discrimination...”, op. cit., p. 176.
49.Hacker, P., “Teaching fairness to artificial intelligence...”, op. cit., p. 1162.
50.Hacker, P., “Teaching fairness to artificial intelligence...”, op. cit., pp. 1179 y 1182.
51.Directiva 2000/43/CE del Consejo, de 29 de junio de 2000, relativa a la aplicación del principio de igualdad de trato de las personas independientemente de su origen racial o étnico y Directiva 2004/113/CE del Consejo, de 13 de diciembre de 2004, por la que se aplica el principio de igualdad de trato entre hombres y mujeres al acceso a bienes y servicios y su suministro. incluye la protección del derecho a la igualdad en materia de empleo, educación y acceso a bienes y servicios.
52.Barrère Unzueta, M. A. - Morondo Taramundi, D., “Subordiscriminación y discriminación interseccional: elementos para una teoría del derecho antidiscriminatorio”, Revista de Filosofía Jurídica y Política, 45, 2011, pp. 29-30.
53.EU Agency for Fundamental Rights, Handbook on European non-discrimination law, cit., 2018, p. 62.
54.Ibidem, p. 63.
55.STJUE de 24 de noviembre de 2016, Asunto 443/15, David L. Parris c. Trinity College Dublin y otros.
56.Citron, D. K. - Pasquale, F., “The scored society: due process for automated predictions”, Washington Law Review Online, 89, 2014, pp. 28-30; Hildebrandt, M., “The dawn of a critical transparency right for the profiling era”, in Bus, J. et al. (eds.), Digital Enlightenment Yearbook 2012, Amsterdam, IOS Press, 2012, p. 53.
57.Schreurs, W. et al., “Cogitas, ergo sum. The role of data protection law and non-discrimination law in group profiling in the private sector” en Hildebrandt, M. - Gutwirth, S. (eds.), Profiling the European Citizen, Berlin, Springer, 2008, p. 260.
58.Comisión Europea, “Propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de Inteligencia Artificial (ley de inteligencia artificial) y se modifican determinados actos legislativos de la Unión”, Bruselas, 21.4.2021, COM(2021) 206 final, 2021/0106 (COD), disponible el 20 de junio de 2021 en https://eur-lex.europa.eu/; Scherer, M., “Regulating artificial intelligence systems: risks, challenges, competencies, and strategies”, Harvard Law & Technology Journal, vol. 29, 2 (2016), pp. 353-400; Shneiderman, B., “Algorithmic Accountability: Designing for safety through human-centered independent oversight”, Turing Lecture (The Alan Turing Institute) 31 de marzo de 2017, disponible el 26 de noviembre de 2020 en https://www.youtube.com/; Tutt, A., “An FDA for algorithms”, Administrative Law Review, 69, 1 (2017), pp. 83-123; Velasco Rico, C. I., “Vigilando al algoritmo. Propuestas organizativas para garantizar la transparencia”, en Puentes Cociña, B. - Quintiá Pastrana, A., (dirs.), El Derecho ante la Transformación Digital, Barcelona, Atelier, 2019, pp. 81-82.
59.En relación con el uso de algoritmos por el sector público ver Boix Palop, A., “Los algoritmos son reglamentos: la necesidad de extender las garantías propias de las normas reglamentarias a los programas empleados por la Administración para la adopción de decisiones”, Revista de Derecho Público: Teoría y Método, vol. 1 (2020), pp. 223-270; Cerrillo i Martínez, A., “El impacto de la inteligencia artificial en el derecho administrativo ¿nuevos conceptos para nuevas realidades técnicas?”, Revista General de Derecho Administrativo, 50, 2019, pp. 1-38; Ponce Solé, J., “Inteligencia artificial, Derecho administrativo y reserva de humanidad: algoritmos y procedimiento administrativo debido tecnológico”, Revista General de Derecho Administrativo, 50, 2019, pp. 1-52; Valero Torrijos, J., “The legal guarantees of artificial intelligence in administrative activity: reflections and contributions from the viewpoint of Spanish administrative law and good administration requirements”, European Review of Digital Administration & Law, vol. 1, 1-2, 2020, pp. 55-62.