Читать книгу Nuevas normatividades: Inteligencia Artificial, Derecho y Género - Rafael Fernández Acevedo - Страница 25
3. DISCRIMINACIÓN Y ESTEREOTIPOS APRENDIDOS TRAS LA PUESTA EN MARCHA
ОглавлениеOtra forma en la que los sistemas automatizados contribuyen a perpetuar la desigualdad es a través de la incorporación y exposición continuada de estereotipos que afectan de manera negativa a mujeres, personas pertenecientes a minorías étnicas y religiosas, etc.15 Por ejemplo, en el año 2013, ONU mujeres lanzó una campaña en la que reflejaba que, al introducirse en Google frases como “las mujeres no pueden...”, “las mujeres no deben...”, la opción de autocompletado del buscador ofrecía sugerencias como “las mujeres no pueden conducir” o “las mujeres no deben votar”16.
Estas situaciones que, más que supuestos de discriminación específicos, reproducen estereotipos negativos que alimentan la discriminación estructural sufrida por las personas pertenecientes a estos grupos son probablemente, en gran medida, el resultado de las acciones de las y los usuarios de Google que seleccionan aquellos resultados que concuerdan con los prejuicios que se tiene sobre determinados grupos. Ahora bien, tampoco debemos obviar el papel que juegan aquí los programadores de los motores de búsqueda pues tampoco es descartable que, precisamente porque estas ideas continúan vigentes en el imaginario colectivo, también ellos tengan cierta responsabilidad en la potenciación de ciertos estereotipos perjudiciales para ciertos grupos o colectivos por parte de la plataforma.