Читать книгу Kuidas mõista andmestunud maailma - Anto Aasa Mare Ainsaar Mai Beilmann Marju Himma Muischnek - Страница 16
1
MAAILMA ANDMESTUMINE
1.1. ANDMEPÕHINE MUUTUSTE JUHTIMINE
1.1.5. Andmeõiglus andmeanalüütiku töös
ОглавлениеVajadus sõnastada sotsiaalse õigluse põhimõtted, mis sobiksid tööks andmetega, tulenes andmelahenduste loomise arengust, kus andmetehnoloogia looja huvid ja väärtused kaldusid domineerima üksikisiku huvide üle. Näiteks on algoritmid, mudelid ja sotsiaalne profileerimine kasutusel kindlustuse müümisel, laenuotsuste tegemisel, suunatud reklaamides ja kuriteoennetuses.
Optimistlikult hinnates on profileerimise eesmärk teha kiiremaid ja paremaid otsuseid ning pakkuda sobivamaid teenuseid, lähtudes andmemassiivis märgatud seaduspärasustest. Algoritmid lihtsustavad, ühtlustavad ja kiirendavad otsuste tegemist eriti olukorras, kus otsuste hulk on liiga suur, et võimaldada ettevõttel või riigiasutusel teha individuaalseid otsuseid, seega on need tänapäevases maailmas mõneti paratamatud (vt nt Kearns, Roth 2019). Riigi perspektiivist võib see parandada otsusprotsessi (nt kes suunata esmajärjekorras tööturuteenuste sihtgruppi, ennetamaks pikaajalist töötust; milliste ettevõtete ja üksikisikute tuludeklaratsioone põhjalikumalt kontrollida, et avastada võimalikke maksupettusi; millisesse piirkonda saata rohkem politseinikke, et kuritegevust ennetada) ning tagada piiratud ressursside tõhusama kasutamise. Üksikisikule võib see tähendada võimalust perioodiliseks arstlikuks kontrolliks või seda, et muusikaplatvormid pakuvad tema eelistustega sobivat muusikat. Samas võib see aga kaasa tuua sagedasemat kinnipidamist liikluses või pidevat sattumist „juhuvalikusse“ lennujaama turvakontrollis, kõrgemat hinda kindlustust ostes või raskusi kodulaenu saamisel.
Vajadused ja võimalused kasutada andmeid organisatsiooni muutuste juhtimiseks ja poliitika kujundamiseks ning tekkivad küsimused seoses poliitiliste, sotsiaalsete ja eetiliste väärtustega, mida andmed endas kannavad, on tõstatanud küsimuse andmeõiglusest. Andmeõigluse idee lähtub klassikalisest sotsiaalse õigluse kontseptsioonist ning püstitab küsimuse, kas ja kuivõrd need sõnastatud õigused ja vabadused on rakendatavad andmetehnoloogiate kasutamise ja loomise kontekstis ehk kuidas on võimalik „õigluse tagamine viisil, et inimesed ja nende vajadused on nähtavad, esindatud ja õiglaselt koheldud nende toodetud digitaalsete andmete tulemusena“ (Taylor 2017: 1).
Andmeõigluse idee pöörab tähelepanu levinud probleemile, et üldiste seaduspärasuste põhjal koostatud algoritmid teevad otsuseid konkreetse üksikisiku kohta, kelle puhul üldine reegel ei pruugi kehtida ja seetõttu võib automaatselt tehtav otsus olla ebaõiglane, mittevajalik või isegi kahjulik. Sarnaste profiilide negatiivsest mõjust on viimastel aastatel ilmunud mitmeid uurimusi. Kriitilisem vaade profileerimisele toob esile eetilisi probleeme seoses õigluse ja privaatsusega (Kearns, Roth 2019), võrdse kohtlemise (Eubanks 2018; Noble 2018; Ferguson 2017), nõuetekohase menetluse (due process), turvalisuse ja vastutusega (liability), rõhutades, et algoritmid ja arvutimudelid muudavad inimeste eelarvamused pealtnäha objektiivseteks faktideks, mis hakkavad samu eelarvamusi taastootma või isegi võimendama. Näiteks on andmetehnoloogiate kasutamine tõstatanud küsimuse sellest, kuidas mõistetakse sotsiaalset mitmekesisust olukorras, kus üle riigipiiride levivad granulaarsed andmed kaardistavad inimeste igapäevaelu kogu selle detailsuses ning võimaldavad luua mitmekesiseid lahendusi, kuid andmeanalüüsi tehnikad ja meetodid kasutavad inimeste vananenud, dihhotoomseid arusaamu mitmekesisusest (1 – õige, 2 – vale).
Andmeõigluse printsiipide sõnastamise ja kokkuleppimise vajadust ning võimalikke vastuolusid võimaluste ja ohtude vahel andmelahenduste kasutamisel ja disainimisel illustreerib joonisel 1.1.1 esitatud näide. Isesõitvad autod on arendatud eesmärgiga tagada inimestele võrdne juurdepääs taristule, näiteks haiglatele. Disainerid töötavad välja algoritmid, tuginedes iseenda väärtustele ja ideaalidele. Disainerid loovad oma ideaalidele tuginedes algoritmid, mis otsustavad ka selle, kelle elu liiklusohtlikus situatsioonis säästa. Algoritm võib soovitada esimese eelistusena sõita üle vanema elanikkonna rühma esindajast, kes võib olla selle algoritmi korral peamine sihtrühm. Samuti võib isesõitev auto luua juurdepääsu olulisele objektile (nt haigla), kuhu teised transpordivahendid ei vii (vt nt Awad et al. 2018). Näide illustreerib ilmekalt, et eri perspektiividest vaadatuna võivad arusaamad õiglusest erineda, samuti ei pruugi üksikinimese arusaam langeda kokku kogukonna või ühiskonna väärtushinnangutega. Lisaks, kuigi ühes sotsiaalses kontekstis loodud andmelahendused võivad teises ajas ja ruumis olla tehniliselt rakendatavad, ei pruugi see olla sotsiaalselt aktsepteeritav, õigustatud ega ka vajalik.
Joonis 1.1.1. Näide moraalse masina eksperimendist (Awad et al. 2018). A. Ootamatu piduririkkega isesõitev auto sõidab edasi ja põrkab vastu betoonbarjääri. Selle tulemuseks on: 1) vigastatud mees, 2) surnud eakas naine, laps ja koer.
B. Ootamatu piduririkkega isesõitev auto sõidab teisele sõidurajale ja siis ülekäigurajale. Selle tulemuseks on: 1) vigastatud kurjategija, 2) surnud naissportlane, naissoost arst, poiss ja mees.
Andmeõigluse kui põhimõtete kogumi sõnastamine sotsiaalselt õiglaste andmelahenduste kasutamiseks ja loomiseks (Taylor 2017; Dencik et al. 2019) keskendus algselt andmetega seotud ühiskondlike ja kultuuriliste tagajärgede hindamisele, pöörates eelkõige tähelepanu võimalikele negatiivsetele tulemitele. Andmetega seotud negatiivsed tagajärjed (nt andmetega diskrimineerimine, ebavõrdsuse automatiseerimine, varasemate sotsiaalsete hierarhiate taastootmine (Eubanks 2018; Noble 2018) on näidanud, et sotsiaalse heaolu loomise eesmärgil on andmete kasutamise tulemused ennustamatud. Näiteks on näotuvastustehnoloogiad, mida kasutatakse piirikontrollis ja kuritegevuse ennetuse eesmärkidel, disainitud selliselt, et tehnoloogiate kasutajaid suunatakse otsustama etniliste vähemusrühmade kahjuks. Selle tulemusena võib tekkida andmevõimu kuritarvitamine, mille kaudu toimub andmelahendustes juba varasemalt eelisseisundis olnud sotsiaalsete rühmade võimestamine.
Selliste negatiivsete ja tahtmatute tagajärgede vältimiseks on ühe lahendusena soovitatud kaasata andmepõhiste otsuste tegemisse ning andmetehnoloogiate väljatöötamisse andmesubjekte – kas neid, kelle kohta andmeid kogutakse, või neid, kes on antud andmelahenduse otsene sihtrühm (vt ka alaptk 1.1.3.3). Selline andmesubjektide kaasamine on eelkõige oluline haavatavate sihtrühmade korral, kes ei pruugi alati olla teadlikud, et nende kohta andmeid kogutakse või, vastupidi, nende kohta ei pruugi üldse andmeid olla või pole need kättesaadavad. Üheks selliseks näiteks on põgenike ümberasustamine sobitusalgoritmi abil (Bansak et al. 2018), kus võrreldakse konkreetse piirkonna ja inimeste parameetreid, sooviga suunata inimesed elama piirkonda, kus neil on suurem tõenäosus tööhõiveks. Selliseid ainuüksi majandusliku eesmärgiga andmelahendusi on kritiseeritud. Näiteks näitab Eestis ja Türgis elavate põgenike kohta tehtud võrdlusuuring (Masso, Kasapoglu 2020), et andmelahendus ei võta arvesse põgenike kultuurilisi vajadusi, eelistusi ega traditsioone (nt üksiku noore naise üksi paigutamine suurlinna). Kui põgenikud ise rõhutasid uuringu käigus kultuuriliste aspektide olulisust, siis andmeeksperdid pöörasid tähelepanu algoritmide võimalikele puudustele seoses läbipaistvusega (andmelahenduses ei pruugi olla täpselt selge, keda ja mil viisil ümber asustada) ja vastutusega (pole selge, kes ja mil viisil võtab vastutuse algoritmilise otsustamise korral).
Uuringud on püüdnud leida lahendusi kallutatud andmeotsustele. Pakutud on andmete mitmekesistamist (vt nt Lehne et al. 2019), andmevigade ja kallutatuse vältimist (Hargittai 2020) ning otsuste tegemisse või andmelahenduste väljatöötamisse kaasatud meeskonna mitmekesistamist (Gates et al. 2019). Selle peatüki autoritena soovitame ühe lahendusena arvestada eelarvamuste tekke kognitiivsete mehhanismidega ehk sellega, kuidas toimub inimeste eelarvamuste ülekandmine andmetehnoloogiatesse. Lisaks sellele, et inimeste kognitiivseid ressursse ekspluateeritakse andmete kogumise eesmärgil (Mühlhoff 2019), näiteks sotsiaalmeedias meeldivate tegevuste tulemusena, soovitame pöörata protsessi ka vastupidiseks – olla teadlik uurija kognitiivsetest hoiakutest, mis võivad andmete kogumise ja tõlgendamise protsessi mõjutada.
Kuigi andmeõiglust on nähtud ühe universaalse lahendusena andmetega seotud probleemide lahendamisel, on seda ka kritiseeritud. Osa uuringuid hoiatab, et andmeõiglusel põhinev käsitlusviis on liiga tugevalt juurdunud liberaalsesse diskrimineerimisvastasesse diskursusesse (Hoffmann 2019), mistõttu võib omakorda taastoota üksteist vastandavat, eelistele ja puudustele üles ehitatud andmesuhete loogikat. Lahendusena pakutud n-ö vastanddiskursusi, nagu andmekolonialism (Thatcher et al. 2016; Couldry, Meijas 2018), pole samuti peetud alati efektiivseks, sest need jätavad tähelepanuta hierarhiliste andmesuhete loogika, mis taastoodab eelistatud ja ebasoodsas seisus andmesubjekte.
Lahendusena pakutud andmesubjektide kaasamine andmetehnoloogiate väljatöötamisse ja otsuste tegemisse võib samuti osutuda keeruliseks rühma enda sisemise mitmekesisuse tõttu (Segura, Waisbord 2019; Milan, Treré 2019). Empiirilised uuringud näitavad (Tammpuu, Masso 2019; Patra 2019), et ka aktiivsemalt digitaalseid lahendusi kasutavad andmesubjektid (nt e-residendid) võivad sisemiselt olla väga mitmekesised, väljendavad väga erinevat teadlikkust, ootusi ja tundlikkust seoses võimalike ohtudega, mis võivad nende endi loodud andmete kasutamisel ja nende põhjal otsuste tegemisel tekkida. Selliselt pole andmeõigluse tagamine andmeanalüütiku jaoks alati lihtne ülesanne, seda illustreerib ka joonisel 1.1.2 esitatud näide, kus nii andmete kasutamine kui ka kasutamata jätmine võivad endaga kaasa tuua nii positiivseid kui ka negatiivseid tagajärgi. Registri vm andmete ühendamine annab võimaluse varakult märgata riskitegureid (nt noore koolist väljajäämisel või kuritegelikule teele asumisel). Teisalt võivad ühendatud registriandmed ja nende kasutamine ohustada andmesubjektide õigust privaatsusele.
Andmeõigluse tagamisel on seega kõige olulisem andmeanalüütiku kriitilise refleksiivsuse võime (Kennedy et al. 2015), st oskus hinnata oma tegevuse ja otsuste tagajärgi ning suutlikkus arvestada andmelahendustesse kaasatud eri osapoolte vaadetega. Selline kriitilise refleksiivsuse võime tähendab enda distantseerimist parajasti väljatöötatavast andmelahendusest ning protsessi kaasatud osapoolte kasude ja kahjude ning avalike väärtuste arvestamist nii andmelahenduse väljatöötamisel ja kasutamisel kui ka kasutamata jätmisel (vt ka raamatu sissejuhatuses esitatud soovitused tööks andmetega).
Joonis 1.1.2. Hüpoteetiline näide andmeõiglusest