Название | Kuidas mõista andmestunud maailma |
---|---|
Автор произведения | Anto Aasa, Mare Ainsaar, Mai Beilmann, Marju Himma Muischnek, |
Жанр | Руководства |
Серия | |
Издательство | Руководства |
Год выпуска | 0 |
isbn | 9789985588949 |
Andmeõigluse printsiipide sõnastamise ja kokkuleppimise vajadust ning võimalikke vastuolusid võimaluste ja ohtude vahel andmelahenduste kasutamisel ja disainimisel illustreerib joonisel 1.1.1 esitatud näide. Isesõitvad autod on arendatud eesmärgiga tagada inimestele võrdne juurdepääs taristule, näiteks haiglatele. Disainerid töötavad välja algoritmid, tuginedes iseenda väärtustele ja ideaalidele. Disainerid loovad oma ideaalidele tuginedes algoritmid, mis otsustavad ka selle, kelle elu liiklusohtlikus situatsioonis säästa. Algoritm võib soovitada esimese eelistusena sõita üle vanema elanikkonna rühma esindajast, kes võib olla selle algoritmi korral peamine sihtrühm. Samuti võib isesõitev auto luua juurdepääsu olulisele objektile (nt haigla), kuhu teised transpordivahendid ei vii (vt nt Awad et al. 2018). Näide illustreerib ilmekalt, et eri perspektiividest vaadatuna võivad arusaamad õiglusest erineda, samuti ei pruugi üksikinimese arusaam langeda kokku kogukonna või ühiskonna väärtushinnangutega. Lisaks, kuigi ühes sotsiaalses kontekstis loodud andmelahendused võivad teises ajas ja ruumis olla tehniliselt rakendatavad, ei pruugi see olla sotsiaalselt aktsepteeritav, õigustatud ega ka vajalik.
Joonis 1.1.1. Näide moraalse masina eksperimendist (Awad et al. 2018). A. Ootamatu piduririkkega isesõitev auto sõidab edasi ja põrkab vastu betoonbarjääri. Selle tulemuseks on: 1) vigastatud mees, 2) surnud eakas naine, laps ja koer.
B. Ootamatu piduririkkega isesõitev auto sõidab teisele sõidurajale ja siis ülekäigurajale. Selle tulemuseks on: 1) vigastatud kurjategija, 2) surnud naissportlane, naissoost arst, poiss ja mees.
Andmeõigluse kui põhimõtete kogumi sõnastamine sotsiaalselt õiglaste andmelahenduste kasutamiseks ja loomiseks (Taylor 2017; Dencik et al. 2019) keskendus algselt andmetega seotud ühiskondlike ja kultuuriliste tagajärgede hindamisele, pöörates eelkõige tähelepanu võimalikele negatiivsetele tulemitele. Andmetega seotud negatiivsed tagajärjed (nt andmetega diskrimineerimine, ebavõrdsuse automatiseerimine, varasemate sotsiaalsete hierarhiate taastootmine (Eubanks 2018; Noble 2018) on näidanud, et sotsiaalse heaolu loomise eesmärgil on andmete kasutamise tulemused ennustamatud. Näiteks on näotuvastustehnoloogiad, mida kasutatakse piirikontrollis ja kuritegevuse ennetuse eesmärkidel, disainitud selliselt, et tehnoloogiate kasutajaid suunatakse otsustama etniliste vähemusrühmade kahjuks. Selle tulemusena võib tekkida andmevõimu kuritarvitamine, mille kaudu toimub andmelahendustes juba varasemalt eelisseisundis olnud sotsiaalsete rühmade võimestamine.
Selliste negatiivsete ja tahtmatute tagajärgede vältimiseks on ühe lahendusena soovitatud kaasata andmepõhiste otsuste tegemisse ning andmetehnoloogiate väljatöötamisse andmesubjekte – kas neid, kelle kohta andmeid kogutakse, või neid, kes on antud andmelahenduse otsene sihtrühm (vt ka alaptk 1.1.3.3). Selline andmesubjektide kaasamine on eelkõige oluline haavatavate sihtrühmade korral, kes ei pruugi alati olla teadlikud, et nende kohta andmeid kogutakse või, vastupidi, nende kohta ei pruugi üldse andmeid olla või pole need kättesaadavad. Üheks selliseks näiteks on põgenike ümberasustamine sobitusalgoritmi abil (Bansak et al. 2018), kus võrreldakse konkreetse piirkonna ja inimeste parameetreid, sooviga suunata inimesed elama piirkonda, kus neil on suurem tõenäosus tööhõiveks. Selliseid ainuüksi majandusliku eesmärgiga andmelahendusi on kritiseeritud. Näiteks näitab Eestis ja Türgis elavate põgenike kohta tehtud võrdlusuuring (Masso, Kasapoglu 2020), et andmelahendus ei võta arvesse põgenike kultuurilisi vajadusi, eelistusi ega traditsioone (nt üksiku noore naise üksi paigutamine suurlinna). Kui põgenikud ise rõhutasid uuringu käigus kultuuriliste aspektide olulisust, siis andmeeksperdid pöörasid tähelepanu algoritmide võimalikele puudustele seoses läbipaistvusega (andmelahenduses ei pruugi olla täpselt selge, keda ja mil viisil ümber asustada) ja vastutusega (pole selge, kes ja mil viisil võtab vastutuse algoritmilise otsustamise korral).
Uuringud on püüdnud leida lahendusi kallutatud andmeotsustele. Pakutud on andmete mitmekesistamist (vt nt Lehne et al. 2019), andmevigade ja kallutatuse vältimist (Hargittai 2020) ning otsuste tegemisse või andmelahenduste väljatöötamisse kaasatud meeskonna mitmekesistamist (Gates et al. 2019). Selle peatüki autoritena soovitame ühe lahendusena arvestada eelarvamuste tekke kognitiivsete mehhanismidega ehk sellega, kuidas toimub inimeste eelarvamuste ülekandmine andmetehnoloogiatesse. Lisaks sellele, et inimeste kognitiivseid ressursse ekspluateeritakse andmete kogumise eesmärgil (Mühlhoff 2019), näiteks sotsiaalmeedias meeldivate tegevuste tulemusena, soovitame pöörata protsessi ka vastupidiseks – olla teadlik uurija kognitiivsetest hoiakutest, mis võivad andmete kogumise ja tõlgendamise protsessi mõjutada.
Kuigi andmeõiglust on nähtud ühe universaalse lahendusena andmetega seotud probleemide lahendamisel, on seda ka kritiseeritud. Osa uuringuid hoiatab, et andmeõiglusel põhinev käsitlusviis on liiga tugevalt juurdunud liberaalsesse diskrimineerimisvastasesse diskursusesse (Hoffmann 2019), mistõttu võib omakorda taastoota üksteist vastandavat, eelistele ja puudustele üles ehitatud andmesuhete loogikat. Lahendusena pakutud n-ö vastanddiskursusi, nagu andmekolonialism (Thatcher et al. 2016; Couldry, Meijas 2018), pole samuti peetud alati efektiivseks, sest need jätavad tähelepanuta hierarhiliste andmesuhete loogika, mis taastoodab eelistatud ja ebasoodsas seisus andmesubjekte.
Lahendusena pakutud andmesubjektide kaasamine andmetehnoloogiate väljatöötamisse ja otsuste tegemisse võib samuti osutuda keeruliseks rühma enda sisemise mitmekesisuse tõttu (Segura, Waisbord 2019; Milan, Treré 2019). Empiirilised uuringud näitavad (Tammpuu, Masso 2019; Patra 2019), et ka aktiivsemalt digitaalseid lahendusi kasutavad andmesubjektid (nt e-residendid) võivad sisemiselt olla väga mitmekesised, väljendavad väga erinevat teadlikkust, ootusi ja tundlikkust seoses võimalike ohtudega, mis võivad nende endi loodud andmete kasutamisel ja nende põhjal otsuste tegemisel tekkida. Selliselt pole andmeõigluse tagamine andmeanalüütiku jaoks alati lihtne ülesanne, seda illustreerib ka joonisel 1.1.2 esitatud näide, kus nii andmete kasutamine kui ka kasutamata jätmine võivad endaga kaasa tuua nii positiivseid kui ka negatiivseid tagajärgi. Registri vm andmete ühendamine annab võimaluse varakult märgata riskitegureid (nt noore koolist väljajäämisel või kuritegelikule teele asumisel). Teisalt võivad ühendatud registriandmed ja nende kasutamine ohustada andmesubjektide õigust privaatsusele.
Andmeõigluse tagamisel on seega kõige olulisem andmeanalüütiku kriitilise refleksiivsuse võime (Kennedy et al. 2015), st oskus hinnata oma tegevuse ja otsuste tagajärgi ning suutlikkus arvestada andmelahendustesse kaasatud eri osapoolte vaadetega. Selline kriitilise refleksiivsuse võime tähendab enda distantseerimist parajasti väljatöötatavast andmelahendusest ning protsessi kaasatud osapoolte kasude ja kahjude ning avalike väärtuste arvestamist nii andmelahenduse väljatöötamisel ja kasutamisel kui ka kasutamata jätmisel (vt ka raamatu sissejuhatuses esitatud soovitused tööks andmetega).
Joonis 1.1.2. Hüpoteetiline näide andmeõiglusest
1.1.6. Kokkuvõte
Selle peatüki eesmärk oli näidata ülesandeid, võimalusi ja ohte, millega andmeanalüütik andmete põhjal muutusi juhtides silmitsi seisab. Andmestunud ühiskonnas on andmeanalüütikust saanud võtmeprofessioon. Andmetarkade otsuste tegemine eeldab, et otsustused on andmetest informeeritud ja andmetel põhinevad, ent pole otseselt andmetest juhitud ilma andmeanalüütiku kriitilise hinnangu ja tõlgendusteta, millised on andmete kasutamise võimalused