Blogi: Tieto käyttöön!

Käytännöt algoritmisen syrjinnän kitkemiseksi puuttuvat

Atte Ojanen Juho Vaiste Julkaisupäivä 16.9.2021 12.55 Blogit

Tekoälyjärjestelmien käyttöönotto julkisessa hallinnossa on vasta alussa, mutta algoritminen syrjintä on tunnistettu kasvavaksi riskiksi. Työkalut syrjinnän arviointiin ja siihen puuttumiseen kuitenkin yhä puuttuvat.

Algoritminen syrjintä uhkaa perusoikeuksia

Tekoälyjärjestelmät ja automatisoitu päätöksenteko uhkaavat syventää olemassa olevaa yhteiskunnallista epätasa-arvoa ja syrjintää. Tämä tapahtuu usein huomaamattomasti esimerkiksi vinoutuneen harjoitusdatan hyödyntämisen seurauksena. Esimerkiksi Yhdysvalloissa rekrytointialgoritmien on havaittu suosineen miehiä naisten kustannuksella aiempien palkkauspäätösten perusteella. Alankomaissa tuomioistuin puolestaan kielsi maan ​​sosiaali- ja työministeriön SyRI-algoritmin käytön nojaten läpinäkymättömyyteen ja perusoikeuksien rikkomuksiin köyhimpiä kansalaisia kohtaan. Tekoälysovellusten riski syrjintään on yksi merkittävistä haasteista, joihin myös julkisen hallinnon on vastattava. Juuri näitä riskejä arvioidaan “Tekoälyn vinoumien välttäminen: suomalainen arviointikehikko syrjimättömille tekoälysovelluksille” -hankkeessa.

Hankkeen ensimmäisenä osana toteutettiin haastatteluihin perustuva kansallinen kartoitus Suomessa käytössä olevista tekoälysovelluksista keväällä-kesällä 2021. Turun yliopiston johtamat haastattelut käsittivät julkiset organisaatiot ja viranomaiset, finanssialan, terveydenhuollon sekä rekrytointialan, sillä näiltä sektoreilta oli tutkimuskirjallisuuden perusteella tunnistettavissa eniten algoritmisen syrjinnän riskejä. Tutkijat tarkastelivat haastateltujen henkilöiden avulla eri organisaatioiden näkemyksiä tekoälyn eettisestä kehittämisestä, asiantuntemusta syrjimättömyydestä, sekä tekoälyratkaisujen suunnittelu-, kehitys- ja testausprosesseista. Lisäksi selvitettiin, onko organisaatioihin vakiintunut käytäntöjä tai työkaluja syrjivien vaikutusten arvioimiseksi tai estämiseksi. Kartoituksen keskeiset löydökset ovat:

1. Tekoälyjärjestelmien käyttöönotto on vielä vaatimattomalla tasolla

Julkisella sektorilla tekoälyn soveltaminen on pilotointiasteella, ja tämä tilanne voi jatkua vielä seuraavat 2–4 vuotta. Yksityisellä sektorilla suurin osa tekoälyjärjestelmistä toimii kapealla alueella tai kohdistuu eettisesti vähemmän riskialttiisiin käyttökohteisiin, kuten tuotanto- ja prosessioptimointiin. Tärkeä kysymys on, missä määrin tekoälyn soveltaminen jakaantuu itse kehitettyihin tekoälyjärjestelmiin tai ulkopuolelta valmiina järjestelminä ostettaviin palveluihin. Tekoälyn soveltamisen vaatimaton taso antaa kuitenkin arvokkaan mahdollisuuden varautua jo etukäteen tekoälystä johtuvan syrjinnän tunnistamiseen ja korjaamiseen. Kaikki tutkitut organisaatiot olivat kuitenkin vahvistamassa tekoälyn soveltamista lähitulevaisuudessa.

2. Algoritminen syrjintä on tunnistettu riskiksi

Organisaatiot ovat tietoisia tekoälyjärjestelmiin liittyvistä mahdollisista syrjinnän ongelmista, vaikkakin pintapuolisesti. Kaikki haastatellut organisaatiot osasivat esittää joitakin toimia, joihin on ryhdytty syrjinnän estämiseksi teknologiaratkaisujen yhteydessä. Monen organisaation kohdalla toimet olivat kuitenkin yleisluontoisia, rajoittuen esimerkiksi syrjimättömyyttä koskevaan keskusteluun ja koulutukseen.  Erilaisia keinoja tai työkaluja syrjimättömyyden estämiseksi käytetään vähän tai enintään vakiintumattomasti. Esimerkiksi erilaiset arviointikehikot tai edes tarkistuslista-tyyppiset työkalut eivät olleet vakiinnuttaneet paikkaansa tutkituissa organisaatioissa.

3. Syrjimättömyyden edistämiseen ei ole vakiintunut selkeää viranomaisyhteistyötä

Tietosuoja-asioissa organisaatioiden yhteistyö tietosuojavaltuutetun kanssa on jo vakiintunutta, mutta syrjimättömyyden alueelta yhtä luontaisia yhteistyötahoja tai -malleja ei löytynyt. Tietosuojavaltuutetun kanssa yhteistyötä tehdään niin lainsäädännön velvoittamana kuin vapaamuotoisemmin: useimmiten riskien- tai vaikutustenarvioinnin nimikkeellä. Yhdenvertaisuusvaltuutetulla voisi olla samanlainen rooli tekoälyn käyttöön liittyvissä syrjimättömyyskysymyksissä, mutta tämä vaatisi valtuutetulta lisää resursseja. Tekoälyn vastuullisessa soveltamisessa voitaisiin myös tehdä vahvempaa yhteistyötä yliopistojen tai tutkimusinstituutioiden kanssa.

4. Julkisen ja yksityisen sektorin vaatimuksissa on merkittäviä eroja

Julkisten ja yksityisten organisaatioiden velvollisuuksissa on merkittäviä lainsäädännöstä johtuvia eroja, esimerkiksi yhdenvertaisuuden edistämiseen liittyen. Toisaalta yksityisten ja julkisten palveluiden raja voidaan nähdä häilyvänä teknologian kehittyessä, esimerkiksi suurien digitaalisten alustojen kohdalla. Ero yksityisen ja julkisen välillä on vaikea tehdä myös valmiina ostettavien tekoälyjärjestelmien ja niiden yhdistelmien kohdalla, joita myös julkiset toimijat hyödyntävät. On tarkkailtava, muuttuuko tai kasvaako tämä ero julkisten ja yksityisten toimijoiden kohdalla erityisesti tekoälyteknologioita sovellettaessa.

5. Tekoälyjärjestelmien globaalit tuotantoketjut ovat haaste syrjimättömyydelle

Erityisesti yksityisellä sektorilla tullaan tulevina vuosina soveltamaan laajasti globaaleilta markkinoilta hankittavia tekoälyjärjestelmiä, vaikka nämä järjestelmät voivat olla verrattain läpinäkymättömiä, usein ns. mustia laatikoita[1]. Myöskään julkisorganisaatiot ja viranomaiset eivät ole täysin immuuneja ostettavien algoritmien ongelmille. Haasteena on pitää hankintaprosessi hyvin määriteltynä ja auditoitavana erilaisissa hankinnoissa ja organisaatioissa, myös monimutkaisempien järjestelmien hankinnassa. Euroopan unionin sääntely liittyen suuririskisiin tekoälysovelluksiin sekä muut kansainväliset arviointikehikot voivat olla yksi avain asian ratkaisemiseksi.

Lisäksi vakuutusala ja turvallisuusviranomaiset erottuivat haastatteluissa sektoreina, joilla tutkimusta tulee laajentaa. Molemmat alat kytkeytyvät merkittävästi kansalaisten perusoikeuksiin, mutta niiden toimintatavat ovat suhteellisen läpinäkymättömiä. Esiin nousi myös rakenteellisen syrjinnän huomiointi tekoälyn kohdalla: sikäli kun algoritminen syrjintä ei noudata laissa määriteltyjä syrjintäperusteita, on käsiteltävä myös laajemmin yhteiskunnallista eriarvoisuutta. Algoritmiselle syrjinnälle ominainen välillinen ja moniperusteinen syrjintä ovat myös haasteita nykyiselle lainsäädännölle.

Tutkimus syventyy syrjinnän riskeihin

Hanke jatkuu Tampereen yliopiston johtamalla toisella osalla, joka käsittelee kansallisen kartoituksen perusteella syvemmin oppivia algoritmeja hyödyntäviin sovelluksiin liittyviä riskejä yhdenvertaisuuden ja syrjinnän näkökulmista. Keskeisimmät osat tutkimusta kohdistuvat syrjivien vaikutusten ja tärkeimpien riskien teknisiin ja sosiaalisiin alkuperiin tekoälysovellusten kehityksessä ja käytössä. Näitä ovat mm. algoritmien harjoitusdatan edustavuuteen ja tarkkuuteen liittyvät ongelmat, varsinkin suhteessa kiellettyihin syrjintäperusteisiin.

Nyt tarkastellut tekoälyn hyödyntämiskohteet Suomessa antavat tutkimuksella tärkeitä tapaustutkimuksen kohteita, sillä syrjintään liittyvät kysymykset, erityisesti yhdenvertaisuuden edistäminen, voivat näyttäytyä varsin eri tavalla eri yhteiskunnallisissa sovelluskohteissa ja konteksteissa. Kansallisen kartoituksen löydökset lisäävät myös tietopohjaa, joka palvelee suomalaisen arviointikehikon ja politiikkasuositusten muodostamista hankkeen lopussa. Nyt esitellyt tulokset ovat kokonaisuudessaan luettavissa hankkeen loppuraportissa kesällä 2022.

Lisätietoja: Juho Vaiste, Turun yliopisto, [email protected] ja Atte Ojanen, Demos Helsinki, [email protected]


[1] Mustan laatikon ongelmalla viitataan siihen, kuinka tekoälyjärjestelmät voivat olla toimintalogiikaltaan niin monimutkaisia ja läpinäkymättömiä, ettei kukaan tiedä miksi tai miten kone on tiettyyn ratkaisuun päätynyt.

Kuvituskuva: Fabrice Jazbinsek, Flickr.com (CC BY-NC-ND 2.0)

 

Lisää kommentteja