Tutkimus: Algoritmiseen syrjintään on tehokkainta puuttua nyt, kun tekoälyn käyttö on Suomessa vielä maltillista
Tuoreen tutkimuksen mukaan tekoälyjärjestelmät eivät ole vielä laajasti käytössä Suomessa, mikä antaa mahdollisuuden puuttua algoritmisen syrjintään jo tekoälyn kehityskaaren alusta alkaen. Nyt kehitetyn työkalun avulla voidaan arvioida tekoälyn syrjiviä vaikutuksia sekä edistää yhdenvertaisuutta tekoälyn käytössä.
Tekoäly on kehittynyt ennennäkemättömällä vauhdilla viimeisen viiden vuoden aikana, ja samalla huoli algoritmisesta syrjinnästä on kasvanut. Huomionarvoista on erityisesti se, miten koneoppivat järjestelmät voivat uusintaa ja vahvistaa olemassa olevaa syrjintää ja eriarvoisuutta osana automatisoitua päätöksentekoa.
Tähän voi vaikuttaa esimerkiksi järjestelmän käyttämä epäedustava harjoitusdata väestöstä, tai huonosti valitut ennustemuuttujat. Esimerkiksi Yhdysvalloissa on jouduttu hyllyttämään rekrytointialgoritmeja, jotka ovat syrjineet naishakijoita historiallisen datan perusteella: kun naisia ei ole valittu tehtävään aiemmin, myöskään algoritmit eivät ole suositelleet tätä.
Algoritmista syrjintää ei ratkaista vain teknisin työkaluin
Tekoälyn vinoumien välttäminen -hanke kartoitti, millaisia riskejä perusoikeuksille ja syrjimättömyydelle Suomessa sekä käytössä että suunnitteilla olevat tekoälysovellukset voivat sisältää. Kartoitus osoitti, että algoritmiseen syrjintään on herätty kohtuullisesti ainakin julkisella sektorilla huolimatta siitä, että tekoälyjärjestelmiä ei ole vielä laajasti otettu käyttöön. Algoritmisen syrjinnän kitkemiseen ei ole kuitenkaan vakiintunut selkeää viranomaisyhteistyön mallia tai työkaluja. Nämä ovat silti merkittävässä roolissa, kun algoritmista syrjintää pyritään tunnistamaan ja estämään.
Tutkimuksessa tarkasteltiin myös tekoälyjärjestelmien syrjintäriskejä, syrjivien vaikutusten syitä ja niiden ehkäisemiseen kehitettyjä menetelmiä Suomen yhdenvertaisuuslain näkökulmasta. Analyysin perusteella syrjivät vinoumat syntyvät useimmiten tekoälyjärjestelmien niin sanotussa arvoketjussa erilaisten sosio-teknisten tekijöiden yhteisvaikutuksesta, eikä niitä voida ratkaista vain teknisin menetelmin ilman tapauskohtaista harkintaa. Ilman läpinäkyvää valvontaa ja standardeja tekniset ratkaisut myös uhkaavat keskittää algoritmisen syrjinnän valtaa yksityisille tekoälyn kehittäjille.
Arviointikehikolla edistetään yhdenvertaisuutta
Tehtyjen kartoitusten perusteella tutkimushankkeen työryhmä kehitti arviointikehikon syrjimättömille tekoälyjärjestelmille. Kehikko auttaa tunnistamaan ja hallitsemaan erityisesti julkisen sektorin tekoälyjärjestelmiin liittyviä syrjintäriskejä sekä edistämään yhdenvertaisuutta tekoälyn käytössä.
Arviointikehikko pohjaa tekoälyn elinkaarimalliin, joka korostaa, että tekoälyjärjestelmien syrjivät vaikutukset voivat syntyä ja ilmentyä eri vaiheissa läpi järjestelmän suunnittelun, kehityksen ja käyttöönoton. Arviointikehikon tavoitteena on tukea yhdenvertaisuuslain ja yhdenvertaisuuden edistämisvelvoitteen toimeenpanoa tekoälysovellusten kohdalla.
Suositukset algoritmien sääntelyksi
Osana tutkimusta julkaistiin joukko politiikkasuosituksia, joiden päätavoitteena on varmistaa arviointikehikon hyödynnettävyys ja käyttö osana julkisen hallinnon toimintaa. Suositukset jakautuvat kolmeen ryhmään, jotka tähtäävät algoritmista syrjintää koskevan yleisen tietoisuuden lisäämiseen; yhteistyön lisäämiseen eri toimijaryhmien välillä tekoälyn vastuullisessa kehityksessä; sekä yhdenvertaisuuden edistämistä mahdollistavan sääntelyn ja työkalujen tukemiseen.
Tekoälyn vinoumien välttäminen -hankkeen toteuttivat yhdessä Demos Helsinki, Turun yliopisto ja Tampereen yliopisto. Julkaisu on toteutettu osana valtioneuvoston vuoden 2021 selvitys- ja tutkimussuunnitelman toimeenpanoa.
Lisätietoja: tutkimuskoordinaattori Atte Ojanen, Demos Helsinki, p. 050 9177 994, atte.ojanen(at)demoshelsinki.fi
Valtioneuvoston yhteisellä selvitys- ja tutkimustoiminnalla (VN TEAS) tuotetaan tietoa päätöksenteon, tiedolla johtamisen ja toiminnan tueksi. Sen toimintaa ohjaa valtioneuvoston vuosittain vahvistama selvitys- ja tutkimussuunnitelma. Selvitys- ja tutkimustoiminnan julkaisusarjassa julkaistujen raporttien sisällöstä vastaavat tiedon tuottajat, eikä sisältö välttämättä edusta valtioneuvoston näkemystä. Lisätietoja: https://tietokayttoon.fi.
Policy Brief: Promoting equality in the use of Artificial Intelligence – an assessment framework for non-discriminatory AI
Hyvä kysymys -podcast: Kun tekoäly kehittyy, automatisoituuko syrjintä?