Hyppää sisältöön

Tekoälyn vinoumien välttäminen: suomalainen arviointikehikko syrjimättömille tekoälysovelluksille

Päättynyt

Toteuttajat

Demos Helsinki, Turun yliopisto, Tampereen yliopisto

Rahoitussumma

148 800 €

Hankkeen perustiedot

Kesto: 2/2021–8/2022

Viimeisen viiden vuoden aikana tekoälyn kehitys on edennyt ennennäkemättömällä vauhdilla. Koneoppimiseen perustuvia algoritmeja pidetään lupaavina koulutuksen, terveydenhuollon, rekrytoinnin, luotonannon ja monen muun palvelun parantajana. Tämä perustuu oppivien tekoälysovellusten mahdollisuuksiin tuottaa tehokkaasti yksilöllisiin elämäntapahtumiin perustuvia palveluita näitä kohdentamalla ja räätälöimällä. Oppivat algoritmit eivät kuitenkaan tuota potentiaalisesti vain yhteiskunnallista hyötyä, vaan samaan aikaan luovat uhkia yhdenvertaisuudelle ja syrjimättömyydelle.

Kun teknologiaa hyödynnetään automatisoidussa päätöksenteossa, vinoutunut tai syrjivä harjoitusdata saattaa johtaa syrjintään varsin huomaamattomasti. Epäedustavan harjoitusdatan ohella myös algoritmisen päätöksenteon prosessi voi olla itsessään vinoutunut ja syrjivä. Erityisen ongelmallista syrjinnästä tekoälykontekstissa tekee se, että algoritmit ovat käyttäjän näkökulmasta usein läpinäkymättömiä ja selittämättömiä.

Tekoälysovellusten tuottamat ja ylläpitävät syrjivät rakenteet ja käytännöt ovatkin yksi merkittävistä haasteista, joita myös julkishallinnon keinoin tulee ratkaista. Nykyinen hallitusohjelma huomioi tekoälysovellusten syrjintäriskin ja tarpeen luoda ohjeistus tekoälyn eettisestä käytöstä. Tekoälyn vinoumien välttäminen - suomalainen arviointikehikko syrjimättömille tekoälysovelluksille - tutkimushanke vastaa tähän tarpeeseen monipuolisen aineiston pohjalta tuotetun tutkimuksen avulla.

Tutkimushankkeen tavoitteena oli kartoittaa laajasti, millaisia riskejä perusoikeuksille ja syrjinnälle Suomessa käytössä ja suunnitteilla olevat koneoppimiseen perustuvat tekoälysovellukset sisältävät. Hankkeessa arvioitiin oppiviin algoritmeihin perustuvien tekoälysovellusten perusoikeudellisia vaikutuksia yksilön eri elämänalueilla ja -vaiheissa, kuten sosiaali- ja terveydenhuollossa. Hankkeen keskeisenä tavoitteena oli laatia arviointikehikko tekoälysovellusten syrjimättömyyden varmistamiseksi eri käyttökonteksteissa. Arviointikehikon tavoitteena on tukea yhdenvertaisuuslain (YVL 5-7 §) ja yhdenvertaisuuden edistämisvelvoitteen toimeenpanoa tekoälysovellusten kohdalla.

Tiivistettynä hankkeen tavoitteena oli:

  1. Tuottaa uutta tietoa siitä, millaisia koneoppimiseen pohjautuvia tekoälyjärjestelmiä Suomessa on laajassa käytössä, millaiseen vaikutustenarvioon ne pohjaavat ja mitä syrjiviä vaikutuksia niillä voisi teoriassa olla tai niillä on käytännössä todettu olevan. Keskeistä on luoda ymmärrystä konkreettisista ongelmakohdista.
  2. Arvioida kriittisesti algoritmisten tekoälyjärjestelmien syrjiviä ja perusoikeudellisia vaikutuksia kartoituksen perusteella, huomioiden yhdenvertaisuuslain asettamat velvoitteet.
  3. Kehittää tutkimuksen perusteella arviointikehikko tekoälysovellusten syrjivien piirteiden tunnistamiseksi ja välttämiseksi.
  4. Osallistavan sidosryhmäyhteistyön kautta luodaan politiikkasuosituksia arviointikehikon hyödyntämiseksi ja algoritmien sääntelyksi.

Tuotetun tiedon hyödyntäminen

Selvityksen tuloksia, erityisesti sen johtopäätöksiä, suosituksia sekä arviointikehikkoa tullaan jalkauttamaan valtioneuvostossa tulevina vuosina. Ohjausryhmässä on ollut kiinnostusta pilotoida arviointikehikkoa jo käynnistymässä oleviin tekoälyhankkeisiin. Oikeusministeriö pyrkii levittämään tietoa eri yhteyksissä ja kanavissa, jotta tieto saataisiin tehokkaasti käyttöön. Toteuttajataho on myös tuottanut arviointikehikon englanniksi, mikä lisää se hyödynnettävyyttä kansainvälisellä tasolla. 

Hankkeen julkaisut:

Ota yhteyttä:

tutkimuskoordinaattori Atte Ojanen, Demos Helsinki, p. 050 9177 994, atte.ojanen(at)demoshelsinki.fi

Tekoälyn mahdolliset syrjivät vaikutukset

Yhteyshenkilö ministeriössä