Tekoälyn vinoumien välttäminen: suomalainen arviointikehikko syrjimättömille tekoälysovelluksille

Käynnissä

Toteuttajat

Demos Helsinki, Turun yliopisto, Tampereen yliopisto

Rahoitussumma

148 800 €

Hankkeen perustiedot

Kesto: 2/2021–8/2022

Viimeisen viiden vuoden aikana tekoälyn kehitys on edennyt ennennäkemättömällä vauhdilla. Koneoppimiseen perustuvia algoritmeja pidetään lupaavina koulutuksen, terveydenhuollon, rekrytoinnin, luotonannon ja monen muun palvelun parantajana. Tämä perustuu oppivien tekoälysovellusten mahdollisuuksiin tuottaa tehokkaasti yksilöllisiin elämäntapahtumiin perustuvia palveluita näitä kohdentamalla ja räätälöimällä. Oppivat algoritmit eivät kuitenkaan tuota potentiaalisesti vain yhteiskunnallista hyötyä, vaan samaan aikaan luovat uhkia yhdenvertaisuudelle ja syrjimättömyydelle.

Kun teknologiaa hyödynnetään automatisoidussa päätöksenteossa, vinoutunut tai syrjivä harjoitusdata saattaa johtaa syrjintään varsin huomaamattomasti. Epäedustavan harjoitusdatan ohella myös algoritmisen päätöksenteon prosessi voi olla itsessään vinoutunut ja syrjivä. Erityisen ongelmallista syrjinnästä tekoälykontekstissa tekee se, että algoritmit ovat käyttäjän näkökulmasta usein läpinäkymättömiä ja selittämättömiä.

Tekoälysovellusten tuottamat ja ylläpitävät syrjivät rakenteet ja käytännöt ovatkin yksi merkittävistä haasteista, joita myös julkishallinnon keinoin tulee ratkaista. Nykyinen hallitusohjelma huomioi tekoälysovellusten syrjintäriskin ja tarpeen luoda ohjeistus tekoälyn eettisestä käytöstä. Tekoälyn vinoumien välttäminen - suomalainen arviointikehikko syrjimättömille tekoälysovelluksille - tutkimushanke vastaa tähän tarpeeseen monipuolisen aineiston pohjalta tuotetun tutkimuksen avulla.

Tutkimushankkeen tavoitteena on kartoittaa laajasti, millaisia riskejä perusoikeuksille ja syrjinnälle Suomessa käytössä ja suunnitteilla olevat koneoppimiseen perustuvat tekoälysovellukset sisältävät. Hankkeessa arvioidaan oppiviin algoritmeihin perustuvien tekoälysovellusten perusoikeudellisia vaikutuksia yksilön eri elämänalueilla ja -vaiheissa, kuten sosiaali- ja terveydenhuollossa. Hankkeen keskeisenä tavoitteena on laatia arviointikehikko tekoälysovellusten syrjimättömyyden varmistamiseksi eri käyttökonteksteissa. Arviointikehikon tavoitteena on tukea yhdenvertaisuuslain (YVL 5-7 §) ja yhdenvertaisuuden edistämisvelvoitteen toimeenpanoa tekoälysovellusten kohdalla.

Tiivistettynä hankkeen tavoitteena on:

  1. Tuottaa uutta tietoa siitä, millaisia koneoppimiseen pohjautuvia tekoälyjärjestelmiä Suomessa on laajassa käytössä, millaiseen vaikutustenarvioon ne pohjaavat ja mitä syrjiviä vaikutuksia niillä voisi teoriassa olla tai niillä on käytännössä todettu olevan. Keskeistä on luoda ymmärrystä konkreettisista ongelmakohdista.
  2. Arvioida kriittisesti algoritmisten tekoälyjärjestelmien syrjiviä ja perusoikeudellisia vaikutuksia kartoituksen perusteella, huomioiden yhdenvertaisuuslain asettamat velvoitteet.
  3. Kehittää tutkimuksen perusteella arviointikehikko tekoälysovellusten syrjivien piirteiden tunnistamiseksi ja välttämiseksi.
  4. Osallistavan sidosryhmäyhteistyön kautta luodaan politiikkasuosituksia arviointikehikon hyödyntämiseksi ja algoritmien sääntelyksi.

Ota yhteyttä:

Oona Frilander, Demos Helsinki Oy, p. 050 329 1586, etunimi.sukunimi(at)demoshelsinki.fi

Tekoälyn mahdolliset syrjivät vaikutukset

Yhteyshenkilö ministeriössä