Blogi: Tieto käyttöön!

Blogit

Yhdenvertaisuuden edistäminen tekoälyjärjestelmissä vaatii muitakin kuin teknisiä työkaluja

Otto Sahlgren Atte Ojanen Julkaisupäivä 3.3.2022 9.44 Blogit

Automatisoitu päätöksenteko voi johtaa algoritmiseen syrjintään useilla yhteiskunnan sektoreilla, kuten luotonannossa. Tekoälyn vinoumien välttäminen -hankkeen toisessa osassa kartoitettiin ja analysoitiin viranomais-, tutkimusryhmien sekä toisen ja kolmannen sektorin toimijoiden raportteja sekä tutkimuskirjallisuutta tekoälysovellusten käyttöön liittyvistä syrjintäriskeistä.

Yleiskuva

Algoritmisen syrjinnän riskejä voidaan tunnistaa lähtökohtaisesti kaikilla alueilla, joissa tekoälyä käytetään välittömästi tai välillisesti ihmisiä koskevassa päätöksenteossa, jolla voi olla perusoikeudellisia vaikutuksia, kuten rekrytoinnissa, terveydenhuollossa ja koulutuksessa. Tekoälyn käyttöönotto on vielä maltillista, mutta yhdenvertaisuusvaikutusten arviointi osoittautuu tarpeelliseksi läpi kaikkien toimialueiden ja sektoreiden. Tarve perustuu yhtäältä Suomen yhdenvertaisuuslain laajaan soveltamisalaan ja toisaalta tekoälyn käyttöönoton odotettavaan kasvuun lähivuosina.

Välitöntä syrjintää voi esiintyä tekoälysovellusten käytössä, mikäli

  • algoritmin ”opettamiseen” käytetty data ja/tai muuttujat sisältävät kiellettyjä syrjintäperusteita tai
  • kyseistä tietoa päätellään muusta datasta.

Moniperusteista syrjintää voi esiintyä, kun useampaa syrjintäperustetta käytetään muuttujana. Välillisesti syrjivät vaikutukset eivät kuitenkaan edellytä, että algoritmille syötetään tietoa kielletyistä syrjintäperusteista: koneoppimisprosessissa järjestelmä voi oppia korvikemuuttujia syrjintäperusteille pelkistä harjoitusesimerkeistä.

Suomen yhdenvertaisuuslaki asettaa toimijoille laajan velvollisuuden edistää yhdenvertaisuuden toteutumista sekä arvioida ja ehkäistä mahdollista syrjintää. Keskustelu tekoälyn yhdenvertaisuusvaikutuksista on kuitenkin keskittynyt lähinnä syrjinnän ehkäisemiseen (mahdollisesti mukaillen Yhdysvaltojen kontekstia, jossa syrjinnän kielto on yhdenvertaisuus- ja tasa-arvodiskurssin keskiössä). Tekoälyn rooli yhdenvertaisuuden edistämisessä on tunnistettu, mutta yksityiskohtainen keskustelu tässä suhteessa on marginaalista.

Algoritmisen syrjinnän riskit ovat moninaisia ja keskenään limittyviä

Syrjivät vaikutukset voivat seurata nk. ”algoritmisista vinoumista”, joille on useita teknologisia ja sosiaalisia juurisyitä. Erityisesti

  • tekoälysovelluksen suorittaman tehtävän tai tavoitefunktion määrittelyyn,
  • datan keruuseen ja esikäsittelyyn sekä
  • algoritmien ja mallien valintaan liittyvät toimenpiteet ovat huomionarvoisia.

Opetusdatan epäedustavuus lukeutuu keskeisimpiin vinoumien syntysyihin, mutta tilastollisesti edustavakin otos mallinnettavasta väestöstä voi johtaa syrjiviin vinoumiin. Algoritmien selitettävyyden puute voi hankaloittaa objektiivisen oikeutuksen antamista ja täten muodostua esteeksi päätöksenteon kohteen oikeuksien turvaamiselle (esim. päätöksen riitauttaminen). Syrjivien vaikutusten syntymiseen vaikuttavat myös useat käyttökontekstiin liittyvät tekijät, kuten loppukäyttäjien tulkinnat, sovelluksen tosiasialliset käyttötavat (ml. väärinkäyttö) sekä kohdeväestön koostumus.

Vinoumat eivät ole välttämättä aina syrjiviä. Niitä voidaan esimerkiksi rakentaa tekoälysovelluksiin nimenomaisesti syrjinnän ehkäisemiseksi. Tekoälysovellusten tuotantoketjujen monivaiheisuus, syklisyys sekä useiden toimijoiden osallisuus tuottavat kuitenkin haasteita vinoumien tunnistamiselle ja ehkäisemiselle. Syrjivät vaikutukset syntyvät useimmiten esimerkiksi datankeruuta ja mallintamista koskevien päätösten yhteisvaikutuksesta. Yhdenvertaisuusvaikutusten arviointi edellyttääkin ”elinkaariajattelua”, jossa arviointia suoritetaan läpi tuotteen- tai palvelun elinkaaren (Kuvio 1).

Yhdenvertaisuusvaikutusten arviointimenetelmiä

Tekoälyn syrjivien vaikutusten tunnistamiseksi ja ehkäisemiseksi on olemassa teknisiä menetelmiä ja toimenpiteitä, kuten vinoumien kvantifioimiseen kehitettyjä tilastollisia testejä ja työkaluja, joilla voidaan minimoida ennusteiden korrelaatiota kiellettyjen syrjintäperusteiden kanssa elinkaaren eri vaiheissa (Kuvio 2).

Teknisiä menetelmiä visioidaan käytettäväksi parhaimmillaan osana laajempia vaikutuksenarviointiprosesseja, joihin lukeutuvat esimerkiksi viime vuosina esitetyt mallit algoritmien vaikutuksenarvioinnille sekä perinteisemmät tietosuoja-, ihmisoikeus- tai tasa-arvovaikutustenarvioinnit. Erilaiset työkalut (esim. tarkistuslistat sekä datan ja mallien dokumentaatiomenetelmät) ja organisaatiotason toimenpiteet (koulutus, inklusiivisuuden ja poikkitieteellisyyden lisääminen) voivat tukea yhdenvertaisuusperiaatteen mukaista toimintaa.

Lisäksi vaihtoehtoiset menettelytavat (esim. vaihtoehtoiset sovellukset, automatisoimaton päätöksenteko) sekä päätöksenteon kohteiden oikeuksien turvaaminen (esim. riitauttamisen ja hyvityksen saamisen mahdollistaminen) ovat tunnistettu merkittäviksi yhdenvertaisuuden toteutumisen näkökulmasta.

Vaikutuksenarviointiin liittyy haasteita ja avoimia kysymyksiä

Tekoälyn kehittäjät peräänkuuluttavat ohjeistusta, standardisoituja menetelmiä ja yhdenvertaisuuslain vaatimusten kanssa yhteensopivia indikaattoreita ja työkaluja syrjivien vaikutusten tunnistamiseksi ja ehkäisemiseksi. Ei ole kuitenkaan selvää,

  • mitkä mittarit ovat soveltuvia syrjivien vaikutusten tunnistamiseen ja
  • mitä menetelmiä voidaan lainmukaisesti käyttää vinoumien poistamisessa. Ongelmaksi muodostuu myös se, että
  • useiden indikaattorien ihannearvoja ei voida saavuttaa samanaikaisesti – ts. kaikkia epätoivottavia vinoumia ei välttämättä voida poistaa koneoppimismalleista.

On myös huomionarvoista, että yhdenvertaisuuslakiin rakennettu vaatimus kontekstuaaliselle ja tapauskohtaiselle harkinnalle on jännitteessä tilastollisten mittarien kanssa, jotka olettavat, että yhdenvertaisuusperiaate voitaisiin typistää yhdeksi universaalisti sovellettavaksi matemaattiseksi säännöksi. Lisäksi syrjinnän ehkäiseminen ei ole tässä suhteessa riittävä toimenpide, sillä yhdenvertaisuuslaki velvoittaa viranomaiset, koulutuksentarjoajat ja työnantajat myös edistämään yhdenvertaisuutta.

Yksityisellä sektorilla on puolestaan huomioitava, että algoritmien auditoinnista ei ole asianmukaista rakentaa pelkkää itsesääntelykeinoa, sillä ilman soveltuvaa ohjeistusta ja asiantuntijuutta, teknisistä menetelmistä ei saada irti tarvittavia hyötyjä. Ilman soveltuvaa ohjeistusta ja valvontaa, yksityisen sektorin tekoälykehittäjille keskitettäisiin myös merkittävää valtaa ja vastuuta yhdenvertaisuus- ja tasa-arvoasioissa. Ulkoisen valvonnan tarvetta onkin korostettu algoritmisen syrjinnän kitkemisessä.

Opetuksia ja seuraavia askeleita

Koneoppimisalgoritmien käyttö päätöksenteossa sekä erilaiset keinot vinoumien tunnistamiseksi ja ehkäisemiseksi tarjoavat potentiaalisesti tehokkaita keinoja edistää yhdenvertaisuutta ja ehkäistä syrjintää.

Onnistuminen näissä suhteissa edellyttää ymmärrystä vinoumien moninaisista syistä ja yhteisvaikutuksista, teknologian käyttökontekstista, vaikutuksenalaan kuuluvasta väestöstä, lain asettamista velvollisuuksista ja mahdollisuuksista sekä hyödynnettyjen arviointimenetelmien vahvuuksista ja heikkouksista. Perusoikeuksien, kuten yhdenvertaisuuden, on tarkoitus olla konkreettisia ja tehokkaita oikeuksia, ja yhdenvertaisuutta turvaavien toimenpiteiden tulee tekoälynkin kontekstissa olla näiden tarkoitusten mukaisia.

Kartoituksessa tunnistettiin useita haasteita ja avoimia kysymyksiä. Tuleva tekoälysäädös vastannee osaltaan näihin EU-tasolla, mutta Suomen lähestymistapa tulee joka tapauksessa mukauttaa kansalliseen kontekstiin, jossa tavoitteena on syrjinnän ehkäisemisen lisäksi yhdenvertaisuuden aktiivinen edistäminen.

Hankkeen seuraavassa vaiheessa kehitämme arviointikehikkoa, joka tarjoaa viranomaisille ja muille toimijoille

  • keinoja arvioida ja välttää syrjinnän riskejä sekä
  • edistää yhdenvertaisuutta koneoppimista hyödyntävien sovellusten kehityksessä ja käytössä. Haasteena on arviointimenetelmien suunnittelu, jotka ovat käytettäviä ja tarpeeksi yksityiskohtaisia, mutta mahdollistavat silti tapauskohtaisten seikkojen huomioonottamisen.

Lisätietoja: Otto Sahlgren, Tampereen yliopisto, [email protected] ja Atte Ojanen, Demos Helsinki, [email protected]

Blogin kuvituskuva: flickr.com (CC BY 2.0)

Lisää kommentteja

Syötä kommenttisi tähän.