Viime vuoden lokakuussa juontaja ja toimittaja Maria Veitola nosti julkisuuteen, että lääkäreiden suljetuissa Facebook-ryhmissä rehottaa rasismi. Somessa paljastuneet kirjoitukset olivat järkyttäviä, mutta niiden sävy ei ollut ainutkertainen. Lääkäri-Annina Instagramissa tunnettu Anni Saukkola kommentoi kohua, että ”rasistinen kirjoittelu sosiaalisessa mediassa on vain jäävuoren huippu siitä, mitä koetaan arjessa sairaaloissa, terveyskeskuksissa ja leikkaussaleissa”.
Ylen haastattelujen perusteella lääkärien rasismi näkyy esimerkiksi n-sanan käyttönä ja jopa ulkomaalaistaustaisten potilaiden kivun vähättelynä.
Olisiko tekoälystä ratkaisemaan terveydenhuollon rasismia? Vai voisiko se jopa pahentaa sitä?
Viime vuoden lopulla kuultiin myös toisenlaisia uutisia terveydenhuollosta. Helsingin Sanomat kertoi, että kaikessa hiljaisuudessa Husissa testataan, pystyisikö tekoäly auttamaan lääkäriä aivoverenvuodon tunnistamisessa. Husin osastonylilääkäri ja neurokirurgian dosentti Miikka Korja painotti, ettei tekoäly korvaa lääkäriä. Tavoitteena on, että tekoäly osaisi vinkata lääkärille, kenen potilaan aivokuviin on syytä tarttua nopeimmin.
”Me haluamme luoda tekoälystä ylimääräisen takapäivystäjän”, Korja kiteytti.
Algoritmeissa on vinoumia, jotka syrjivät erityisesti mustia potilaita.
Mutta olisiko takapäivystävästä tekoälystä ratkaisemaan terveydenhuollon rasismia? Vai voisiko käydä ihan toisin – voiko tekoäly jopa pahentaa sitä?
Kansainvälinen tutkimusnäyttö on ristiriitaista. Esimerkiksi yhdysvaltalainen tutkija Ziad Obermeyer kollegoineen on osoittanut, että laajasti käytetyissä algoritmeissa on vinoumia, jotka syrjivät erityisesti mustia potilaita.
Harha johtui siitä, että terveydenhuollon kustannuksia käytettiin muuttujana ennustamaan hoidon tarvetta. Koska mustat amerikkalaiset ovat keskimäärin köyhempiä kuin valkoiset, he käyttävät terveydenhuoltoon vähemmän rahaa. Algoritmi päätteli virheellisesti, että paljon rahaa käyttävät myös tarvitsevat eniten hoitoa – ja näin perusteettomasti suosi valkoisia potilaita.
Suomalaisen terveydenhuollon erikoisuus on, että se koostuu julkisesta terveydenhuollosta, työterveyshuollosta ja Kelan tukemista yksityisistä terveyspalveluista. Terveydenhuollon mallimme on tutkitusti EU:n epätasa-arvoisimpia. Lääkäriin pääsevät helpoimmin ihmiset, joilla on rahaa ja vähän vaivoja. Voikin kysyä, miten tilanne voisi vinouttaa kotimaista dataa, jonka perusteella tekoäly oppii valitsemaan priorisoitavat asiakkaat.
Mutta toisaalta – on niinkin, että algoritmien ajatusvinoumien korjaaminen onnistuu helpommin kuin ihmisen ajattelun muuttaminen. Vaihtamalla algoritmissa käytettyjä muuttujia Obermeyer kollegoineen onnistui vähentämään suosimisharhaa 84 prosentilla.
Ihmisten ennakkoluulot sen sijaan istuvat tiukassa. Patrick Forscher kollegoineen on havainnut, että tiedostamattomien ennakkoluulojen muuttamiseen pyrkivä koulutus ei tehoa. Tutkijat analysoivat yli 490 tutkimusta, joihin osallistui yli 80 000 ihmistä.
Erityisen heikko vaikutus oli kertaluonteisilla koulutuksilla. Ei riitä, että ihmiset tulevat tietoisiksi ennakkoluuloistaan, käyttäytymisen muuttamiseen tarvitaan työkaluja, vuorovaikutusta ja mentorointia, tutkijat kiteyttävät Harvard Business Reviewssa.
Algoritmit ovat usein kuin musta laatikko, johon on vaikea päästä käsiksi.
Kuulostaa paljon raskaammalta kuin koodinpätkän muuttaminen. Toisaalta algoritmit ovat usein kuin musta laatikko, johon on vaikea päästä käsiksi. Cathy O'Neil avaa kirjassaan Weapons of Math Destruction, kuinka tekoäly tuottaa ja ylläpitää yhteiskunnan eriarvoistavia rakenteita. Näin käy, kun esimerkiksi asuinalueesi postinumeroa käytetään lainahakemusta arvioitaessa maksukyvyn indikaattorina – tai kun johtajahaussa algoritmi priorisoi miehiä, koska se on datan perusteella oppinut, että johtajat ovat yleensä miehiä.
Lainsäädäntö ei tule pysymään tekoälyn kyydissä.
Entinen pääministerimme Sanna Marin puhui marraskuussa Slush teknologia- ja kasvuyritystapahtumassa. Marin pohti, että on aika siirtyä eteenpäin ajattelusta, jossa tekoäly nähdään joko hyvänä tai pahana. Sen sijaan pitää varmistaa, että tekoälyä kehitetään ja käytetään tavalla, jossa uhat minimoidaan ja mahdollisuudet maksimoidaan.
Marin arveli, että lainsäädäntö ei tule pysymään tekoälyn kyydissä. Siksi päätöksentekijöiden tulee tehdä tiivistä yhteistyötä yritysten kanssa. Näin on Suomessa tehtykin esimerkiksi tekoälyohjelma-hankkeessa.
Mutta suomalainen työelämä on sukupuolen mukaan vinoutunutta. On suuri vaara, että liian samasta puusta veistetyt tekoälykehittäjät eivät huomaa algoritmiensa ajatusvinoumia – tällöin takapäivystävä tekoäly on mahdollisuuden sijaan uhka.
Siksi terveydenhuollon algoritmeja ei voi kehittää vain valkoinen, pelkkien miesten paneeli.
Shadia Rask
Kirjoittaja on opintovapaalla oleva THL:n tutkimuspäällikkö, jonka uteliaisuus ja varautuneisuus tekoälyä kohtaan heräsi kauppakorkeakoulun yritysvastuuopinnoissa.