Näivettääkö digitalisaation logiikka inhimillisyyden - Tekoäly julkisten palvelujen tuottamisessa
Yhteiskunnassamme tavoitellaan julkisten palvelujen tehokkuutta. Toisaalla vaakakupissa painaa julkisten palvelujen vaikuttavuus – miten luodaan hyötyä kansalaisille. Tehokkuuden ja vaikuttavuuden ulottuvuuksien rinnalla julkisissa palveluissa tärkeää on hallinnon oman toiminnan tehokkuus, toisaalta demokratia. Jännitteet syntyvät näiden akseleiden kaikkiin päihin: Tehokas palvelu ei välttämättä ole hyödyllinen ja houkutteleva kansalaiselle, vaikka se olisi sitä hallinnolle, ja itsevaltainen hallinto on tehokas, mutta lyö demokratiaa korville.
Taloussanomat uutisoi 13.11.23 tekoälyn käyttötarkoituksista julkisessa hallinnossa Futuricen organisoiman selvityksen perusteella. Tekoälyn avulla voidaan esimerkiksi tehdä käännöksiä hallinnon dokumenteista eri kielistä toiseen, huoltaa kieltä ymmärrettävämmäksi kansalaisille, kerätä ja yhdistää tietoa eri dokumenteista, analysoida sitä ja tunnistaa erilaisia riskejä. Kansalaisille suunnattuja palveluja voisi tehostaa selvityksen perusteella myös asiakaspalvelun automatisointi ja nopeuttaminen tekoälyn avulla.
Juuri asiakaspalvelun tehostamista automatisoinnin avulla yritettiin kehittää kansallisessa tekoälyohjelma AuroraAI:ssä Marinin hallituksen aikana. Digi- ja väestötietoviraston tiedotteen mukaan AuroaAI-verkon ylläpito kuitenkin lopetetaan vuoden 2023 loppuun mennessä muun muassa siksi, että verkon käyttäjämäärät jäivät odotettua vähäisimmiksi. Ohjelman voi siis ajatella jossakin määrin epäonnistuneen, mutta kokeiluna se onnistui hyvin; AuroraAI toi tietoisuuteemme paljon oppeja tekoälystä ja julkisten palvelujen automatisoinnista.
Miksi kansalaiset eivät alkaneet käyttää AuroraAI-palvelua? Mitä siitä pitäisi oppia? Näihin kysymyksiin haettiin osaltaan vastauksia Suomen tekoälykeskuksen (FCAI) Ethics Advisory Board:in järjestämässä paneelikeskustelussa AuroaAI:n opeista Helsingin Tiedekulmassa 20.11.23. Kirjoitan tätä blogia perustuen siihen, että olin yksi panelisteista ETAIROS-hankkeen edustajana. ETAIROS on Strategisen tutkimuksen neuvoston rahoittama hanke, joka tutkii eettistä tekoälyä yhteiskunnan ohjauksessa.
Ihmiselämän kompleksisuus ja sosiaalisen hyväksyttävyyden paineet
AuroraAI:n aloitustilaisuudessa vuonna 2019 visioitiin, että ”tekoäly auttaa syventämään ymmärrystämme ihmisten todellisista tarpeista ja ratkaisuvaihtoehdoista”. AuroraAI keskittyi tehostamaan ihmisten elämäntapahtumiin liittyviä julkisia palveluja. Ohjelmassa pilotoitiin AuroraAI:tä esimerkiksi 13-17 vuotiaiden läheisistään huolehtivien nuorten palvelemisessa Tampereella, Helsingin NeRo-neuvolarobotin (chat) toiminnassa, sekä Turun tilannekuvaprosessin kehittämisessä erityisesti katuväkivallan yhteydessä. Kaikissa näissä piloteissa keskitytään tekoälyn käyttöön ihmisen henkisen hyvinvoinnin tunnistamisen tai analysoinnin näkökulmasta. Ihmiskeskeisyys siis todellakin oli ainakin ideaalitasolla AuroraAI-kehitystyön ytimessä.
Yksi tekoälyn keskeisistä hyvistä ominaisuuksista on, että kun siihen on saatu sisällytettyä algoritmi ja riittävästi laadukasta dataa, se voi tuottaa meille tietoa, jota sitä ilman emme voisi saavuttaa. Tekoäly siis voi parhaassa tapauksessa rikastuttaa ajatteluamme ja tuoda päätöksenteon taustaksi hyödyllistä tietoa ja uusia mahdollisuuksia. Se voi olla apuväline, jonka avulla syvennetään ymmärrystä ihmisten tarpeista ja ratkaisuvaihtoehdoista, kuten AuroraAI-ohjelman alussa visioitiin.
AuroraAI:n keskeiseksi jäsentäväksi periaatteeksi valikoitui elämäntapahtumat. Elämäntapahtumat tarkoittavat ihmisten elämissä toistuvia tapahtumia, kuten syntymä ja kuolema, naimisiin meneminen ja eroaminen, sairastuminen, työttömäksi joutuminen ja niin edelleen. AuroraAI:n ajatuksena on tunnistaa ja löytää ihmisen palvelun tarpeita tällaisissa elämäntapahtumissa. Jotta tämä mahdollistuisi digitaalisessa kontekstissa, tulee käsillä oleva asia pystyä mallintamaan melko yksiselitteisellä tavalla. Tämä voi ihmisen elämäntapahtumien kohdalla olla vaikeaa. Samoin hankalaa voi olla riittävän laadukkaan datan kerääminen ja syöttäminen järjestelmään.
Ihmiselämä on kaikessa rikkaudessaan monimuotoinen ja kompleksinen kokonaisuus, joten sen mallintaminen ja siitä datan tuottaminen voi olla haasteellista. AuroraAI:n kaltaisessa ihmisen elämän mallintamisessa voikin olla niin, että tekoälyteknologia sinänsä on meidän haasteistamme pienin. Tekoälyteknologia kun on itse asiassa jo vuosikymmeniä vanha teknologia, jonka juuret ulottuvat 1940-luvulle ensimmäisten tietokoneiden aikaan. Tietokone käsittelee tietoa automaattisesti ja perustuu matemaattiseen päättelyyn. Ihmisen ajattelu ja toiminta eivät aina ole matemaattista, ja toiset ihmiset ovat vielä vähemmän matemaattisten lainalaisuuksien mukaan toimivia kuin toiset, joten tästä lähtökohdasta katsottuna kaikenlaisten ihmisten ajattelun ja toiminnan mallintaminen lienee kovastikin haasteellista.
ETAIROS-hankkeessa olemme uudelleen ja uudelleen tunnistaneet, että tekoälyn luominen ja käyttäminen edellyttävät vastuullista suunnitteluprosessia. Tämä vahvistui myös AuroraAI-ohjelman tulosten kautta. Vastuullisuutta on huomioida inklusiivisuus eli tässä tapauksessa erilaiset ihmiset ja heidän erilaiset elämänsä, ja näiden elämien kompleksisuus. Niin ikään vastuullisuutta on huomioida tietosuoja, luottamus, saavutettavuus ja läpinäkyvyys. Tasa-arvo, yhdenvertaisuus, ihmisen, elämän ja luonnon kunnioittaminen ovat vastuullisuutta. Ihmiskeskeisessä palvelussa tärkeää on huomioida myös hiljainen tieto, tunteet, sekä palvelun haluttavuus ja sosiaalinen hyväksyttävyys.
Sosiaaliseen hyväksyttävyyteen liittyvät paineet saattoivat aiheuttaa ihmiselämän kompleksisuuden ohella AuroraAI-palvelun epäonnistumisen. Ihmisen syvien tunteiden syöttäminen koneelle, tai ylipäänsä ajatus siitä, että prosessoin elämän suuria ihmisyyteeni liittyviä kysymyksiä koneen kanssa, ei tunnu hyvältä. Miksi? Miksi on luontevampaa antaa tietoja lääkäri-ihmiselle, joka muodostaa tiedoista potilaan profiilin ja personoi ihmisen, kuin että tekoälykone tekisi sen? Vastaus lienee yksinkertaisesti inhimillisyys ja se, että tekoälyllä sitä ei ole.
Vaikka tekoäly kohtelee – tai voi kohdella - ihmistä samalla tavalla, oli ihminen kuka hyvänsä, ei se sinällään takaa yhdenvertaisuutta, tasa-arvoa ja oikeudenmukaisuutta. Tämä johtuu siitä, että tekoäly on aina ihmisen luoma, jolloin tekoälyä luovan ihmisen arvot, oikeudenmukaisuuden tunto ja ymmärrys erilaisuudesta muotoilevat tekoälyratkaisua. Tässä koetellaan vastuullista suunnitteluprosessia. Vastuullisuutta voidaan yrittää saavuttaa monitieteisillä, moniäänisillä ja monikulttuurisilla, siis inklusiivisilla suunnittelukäytännöillä, joissa niissäkin joudutaan varmasti yksinkertaistamaan asioita. Inhimillisyys on siis läsnä tekoälyn suunnittelussa, mutta kun tekoäly on toiminnassa, se ei tee inhimillisiä virheitä, vaan vain niitä ”virheitä”, joita siihen on ohjelmoitu.
Ihmisyys ei noudata aina logiikkaa – eikä välttämättä inhimillisyyttäkään
Uskon, että kaipaamme kompleksisten asioiden vuorovaikutukseen inhimillisyyttä. Tarvitsemme inhimillisyyden sisältämiä erilaisia sävyjä vaikeisiin ihmisyyttä ja sen ymmärrystä etsiviin keskusteluihin. Julkisista digitaalisista palveluista tehokkaana ja hyvänä pidetään yleisesti vero.fi -palvelua. Sen algoritmit ja data muodostuvat kuitenkin varsin yksinkertaisista ja suoraviivaisista asioista; Verot muodostuvat näin ja näin, vaikkakin verojen maksun taustalla on tietysti monenlaisia ihmisen elämän tapahtumia, kuten kuolemaa perintöverotuksineen ja työssä käyntiä tuloverotuksineen. Itse verotapahtuma on kuitenkin suoraviivainen tapahtuma, joka on ”helppo” mallintaa ja digitalisoida, ainakin helpommin kuin ihmisen elämä.
Lopuksi kysynkin olisiko AuroraAI:n tulevaisuus voinut olla erilainen, jos sitä olisi lähdetty pilotoimaan yksinkertaisempien julkisten palvelujen puitteissa, esimerkiksi lupaprosessien yhteydessä? Nuoren huoli lähimmäisestään, neuvolapalvelut ja katuväkivallan tilanteet ovat kaikki ihmisyyttä herkimmillään. Tällaiset asiat eivät välttämättä aina noudata logiikkaa, joka kuitenkin on mallintamisen ja digitalisoinnin edellytys. Logiikka saattaa tällaisissa elämän tapahtumissa jopa näivettää inhimillisyyden ja ihmisyyden. Siksi tekoäly ei tunnu hyvältä tällaisten asioiden käsittelyssä. Toisaalta ei ihmiselläkään julkisessa palvelussa aina saavuteta ihmisyyttä, sillä ihminen voi olla ihminen ilman inhimillisyyttä - vai voiko?
Kirjoittaja: Nina Wessberg
Dosentti Nina Wessberg työskentelee johtavana tutkijana VTT:llä.
Tallenne “Aurora AI - visio arjesta” -keskustelutilaisuudesta alla: