Tekoäly voi tehdä julkisesta palvelusta syrjivän tai tietoturvariskin - osallistava tutkimushanke tähtää parempiin palveluihin
Uuden tutkimusprojektin tarkoitus on auttaa valtiota ja pääkaupunkiseudun kuntia kehittämään luotettavia ja turvallisia tekoälyyn nojaavia sovelluksia ja vastaamaan tulevaan EU-sääntelyyn.
Tekoäly tehostaa jatkuvasti suurempaa osaa julkisista palveluista. Samalla algoritmipohjaisiin apuvälineisiin liittyy aina riskejä syrjinnästä yksityisyyden suojan loukkauksiin – etenkin, jos loppukäyttäjät eivät itse pääse vaikuttamaan kehitystyöhön.
Aalto-yliopiston uusi tutkimusprojekti tuo kansalaiset, sovellusten kehittäjät ja viranomaiset yhteen parempien tekoälyyn nojaavien palvelujen kehittämiseksi.
“Haluamme voimaannuttaa kaikki osapuolet tekemään parempia päätöksiä ja ymmärtämään näiden teknologioiden seuraamuksia”, sanoo projektia johtava työelämäprofessori Nitin Sawhney Aalto-yliopistolta ja Suomen tekoälykeskus FCAI:lta.
“Meidän täytyy suojella itseämme järjestelmiltä, jotka tekevät meistä oletuksia jotka eivät ole reiluja tai oikeita.”
Civic Agency in AI -projektin tarkoitus on parantaa erityisesti valtion sekä Helsingin ja Espoon kaupunkien käyttämiä tekoälytyökaluja. Hankkeen ytimessä ovat tapaustutkimukset, joissa tarkastellaan, miten luotettavia ja eri ihmisryhmien kannalta tasapuolisia kansalaisille tarjotut palvelut ovat. Suunniteltujen tutkimuskohteiden joukossa ovat muun muassa Espoon kaupungin maahanmuuttajille suunnatut digitaaliset neuvontapalvelut sekä Kelan asiakkaita auttava chatbot.
Tekoälypohjaisten palveluiden luotettavuus on Suomessa juuri nyt erityisen ajankohtainen kysymys, koska Euroopan Unioni on kehittämässä uutta lainsäädäntöä niiden säätelemiseksi. Yksi tutkimusprojektin päämääristä on auttaa julkista sektoria ymmärtämään odotettavissa olevan lainsäädännön seuraamukset olemassa oleville ja suunnitelluille palveluille.
“Näen säätelyn mahdollisuutena innovaatioille. Jos me Suomessa pystymme rakentamaan järjestelmiä, jotka ovat ymmärrettäviä ja vastuullisia sekä osoittamaan työkalumme ja käytäntömme luotettaviksi, meillä on kilpailuetu muuhun maailmaan nähden”, Sawhney sanoo.
Tutkijoiden tarkoituksena on esitellä työtään sekä Suomen hallitukselle että EU:lle, ja lopulta vaikuttaa politiikan linjauksiin.
Työpajat tuovat yhteen sovellusten kehittäjät ja käyttäjät
EU ei ole ainoa alue, jossa säätely tai sen mahdollisuus asettaa palveluntarjoajat uuden eteen. Yhdysvalloissa useat rahoitusta kahmineet startup-firmat tekevät jo sitä työtä, jota Sawhney kumppaneineen aloittelee Suomessa.
“Panokset ovat todella korkealla. Yritykset tuntevat lainsäätäjiltä tulevan paineen ja ne investoivat paljon rahaa. Siksi uusia startupeja syntyy auttamaan firmoja säätelyn kanssa ja kehittämään työkaluja ja teknologiaa niiden avuksi”, Sawhney sanoo.
Sawhney pitää tärkeänä, ettei keskeinen työ tekoälysovellusten läpinäkyvyyden edistämiseksi jää vain yksityisille yrityksille.
Tutkijat aikovat järjestää haastatteluja ja työpajoja, joihin he kutsuvat laajan joukon sovellusten kehittäjiä ja käyttäjiä. Tapahtumien pohjalta he kokoavat yhteen toimivia toimintamalleja ja yleistettäviä suosituksia hyvään hallintoon. Projektissa myös kerätään muun muassa mediateksteistä ja poliittisista dokumenteista aineisto, jonka avulla tutkijat analysoivat kielitieteen keinoin tekoälyyn ja sen etiikkaan liittyviä puhetapoja yhteiskunnassa.
“On tärkeää ymmärtää, miten erilaiset toimijat puhuvat näistä algoritmeista. Se vaikuttaa meidän ymmärrykseemme tekoälystä ja sen mahdollisuuksista”, projektin kielitieteellisestä analyysistä vastaava väitöstutkija Kaisla Kajava sanoo.
Civic Agency in AI -hanke on saanut Koneen säätiöltä nelivuotisen rahoituksen. Projekti alkoi vuoden alussa.