Prof. Arno Solin keskustelee EAB:n Karoliina Snellin kanssa etiikasta tekoälytutkimuksessa

Milloin tekoälytutkija pohtii tutkimukseensa linkittyviä eettisiä kysymyksiä? Miten näitä kysymyksiä tulisi ratkoa? Koneoppimisen professori ja FCAI:n koordinoiva professori Arno Solin ja Ethics Advisory Boardin jäsen Karoliina Snell keskustelevat eettisen pohtinnan roolista tekoälytutkimuksessa. Haastattelu löytyy tekstitettynä videon alta.


Haastattelu tekstimuodossa

Tervetuloa professori Arno Solin Aalto-yliopistosta tähän keskusteluun yhdessä FCAI:n Ethics Advisory Boardin kanssa. Keskustelemme siitä, millaista eettistä työkalua tai apua tekoälytutkijat tarvitsevat.

Missä vaiheessa tutkimusta tai julkaisuja tutkijat joutuvat pohtimaan ja artikuloimaan eettisiä näkökulmia omaan tutkimukseensa?

Tämä on itse asiassa tosi hyvä kysymys. Fakta on se, että ei ole sellaista yhtä kohtaa, että nyt pitää ottaa eettiset pohdinnat kehiin, koska se menee harmaan sävyissä tutkimusprosessin edetessä. Jos pohditaan, mikä se tyypillinen tekoälymenetelmän kehityskaari on, se lähtee matemaattisista perusteista, jolloin saattaa olla, että siellä on kasa integraaleja tai kasa oletuksia vaikka liitutaululla tai tussitaululla, jossa sitten tavallaan menetelmä jalostuu ja jossakin kohtaa se siirtyy matemaattisista kaavoista tietokoneohjelman koodiksi, ja sitten siinä vaiheessa sanotaan textplay leludatalla asioita... Mutta ehkä viimeistään siinä vaiheessa, kun ruvetaan yhdistelemään tutkijoiden oletuksia ilmiöstä, joka käytännössä generoisi sen datan, ja versus se, että meillä on havaintoja oikeasta maailmasta, jotka yhdistetään niihin oletuksiin, niin viimeistään siinä kohtaa varmasti eettiset asiat pitäisi tulla esille. Ihan pelkästään, vaikka ei vielä puhuta siitä, että tekoäly tekisi päätöksiä tai vaikuttaisi ihmisten elämään, mutta siinä kohtaa ehkä on oikea hetki pohtia, ovatko mallioletukset, joita tehtiin, ylipäätään järkeviä, onko tekoälymallissa esimerkiksi sellaisia ongelmia, että tavallaan datasta etsitään vain tietty moodi ja lukkiudutaan siihen, ja kaikki diversiteetti katoaa jo siinä vaiheessa, vai mitä tapahtuu? Ja sitten tietysti, kun mennään tästä eteenpäin ja ryhdytään soveltamaan eri asioihin, ehkä yhdistetään muihin malleihin osaksi isompaa tekoälyjärjestelmää, siinä vaiheessahan se on tietysti erittäin tärkeää. Mutta ei siis ole mitään yksittäistä kohtaa, vaan se tulisi olla osa koko prosessia.


Osaavatko tutkijat ottaa kantaa eettisiin kysymyksiin luonnostaan ja miettiä niitä, vai tarvittaisiinko eettisten kysymysten pohdintaan ulkopuolista näkökantaa ja avustusta? Vai onko etiikka osa tutkijoiden omaa tieteellistä pätevyyttä?

Pikemminkin nimenomaan niin, että tämä ei ole tyypillinen osa tekoälykehitystä. Asia on muuttumassa, kyllä, mutta jos mietitään, että koko tekoälyn ja koneoppimisen kenttä on vastikään murtautunut yleiskäyttöön. Jos mennään 10 vuotta taaksepäin, niin paljon tutkimuksesta tapahtui laboratoriossa, jossa kehitettiin ja testattiin, ja julkaistiin tiedeyhteisölle, ja se pysyi siinä piirissä. Nykyään jos tapahtuu joku innovaatio, niin menee parhaassa tapauksessa viikkoja ja se on jo käytössä jossakin, ihan ihmisten sovelluksissa matkapuhelimissa tai netissä, missä se sitten onkaan. Tämä on uutta, ja tekoälykenttä ja koneoppimistutkijat eivät ole ihan pysyneet ihan täysin tahdissa mukana. Ei akateemisella puolella mutta ei toisaalta myöskään varmasti teollisuuden puolella. Tämä on uutta koko tekoälyn kentälle, että nämä [eettiset] asiat tulevat iholle hyvin nopeasti.


No, miten se ratkaistaan. Jos pitää miettiä eettisiä haasteita ja mahdollisuuksia, miten lähdet niitä miettimään?

Tämä riippuu paljolti tehtävästä tutkimuksesta ja tutkimusprojektista. Sanoisin, että mitä soveltavampaa, sitä nopeammin [eettiset kysymykset] tulevat vastaan. Ja sitä luontevampaa onkin miettiä niitä. Jos mietitään vaikka että tekoälyn kenttä on hyvin moninainen. Yhdessä ääripäässä ovat generatiiviset mallit, siellä on paljon esimerkkejä siitä, että tekoälymalleissa pystytään generoimaan aidon näköisiä kuvia ihmisistä, ja niissä tavallaan on ehkä selkeämpää, millaisia eettiset kysymykset ovat. Samoin esimerkiksi kuvien luokittelussa kuten myös vaikka lääketieteellisen datan suhteen ollaan sovellusrajapinnassa, jossa tulee hyvinkin suoraan mieleen, että tässä on potentiaalisia ongelmia, ja tavallaan maallikkokin ymmärtää hyvin helposti, että siellä kaikki ei ole suoraan kunnossa.

Kun sitten mennään kauemmas sovelluksista ja ollaan enemmän perusperiaatteiden parissa, on ehkä hankalampaa tunnistaa, mitä potentiaaliset ongelmat ovat ja tunnistaa, että valinnat, joita tehdään tavallaan alimmalla tasolla mallin kehityksessä saattavat myöhemmin johtaa isoihinkin ongelmiin, kuten esimerkiksi diversiteetin huomioimisessa tai muissa vastaavissa kysymyksissä. Niitä ei myöskään ole helppo analysoida, koska empiirinen tarkastelu loppuvaiheessa ei välttämättä kuitenkaan paljasta kaikkia ongelmia. Siksi myös teoriapuolella menetelmäkehityksessä pitää olla hereillä.            


Käytättekö te apuna erilaisia listauksia, kun on kaikenlaisia listauksia, on Unescoa ja High level ethics groupia ja eri firmatkin ovat tehneet ohjeita, pohditteko näiden kautta vai omasta ymmärryksestä datasta ja malleista. Mistä eettiset pohdinnat lähtevät liikkeelle?

Suurin osa koneoppimistutkijoistahan on nimenomaan koneoppimistutkijoita, oman alansa asiantuntijoita, ja sanoisin, että hyvin harva on pehmeiden tieteiden asiantuntijoita tai edes välttämättä ymmärtäjiäkään. Siksi viime vuosina on pyritty tukemaan toisaalta eri julkaisufoorumien kautta tukijoita erilaisten eettisten check listojen avulla; että käy vähintään nämä asiat läpi ja pohdi vähintään näitä asioita, ja tarkastele tehtyä tutkimusta tai kehitettyjä menetelmiä tietyistä näkökulmista ja vastaa kysymykseen, että onko mahdollista käyttää tätä johonkin [epäeettiseen]. Kyse ei välttämättä ole kaksoiskäyttöongelmista, mutta kyse voi saattaa olla hyvinkin arkipäiväiseistä ja pienistä asioita, joissa ei välttämättä edes tule tutkijoille mieleen, että ne saattavat johtaa potentiaalisiin isoihinkin ongelmiin, kun pienet ongelmat akkumuloituvat eri puolille mallia. Tämä on se tuki, mitä tutkijoilla on käytettävissään tällä hetkellä, erilaiset check listat ja ohjeet, mitä tulee pohtia esimerkiksi julkaisujen valmisteluvaiheessa.


Jossakin rahoitusvaiheessakin tarvitaan ymmärrystä eettisitä kysymyksistä, sen lisäksi että eri konferenssit ja julkaisut vaativat eettistä pohdintaa. Tarvittaisiinko tähän muunlaistakin apua kuin check listaa, riittääkö se? Vai vaatisiko se lisää koulutusta, että saadaan ihmiset ymmärtämään ja check listit tuntuvat helpommilta? Voisiko FCAI:n EAB toimia supportpaikkana, jonka kanssa tutkijat voivat keskustella eettisistä kysymyksistä? Minkälaista tukea tarvittaisiin, että tämä sujuisi helpommin.

Tämä on hyvä kysymys, johon minulla ei ole suoraa vastausta. Ei ole olemassa vain yhdenlaista tekoälytutkimusta, vaan kenttä on moninainen ja monitahoinen. Esimerkiksi Aalto-yliopistossa kaikki tutkimusprojektit ja koeasetelmat, joihin liittyy ihminen - ja lääketieteellinen tutkimus on vielä erikseen - mutta siis tutkimukset, joissa käsitellään joko ihmisiä koehenkilöinä tai sitten ihmisistä kerättyä dataa, kulkevat Aallossa eettisen arvioinnin kautta. Tämä on hyvinkin rigööri [arviointi] ja tietynlainen pipeline, jossa varmistetaan ja käydään läpi tietyt asiat ja eettiset ulottuvuudet datan hallinnan ja koeasetelman suhteen sekä sen suhteen, miten ihmiset ovat osa koetta.

Vastaava prosessi tekoälypuolella voisi olla se, että siinä vaiheessa, kun tutkimus on suunniteltu tai kun se on edennyt julkaisuvaiheeseen, se voisi käydä läpi arviointi- tai kommentointiprosessin. Useinhan ajavana voimana tieteellisissä julkaisuissa saattaa olla vaikka ensimmäisen vuoden jatko-opiskelija, joka ei ole törmännyt [eettisiin] kysymyksiin eikä miettinyt niitä. Siksi olisi hyvä, että hän saisi tukea [eettisten kysymysten] pohdintaan tutkimusten raportoinnin yhteydessä.


Kiitos tästä keskustelusta. Jatkamme eettisten asioiden pohtimista jatkossakin, ja perehdymme lisää FCAI:n Ethics Exercise Tooliin, jonka avulla seuraavan kerran keskustelemme lisää.

Kiitos!


FCAI Ethics Advisory Board (EAB): https://fcai.fi/ethics-advisory-board

FCAI Ethics Exercise Tool: https://fcai.fi/ethics-exercise

Kaisa Pekkala