Eettisen toimikunnan blogi: Millaista etiikkaa tekoälytutkimus tarvitsee

Eettisen tekoälyn kehittämisestä näyttää tulleen kuuma puheenaihe. Erilaisia tekoälyn eettisiä, reiluja tai ihmiskeskeisiä periaatteita ja normistoja julkaistaan eri puolella maailmaa. [i] Niitä yhdistää pyrkimys listata tärkeinä pidettyjä arvoja. Eettiseksi koodiksi koottuna ne asettavat tavoitteen toteuttaa erilaisia hyviä toiminnassa. Koska periaatelinjaukset ovat luonteeltaan yleisiä, on usein vaikea sanoa, mitä niiden toteutuminen edellyttää ja miten ne voitaisiin siirtää käytäntöön. On helppo julistaa sitoutuvansa suunnittelemaan ja tuottamaan eettisesti kestäviä tekoälysovelluksia, jos tekoälyetiikka tiivistetään abstrakteiksi arvokkaiden asioiden luetteloiksi. Ylevien periaatteiden ja toiminnan välille muodostuu helposti vaikeasti ylitettävä kuilu niin, että eettiset linjaukset ovat vaarassa muuttua merkityksettömiksi. 

Yksi askel tekoälytutkimuksen etiikan konkretisoimiseksi on eritellä, mitä erilaisia vastuita tutkijalla ja kehittäjällä on. Apuna voidaan käyttää eettisesti korkeatasoisen tieteellisen tutkimuksen vaatimuksia. Tutkimusta tehdään ensinnäkin aina osana yhteiskuntaa. Julkisella vallalla on merkittävä rooli tutkimuksen rahoittajana, mikä näkyy vaatimuksena, että tulokset hyödyttävät yhteiskuntaa. Useimmat tutkijatkin toivovat, että heidän työnsä edistää hyviä tavoitteita, jonkin yhteiskunnallisen ongelman ratkaisemista, ihmisten hyvinvoinnin edistämistä, ekologista monimuotoisuutta ja kestävyyttä tai todennetun tiedon kartuttamista todellisuutta koskevan ymmärryksen lisäämiseksi. Kun mukana on erilaisia yhteiskunnan toimijoita, voivat julkilausut tavoitteet olla kuitenkin ristiriitaisia. Tavoitteina tehokkuutta, tasa-arvon ja saavutettavuuden edistämistä, yksityisyyden suojan turvaamista ja uusien, talouskasvua tukevien innovaatioiden luomista ei ole helppo sovittaa yhteen.

Terve vuorovaikutussuhde tutkijayhteisön ja yhteiskunnan välillä on jännitteinen. Päätöksentekijät toivovat tiedeyhteisön tuottavan poliittisten tavoitteiden kannalta sopivia tutkimustuloksia. Tutkijat voivat henkilökohtaisen etunsa ajamiseksi suostua toimimaan poliittisten toimijoiden apureina. Tiede toteuttaa kuitenkin tehtäväänsä – ja palvelee parhaiten myös yhteiskuntaa – esittämällä kriittisiä näkemyksiä. Siksi myös päätöksentekijöiden ja kansalaisten kannalta epämiellyttäviä aiheita on tutkittava ja myös tärkeiden tavoitteiden kannalta epämieluisat tulokset on julkaistava. Sama edellytys koskee toki muitakin yhteiskunnan toimijoita. Tekoälyä kehitetään yhdessä yritysten ja kansainvälisten kumppaneiden kanssa. Ne pyrkivät edistämään omia intressejään, joihin tulee myös suhtautua kriittisesti.  

Toisenlainen, välittömämpi vastuusuhde muodostuu tutkijan ja tutkimuskohteen välille. Etenkin lääketieteellisen tutkimuksen historiassa ilmenneet väärinkäytökset – erityisesti natsi-Saksassa – johtivat siihen, että luotiin eettisiä koodistoja turvaamaan tutkimuskohteiden asema ja oikeudet. Tällainen eettinen ennakkoarviointi kuuluu olennaisena osana lääketieteen tutkimukseen, ja on vähitellen levinnyt myös muille ihmisiä ja eläviä olentoja koskevaan tutkimukseen. Aloilla, joilla tutkittavien asemaan ei perinteisesti ole ollut tarpeen kiinnittää huomiota, tutkijat voivat tahtomattaan sivuuttaa tutkittavien kannalta tärkeitä seikkoja. Tekoälytutkimuksessa ei yleensä puututa ihmisen fyysiseen koskemattomuuteen, vaan käsitellään tietoa ihmisistä. Tutkijan suhde tutkimuskohteisiin on etäinen. Käsiteltävä aineisto voi koostua esimerkiksi rekistereistä tai muusta datasta, jonka keruusta, käytöstä tai luonteesta datan lähteenä käytetyt ihmiset eivät ole lainkaan tietoisia.

Kolmanneksi tutkija on työstään vastuussa tiedeyhteisölle. Sitä toteutetaan noudattamalla hyvää tieteellistä käytäntöä. Keskeistä on, että tutkija noudattaa tiedeyhteisön tunnustamia eettisesti kestäviä toimintatapoja, jotka on tiivistetty rehellisyydeksi, yleisen huolellisuuden ja tarkkuuden noudattamiseksi tutkimustyössä, tulosten tallentamisessa ja esittämisessä sekä tutkimusten ja niiden tulosten arvioinnissa. [ii]Tutkimuseettiset normit turvaavat paitsi tutkimuksen myös tutkimusyhteisön integriteettiä. Niiden rikkominen vahingoittaa sekä tutkimusta että tiedeyhteisöä: epärehellisin keinoin saavutetut tulokset eivät ole luotettavia, ja epärehellisen tutkijan toiminta uhkaa myös muiden tutkijoiden työtä.

Nämä vastuusuhteet selventävät tekoälytutkimuksen etiikan eri tasoja, mutta edustavat vain pintaraapaisua siihen monimutkaiseen toimijoiden, tavoitteiden ja periaatteiden verkostoon, jossa tekoälyä tutkitaan, kehitetään ja sovelletaan. Tärkeä kysymys on esimerkiksi, millainen vastuu tutkijoilla ja kehittäjillä on valmiista tekoälysovelluksista. Pitääkö tutkimuksessa pystyä ennakoimaan tulevia sovelluksia ja muokkaamaan tutkimuksen lähtökohtia niin, että epäeettiset käyttömahdollisuudet voidaan minimoida? Mikä on tutkimuksen ja sovelluksen raja? Lienee syytä pohtia, tarvitaanko tällaisia kysymyksiä varten tutkimushankkeiden yhteiskunnallisten vaikutusten arviointia.

Monille tutkimusaloille on muotoiltu käytännöt eettiseen ennakkoarviointiin. Ne eivät kuitenkaan riitä kattamaan koko tekoälytutkimuksen kenttää ja sen osa-alueita. Esimerkiksi rekisteritutkimukseen ei sovelleta ennakkoarviointia ja lääketieteen tutkimusta säännellään tiukemmin kuin esimerkiksi ympäristöön tai liikenteeseen liittyvää tekoälytutkimusta, vaikka niissäkin on eettisiä haasteita. 

Yksittäisen tutkijan tai tutkimushankkeen on hankalaa navigoida nykyisessä ympäristössä. FCAIn eettinen toimikunta yrittää tuoda apua tilanteeseen. Toimikunta ei tee tutkimussuunnitelmien eettistä ennakkoarviointia, vaan tukee ohjelmia ja projekteja niiden kohtaamissa eettisissä ongelmissa ja ongelmakohtien tunnistamisessa. Tavoitteenamme on herättää keskustelua ja lisätä tietoisuutta eettisistä kysymyksistä sekä tunnistaa tulevia haasteita ja etsiä niihin yhdessä ratkaisuja.

Lue lisää FCAI:n eettisen toimikunnan blogitekstejä ja tutustu sen toimintaan (englanniksi) →


[i] European Commission’s European Group on Ethics in Science and New Technologies (2019), Statement on Artificial Intelligence, Robotics and ‘Autonomous’ Systems; Future of Life Institute, Asilomar AI Principles (2017); The Institute of Electrical and Electronics Engineers 2018, Ethically Aligned Design version 2: A Vision for Prioritizing Human Well-being with Autonomous and Intelligent Systems. https://standards.ieee.org/content/dam/ieee-standards/standards/web/documents/other/ead_v2.pdf; Montréal Declaration for Responsible Development of Artificial Intelligence (2018).

[ii] Hyvä tieteellinen käytäntö. https://tenk.fi/fi/tiedevilppi/hyva-tieteellinen-kaytanto-htk

 
 
Hallamaa.png

Jaana Hallamaa

Professori, Sosiaalietiikka, Helsingin yliopisto

 
Snell.png

Karoliina Snell

Yliopistonlehtori, Sosiologia, Helsingin yliopisto

 
 
Kaisa Pekkala