EU:n lakiesitys tekoälyjärjestelmien säätelemisestä sisältää vakavia puutteita

Euroopan unioni on valmistelemassa lakiesitystä korkean riskin tekoälyjärjestelmien säätelemiseen. FCAI huomauttaa, että huonosti toteutettuna säätely voi tarpeettomasti jarruttaa positiivista talouskehitystä Euroopassa.

Kuva: Christian Lue / Unsplash

Kuva: Christian Lue / Unsplash

“On hienoa, että Eurooppa haluaa olla edelläkävijä kehittyneiden digitaalisten järjestelmien säätelyssä, koska niillä ja niiden kehityksen perustana olevilla tekoälyjärjestelmillä tulee olemaan niin suuri vaikutus elämäämme. Jos laki kuitenkin viimeistellään ilman tarvittavaa asiantuntemusta, voi Eurooppa vaikuttaa taaksepäin katsovalta ja säätely muodostua byrokraattiseksi ja kankeaksi, mikä antaa muille maanosille mahdollisuuden korjata tekoälyteknologioiden tarjoamat valtavat edut”, varoittaa tekoälyn ja koneoppimisen professori, Suomen tekoälykeskus FCAI:n varajohtaja Petri Myllymäki.

On ensiarvoisen tärkeää taata, että mitään digitaalista teknologiaa ei ruveta säätelemään vain teknologiana, käyttötarkoituksesta riippumatta. Esimerkiksi kuvantunnistusta voi käyttää vaikkapa tiettyjen etnisten ryhmien edustajien poimimiseen väkijoukoista, mikä sortaa ihmisoikeuksia. Samaa teknologiaa voi kuitenkin käyttää myös puhelimen näytön avaamiseen, terroristien tunnistamiseen lentokentällä tai estämään autoja törmäämästä jalankulkijaan.

Esitysluonnoksessa onkin hyvää se, että säätely suunnitellaan kohdennettavaksi erikseen luokiteltaviin korkean riskin käyttötarkoituksiin, joissa tekoälyjärjestelmiä saa käyttää vain säädellyillä tavoilla tai ei ollenkaan. Ongelmallista on kuitenkin se, että säätely rajoitetaan koskemaan ainoastaan tietyt ehdot täyttäviä tekoälyjärjestelmiä, ei kaikkia digitaalisia järjestelmiä. Mikäli samaan korkean riskin käyttötarkoitukseen on olemassa kaksi vaihtoehtoista järjestelmää, joista toinen täyttää lakiehdotuksen mukaisen tekoälyn määritelmän ja toinen ei, herää kysymys siitä, säädelläänkö näitä järjestelmiä eri tavoin. Onko esimerkiksi sellainen rekrytoinnissa käytettävä järjestelmä, joka syrjii hakijoita sukupuolen perusteella, lakiehdotuksen mukaan säätelyn ulkopuolella, kunhan se ei täytä tekoälyn tunnusmerkkejä?

Toinen vakava ongelma juridisen kehikon perustamisessa tiettyyn tekoälyjärjestelmien määritelmään on se, että tämä tarjoaa suoran keinon kiertää säätelyä, jos riittää, että rakentaa järjestelmän, joka ei noudata komission tekoälyjärjestelmän määritelmää.

“Tämä tulee koko ajan helpommaksi, koska tekoäly kehittyy nopeaa vauhtia. Jatkuvasti syntyy uusia teknologiota, joita mikään tämänhetkinen määritelmä ei osaa kattaa. On huomattava, että tekoäly ei ole mikään yksittäinen teknologia, vaan suuri joukko erityyppisiä menetelmiä, jotka kehittyvät eri suuntiin ja joita voi soveltaa hyvin monenlaisiin käyttötarkoituksiin”, sanoo Myllymäki.

EU-alueen taloudellisen ja teknisen kehityksen kannalta tiukka sääntely voi olla haitta. Jos korkean riskin käyttötarkoitusten luokittelusta muodostuu monimutkainen ja hankala mekanismi, voi se hidastaa tekoälyteknologioiden käyttöönottoa toivotuissa tarkoituksissa Euroopassa.

“Suomalaisille yrityksille tiukka sääntely voi olla ongelma. Suomessa ollaan usein erityisen varovaisia. Moni tilaisuus jätetään ehkä käyttämättä varmuuden vuoksi”, sanoo FCAI:n yritys- ja yhteiskuntavaikuttavuusohjelmaa vetävä VTT:n tutkimusprofessori Heikki Ailisto.

Suomen tekoälykeskus FCAI kannattaa tekoälyjärjestelmien ja muiden digitaalisten järjestelmien säätelyn kehittämistä etenkin korkean riskin käyttötarkoituksissa, mutta huomauttaa, että huonosti toteutettuna säätely voi tarpeettomasti jarruttaa positiivista talouskehitystä Euroopassa. On varmistettava, että toimenpiteet ovat huolella suunniteltuja ja oikein mitoitettuja, eivätkä ne estä positiivista teknologista kehitystä.

Komission lakiesitysluonnos vuodettiin julkisuuteen aiemmin kuluvalla viikolla. Varsinainen julkaisupäivä on 21.4.2021.

Kaisa Pekkala