Tekoälyn 10 yleistä haastetta—pitääkö olla huolissaan?

Julkinen keskustelu tuottaa helposti kuvia tekoälyn riskeistä, joita on vaikea konkretisoida. Pitkän aikavälin vaikutuksia on vaikea hahmottaa ja helposti aliarvioimme muutoksen. VTT:n johtava tutkija, dosentti Jaana Leikas esittää kymmenen huolta tekoälyn kehityksen yhteiskunnallisista ja inhimillisistä seurauksista.

Tekoäly voi edistää kansalaisten hyvinvointia, mutta se voi myös lisätä ihmisten kaltoin kohtelua ja uhata oikeudenmukaisuutta ja demokratiaa. UNESCOn tekoälyn etiikkaa koskevassa suosituksessa todetaan, että ”monien etujen ohella tekoälyteknologiat tuovat mukanaan riskejä ja haasteita, jotka johtuvat teknologian pahantahtoisesta käytöstä tai eriarvoisuuden ja kuilujen syvenemisestä.” Ensin mainittu näkökulma liittyy tahalliseen ilkeään toimintaan ja toinen kyvyttömyyteen ennakoida tekoälyn pitkän tähtäimen vaikutusta ihmisiin, ihmisten välisiin suhteisiin, yhteiskunnan toimivuuteen ja luontoon.


1. Vallan uusjako. Tekoälypohjainen alustatalous kasvaa. Samalla osa yhteiskunnallisesta vallankäytöstä siirtyy yhä enemmän alustajäteille ja keskittyy demokraattisten instituutioiden ulkopuolelle. Vuonna 2022 toteutetun kyselyn mukaan NLP-tutkimusyhteisö totesi, että yksityisillä yrityksillä on liikaa vaikutusvaltaa. Meredith Whittaker, Googlen entinen työntekijä ja yksi New Yorkin tekoälyinstituutin perustajista, on useaan otteeseen todennut, että tekoälyn sääntelykeskustelun tulisi mieluusti kohdistua lakien sijaan liiketoimintamallien valvonnan pohtimiseen.

Digijättien toimintalogiikka perustuu mahdollisimman suuren datamäärän keräämiseen käyttäjistä ja sen eteenpäin myymiseen eri tarkoituksiin, kuten mainoksiin, mutta myös esimerkiksi poliittiseen vaikuttamiseen. Suuret yritykset pystyvät vaikuttamaan siihen, mitä kehitetään ja millaisia toimintamalleja tekoälyn kehittämiseen hyväksytään ja otetaan käyttöön kansainvälisesti. Ne pystyvät pääomasijoittamisen kautta myös vaikuttamaan pienyritysten toimintaan.

2. Työtehtävät uusiksi. Työpaikalla on sosiaalinen ja ihmisen persoonaan vaikuttava merkitys. Itsensä ja perheensä elättäminen on edelleen monelle identiteetti- ja itsetuntokysymys. Tekoäly kyseenalaistaa työhön perustuvan ihmisarvon haastaessaan esimerkiksi tietotyön kyvykkyyksiä. Erityisesti generatiivisella tekoälyllä on toimialoja mullistava potentiaali. Laajojen kielimallien kehityksen valossa käydään keskustelua siitä, onko yhteiskunnallisia rakenteita pystyssä pitävä keskiluokka menettämässä työpaikkoja.

VTT:n ja Tekniikan akateemisten 2023 tekemän selvityksen mukaan (900 vastaajaa) tehtäviä korvaava tekoäly on huolenaihe, mutta ei suuri uhka. Tekoälyyn perustuviin muutoksiin suhtaudutaan ennakoivasti ja taitojen parantamisen tarve on edelleen suuri.

3. Eriarvoisuus lisääntyy. Yksi suurimmista tekoälykehityksen ja digitalisaation kysymyksistä on episteeminen eriarvoisuus. Yhdenvertaisuus ja tasa-arvo toteutuvat vain, jos kaikilla on yhtäläiset mahdollisuudet saada totuudenmukaista tietoa ja ymmärtää tekoälyn tuottamia vaihtoehtoja ja niiden seurauksia. Tiedolliset oikeudet ja kyvykkyydet mahdollistavat kansalaisten tasa-arvon tahdonmuodostuksessa. Etenkin ne, jotka ovat haavoittuvassa asemassa, kuten kognitiivisilta kyvyiltään tai mielenterveydeltään heikentyneet, ovat erityisen alttiita syrjäytymiselle ja teknologian mahdollistamille väärinkäytöksille.

On tärkeää pitää kaikki mukana kehityksessä ja varmistaa oikeudenmukainen ja reilu siirtymä tekoälyn tukemaan post-labour -yhteiskuntaan. Miten tukea niitä, joille digitaalisten palvelujen käyttö on ylivoimaista ja esimerkiksi vahva sähköinen tunnistautuminen mahdotonta? Olisiko tasa-arvoisempaa esimerkiksi siirtyä kielimallipohjaisten bottien käyttöön ja mahdollisuuteen hoitaa asioita verkossa puhumalla kirjoittamisen sijaan?

4. Vinoutunut data. Tekoäly on ihmisten kehittämää—ihmisten, jotka voivat olla puolueellisia ja tuomitsevia. Heidän asenteensa voivat periytyä algoritmeihin ja muuttaa sitä, miten ihmisiä arvioidaan, millä perusteilla heitä koskevia päätöksiä tehdään ja millaisia palveluita heille tarjotaan. 

On vaarallista, jos tekoälyn käytössä vahvistetaan algoritmien kehittäjien arvostuksia ja uskomuksia. Kun yhdysvaltalaisessa tutkimuksessa syötettiin kongressin jäsenten valokuvia ja poliitikkojen Twitter-kuvia Googlen pilvikuvien tunnistamispalveluun huomattiin, että naisten kuvat saivat kolme kertaa miehiä enemmän fyysiseen ulkonäköön liittyviä merkintöjä. Koodatut ennakkoluulot vahvistavat haitallisia sukupuolistereotypioita.

Jaana Leikas. Kuva: Tiina Ahovainio

5. Massavalvonta. Kuljemme kaupungilla entistä turvallisemmin, sillä lukuisat kaupunkikamerat ja tekoälyteknologia ennaltaehkäisevät turvallisuutta vaarantavia tilanteita. Shanghain kaupungilla kulkevat tekoälyavusteiset robottikoirat valvoen pandemiarajoitusten noudattamista ja muistuttaen kansalaisia ohjeistuksesta antamalla komentoja lähistöllä oleville.

Algoritmiteknologian avulla voidaan tunnistaa yksilöitä suuristakin datamassoista yhdistelemällä erilaisia tietokantoja. Väärin käytettynä teknologia massavalvonnassa voi kuitenkin johtaa jopa demokraattisten prosessien horjuttamiseen ja kontrollointiin. Tämä taas voi edesauttaa sellaisten yhteiskuntien syntymistä, joissa kaiken näkevä ja kaikkialle leviävä valvonta luo totalitaarisia rakenteita ja vaikuttaa koko elämään.

Tulevaisuuden virtuaaliympäristöissä tekoäly mahdollistaa yksilöiden tunnistamisen lisäksi tunteiden havaitsemisen. Tämä tuo keinoja henkilöiden persoonallisuustyyppien ja psykologisten asenteiden, esimerkiksi rikollisen luonteenlaadun, selvittämiseen. Kolikon toinen puoli on, että datan avulla voitaneen paljastaa muutakin esimerkiksi yksilöiden mielenterveydestä, seksuaalisuudesta ja poliittisista mielipiteistä.

6. Profilointi ja automaattinen päätöksenteko. Massadataa hyödyntäen yksilö profiloidaan datan perusteella tiettyyn tyyppiin tai ryhmään kuuluvaksi. Massadata sisältää vain harvoin informaatiota siitä sosiaalisesta kontekstista, jossa se on tuotettu. Se hävittää näin ollen helposti myös datan keräämiseen liittyvät taustaolettamat, elämän kontekstit. Siksi yksi tekoälyä koskeva pelko on, että yksilöitä koskevat päätökset syntyvät kapeanäköisesti ennakko-oletukseen pohjautuvina automatisoituina prosesseina, joissa henkilö typistyy mekaanisesti tulkittujen säännösten kohteeksi. Kansalaisen on vaikea selvittää itseä koskevan päätöksen perusteita ja taustoja, saati puolustaa oikeuksiaan, sillä massadatan analysointiin käytettävät algoritmit ovat koneoppimistekniikoiden tuottamina läpinäkymättömiä ja sisältävät monimutkaisia päättelyketjuja.

Tuleva Euroopan tekoälysäädös nostaa riskien tarkasteluun erityisesti sellaiset tekoälyjärjestelmät, jotka aiheuttavat suuren riskin luonnollisten henkilöiden terveydelle, turvallisuudelle tai perusoikeuksille. Suomessa hallintolaki onneksi rajaa erityistä harkintaa vaativat tapaukset automaattisen päätöksenteon ulkopuolelle. Viranomainen ei voi tehdä kansalaisia koskevia päätöksiä automaattisesti tekoälyn avulla, jos niihin liittyy tapauskohtaista harkintaa.

7. Myrkyttynyt informaatioympäristö, disinformaatio ja koneiden hallusinointi. Koneilla ei ole käsitystä oikeasta ja väärästä tahi todesta ja epätodesta. Ne kykenevät vain tilastollisesti päättelemään opetusaineiston perusteella seuraavan tuottamansa sanan. ChatGPT pyytää anteeksi, jos käyttäjä kiistää sen tuottaman tuloksen.

Vastauksia on enemmän kuin koskaan, mutta yhä vähemmän tiedon totuudenmukaisuuden hallintaa. Disinformaatio voi vaikuttaa demokratiaan, vapauteen ja yhteiskunnalliseen vakauteen. Tekoälyn käyttö voi edistää sosiaalisessa mediassa laajoja disinformaatiokampanjoita, joiden takana voivat olla yksityiset tai jopa valtiolliset toimijat. Sosiaalisen median botit luovat illuusioita yhteisestä hyvästä jäljittelemällä ihmiskäyttäjiä, postaamalla, uudelleentwiittaamalla ja osallistumalla sisältöön yli-inhimillisessä mittakaavassa. Omiin silmiin ei ole luottamista: deepfake -syväväärennökset, joissa manipuloidaan ääni- ja videosisältöä ja tuotetaan realistisen tuntuisia mutta fabrikoituja sisältöjä heikentävät luottamusta todennettavissa oleviin tosiasioihin. Videolla tunnettu valtion päämies kertoo omalla äänellään suuhunsa asetettuja perättömiä asioita. USA:ssa johtajien, terveysviranomaisten, oikeusistuinten, poliisin ja yliopistojen päätökset ja jopa vaalien rehellisyys asetetaan jo epäilyksenalaisiksi. Suomessakin näkyy, että luottamus yhteisiin sääntöihin ja instituutioihin murenee.

Yksilön elämän kannalta vaikutus voi olla suuri, jos ei osaa erottaa totta ja epätotta toisistaan tai toimia oikein datan tuottajana. FBI varoittaa laittamasta valokuvia verkkoon: jopa vain yhden internetistä löytyvän valokuvan perusteella henkilön kasvot on siirretty väärennetylle videolle, jonka jälkeen häneltä on kiristetty rahaa. Uutena ilmiönä ovat huijauspuhelut, joissa rikollinen puhuu vastaanottajalle läheisen henkilön, esimerkiksi lapsen äänellä. Tekoälyväärennökseen riittää vain pieni pätkä vaikkapa sosiaalisesta mediasta löytyvää ääntä.

8. Manipulointi. Espoossa nuorten on epäilty sytyttäneen rakennuksia palamaan sosiaalisen median haasteen innoittamana. Sosiaalisen median algoritmit mahdollistavat niin tahallisen pahanteon kuin tahattomat, ahneudesta johtuvat haittavaikutukset. Algoritmit suosivat äärimmäisiä kantoja, jotka lisäävät aktiviteettia alustalla.

Yksinäisyyden ja mielenterveyden ongelmat ovat yksi yleismaailmallisista megatrendeistä. Tekoälysovellukset ovat entistä kykenevämpiä mallintamaan inhimillistä keskustelua ja vuorovaikutussuhteita ja pystyvät satsaamaan suhteiden luomiseen rajattomasti resursseja. Tuleva Euroopan tekoälysäädös pyrkii suitsimaan näitä ns. subliminaalisia järjestelmiä, joissa toteutetaan hienovaraista vaikuttamista käyttämällä "alitajuisia tekniikoita". Tekoälyn avulla voidaan tehostaa rakkaushuijauksia, joissa valheellisella profiililla esiintyvät henkilöt luovat huijaustarkoituksessa läheisen yhteyden valitsemansa henkilön kanssa. Kohde houkutellaan tuhoisaan valheiden verkkoon, joka pahimmillaan johtaa psyykkisiin ongelmiin ja henkilökohtaiseen konkurssiin. 

9. Kuplaantuminen. Sosiaalisen median alustoilla algoritmit tarjoilevat erilaisia maailmanselityksiä, jotka altistavat ihmisen vain tietylle näkökulmalle tai sisällölle ja vahvistavat hänen olettamuksiaan aikaisempien preferenssien pohjalta. Pahimmillaan tämä johtaa henkilön eristymiseen kuplansa ulkopuolella vaikuttavista näkemyksistä niin, että oma tietokupla muuttuu ainoaksi todellisuudeksi lisäten tiedollista likinäköisyyttä ja lietsoen vastakkainasettelua. On vaarallista, jos ei ole kykyä tai halua katsoa oman kuplansa ulkopuolelle eikä kyseenalaistaa omassa kuplassa tarjottavaa informaatiota.

Tavallaan kyse on piilosensuurista, jossa vaihtoehtoisia asioiden käsittämistapoja suljetaan pois tai tehdään vaikeaksi tavoittaa, jolloin niiden reflektio jää myös pois. Yhtenä kuplaantumisen ilmiönä voidaan pitää TikTokia, jossa tiedon sirpalemainen esitystapa heikentää ihmisten kykyä muodostaa ja ymmärtää laajempia tietokokonaisuuksia.

10. Ihmisyys 2.0. On mahdollista, että sosioteknisen muutoksen myötä datakeskeinen ihmiskuva saa yliotteen ja myös ajatuksemme ihmisyydestä muuttuvat. UNESCOn suosituksessa puhutaan muun muassa esineellistämisen uhkasta: kun ihminen nähdään objektina, hänen arvonsa turmeltuu ja vahingoittuu. Teknologian kehityksen ja yhteiskunnan muuttumisen myötä yksityisyyden merkitys on muuttunut dramaattisesti. Tekoälyn kehittyessä käsityksemme ihmisen autonomiasta voi myös muuttua.

Miten selviämme tekoälyn tuomista haasteista?

  • Tehdään arvoherkkää ja moninäkökulmaista ennakoivaa vaikutusten arviointia.

  • Lisätään yhteistä ymmärrystä vastuullisesta tekoälyn käytöstä.

  • Tuotetaan empiiristä ja selittävää tutkimusta.

  • Kerätään ketterästi palautetta ja toteutetaan muutoksia.

  • Lisätään tutkimuslaitosten, yritysten ja instituutioiden vuoropuhelua.

  • Panostetaan koulutukseen.

  • Lisätään kansalaisten ymmärrystä tekoälystä ja parannetaan medialukutaitoa.

Suomen tekoälykeskus FCAI:n etiikan asiantuntijaryhmä pyrkii edistämään tutkijoiden herkkyyttä eettiseen pohdintaan ja on kehittänyt työkalun tekoälysovellusten vaikutusten pohtimiseen.  

Amanda Alvarez