Tekoälyn sääntely jättää huomiotta valtavan haittapotentiaalin (Väitös: OTM Nea Lepinkäinen, oikeussosiologia, 12.9.)

Nea Lepinkäisen väitöstutkimus osoittaa, että tekoälyyn liittyviä niin kutsuttuja algoritmisia haittoja ei vielä tunnisteta kattavasti. Se tekee tehokkaasta haittoihin puuttumisesta vaikeaa tai jopa mahdotonta. 

Tekoälyteknologioiden mahdollisista haitoista on kyetty tunnistamaan vasta osa. Tämä käy ilmi Turun yliopistossa torstaina 12.9. tarkistettavasta OTM Nea Lepinkäisen väitöstutkimuksesta.

Lepinkäinen arvioi oikeussosiologian väitöskirjassaan haittoja, joita algoritmisiin teknologioihin liittyy nyky-yhteiskunnassa. Analyysi paljastaa, että etenkään tekoälyn epäsuoria, niin kutsuttuja seurannaishaittoja, ei vielä ymmärretä riittävän hyvin.

Epäsuorat haitat voivat kohdistua paitsi yksilöihin ja ryhmiin myös yhteiskuntiin laajemmin. Tekoälyn epäsuorat haitat voivat Lepinkäisen mukaan muuttaa yhteiskunnallista todellisuutta suuntaan, jossa ihmisten mahdollisuudet hyvään elämään heikkenevät.

Kun algoritmisia haittoja ei tunnisteta kattavasti, niitä ei pystytä myöskään tehokkaasti sääntelemään. Haittoja rajoittavat ratkaisut jäävätkin vaillinaisiksi EU:n uudessa tekoälysäädöksessä.

Vaikuttaa siltä, että etenkään seurannaishaittoihin puuttumiseen ei lähitulevaisuudessa ole luvassa tehokkaita apuja.

Edes korkeariskisen tekoälyn vaikutuksia ei juuri arvioida

Tekoälysäädös keskittyy vahvasti tekoälyjärjestelmien tuotannon sääntelyyn, Lepinkäinen kertoo.

”Tällainen sääntely pystyy kyllä puuttumaan moniin välittömästi teknisistä ratkaisuista seuraaviin haittoihin, mutta se jättää huomiotta tärkeän seikan: Tekoälyn haittapotentiaalista valtava osa muodostuu teknisten ratkaisujen, järjestelmän käytön sekä käyttöympäristön yhteisvaikutuksista.”

Tekoälyjärjestelmän vaikutuksia ei pääsääntöisesti tarvitse arvioida ennalta lainkaan siinä ympäristössä, jossa se otetaan käyttöön – vaikka järjestelmä olisi tunnistettu suuririskiseksi.

Poikkeuksen muodostavat hallinnolliset toimijat, joille on asetettu velvoite arvioida suuririskisen tekoälyjärjestelmän käytöstä seuraavia ihmisoikeusvaikutuksia.

Lepinkäisen mukaan ihmisoikeusvaikutusten arvioinnissa on potentiaalia, mutta se ei juurikaan auta tunnistamaan selvistä ihmisoikeusrikkomuksista etääntyviä haittoja.

Todelliset vaikutukset jäävät vaisuiksi, kun arviointivelvoite koskettaa vain pientä osaa tekoälyä hyödyntävistä toimijoista.

”Jos haittoja haluttaisiin tehokkaasti estää, velvoitetta vaikutusten arviointiin pitäisi ehdottomasti laajentaa”, Lepinkäinen arvioi.

 

OTM Nea Lepinkäinen esittää väitöskirjansa ”Algoritmiset haitat: Tekoälyn riskit ja sääntelyn haasteet kiihtyvässä yhteiskunnassa” julkisesti tarkastettavaksi Turun yliopistossa torstaina 12.09.2024 klo 12.00 (Turun yliopisto, Calonia, Cal1-sali, Caloniankuja 3, Turku).

Vastaväittäjänä toimii apulaisprofessori Riikka Koulu (Helsingin yliopisto) ja kustoksena professori Mika Viljanen (Turun yliopisto). Tilaisuus on suomenkielinen. Väitöksen alana on oikeustiede ja oikeussosiologia.

Luotu 08.09.2024 | Muokattu 02.10.2024