Valmisteilla oleva eurooppalainen lainsäädäntö ohjaa tekoälyn käyttöä tulevaisuudessa. Suomalaisyritykset haluavat varmistua tekoälyjärjestelmiensä eettisyydestä, luotettavuudesta ja turvallisuudesta. Turun yliopiston koordinoima AIGA-hanke kehitti tekoälyn hallintamallin, jonka avulla yritykset voivat viedä vastuullista tekoälyä käytäntöön.
Tekoälyn hyödyntämiseen ja automaattiseen päätöksentekoon liittyy huolia esimerkiksi syrjinnästä tai vastuun ulkoistamisesta tietojärjestelmille. Vastuullisen tekoälyn periaatteet ehkäisevät tekoälyjärjestelmien käytöstä aiheutuvia mahdollisia haittoja, mutta vain jos ne ohjaavat toimintaa käytännössä.
Kaksivuotinen Artificial Intelligence Governance and Auditing (AIGA) -hanke on tutkinut tekoälyn hallintamalleja ja auditointia. Hankkeessa toteutettujen haastattelujen perusteella suomalaisyritykset ovat kiinnostuneita vastuullisesta tekoälystä, mutta lähtötaso vaihtelee. Jo valmiiksi säädellyillä aloilla toimivilla yrityksillä on tyypillisesti paremmat valmiudet vastata tulevan lainsäädännön vaatimuksiin.
- Tekoälyn eettisyydestä on käyty paljon keskustelua. Havaitsimme, että organisaatioilta puuttuu konkreettisia keinoja, joilla ne voisivat varmistua käyttämänsä teknologian vastuullisuudesta, pohtii hankkeen johtaja, tietojärjestelmätieteen apulaisprofessori Matti Mäntymäki Turun kauppakorkeakoulusta.
- Vastasimme tähän tarpeeseen kehittämällä tekoälyn hallintamallin, joka tarjoilee tekoälyn kehittäjille ja käyttäjille selkeitä tarkistuspisteitä. Yksittäisten algoritmien sijaan on tärkeää nähdä tekoälyjärjestelmät osana organisaation teknistä ja sosiaalista toimintaympäristöä, ja siksi hallintamallin käyttö nojaa organisaation omiin arvoihin ja strategioihin, Mäntymäki jatkaa.
Vuonna 2021 julkaistun eurooppalaisen lainsäädäntöesityksen ansiosta teema on nyt erittäin ajankohtainen. Tekoälysäädös luokittelee tekoälysovellukset neljään eri riskitasoon, joista korkein sisältää joukon kiellettyjä sovelluksia, kuten sosiaaliset luottoluokitukset ja kaduilla liikkuvien kansalaisten biometrisen tunnistuksen (tietyin poikkeuksin).
- Vaikka tiukin sääntely kohdistuisi vain harvoihin käyttötapauksiin, ovat tekoälyn käyttöä ohjaavat eettiset periaatteet ja hallintaprosessit tärkeitä joka organisaatiolle, kertoo Turun yliopiston oikeustieteen apulaisprofessori Mika Viljanen.
Ihmisen ja teknologian välinen vuorovaikutus on keskeinen elementti vastuullisten tekoälyjärjestelmien suunnittelussa ja käytössä. Hankkeessa onkin tutkittu myös sitä, miten algoritmien keinotekoista päättelyä tulisi avata käyttäjille, ja millaiset tekniset työkalut lisäisivät järjestelmän luotettavuutta.
Mäntymäen mukaan hankkeen yhteistyökumppanit haluavat viestiä, että vastuullinen ja turvallinen tekoälyn käyttö on mahdollista. Suomessa on kansainvälisen tason tekoälyosaamista ja alan kehitys tuottaa jatkuvasti uusia, ihmislähtöisempiä menetelmiä. Yritysten ja yliopistojen yhteistyönä syntynyt hallintamalli antaa nopean tilannekuvan siitä, mihin toimenpiteisiin yrityksen kannattaisi ryhtyä käyttääkseen tekoälyä vastuullisemmin. Samalla se ohjaa syvällisempiin pohdintoihin yrityksiä, jotka jo kehittävät ja ylläpitävät vahvasti hallinnoituja tietojärjestelmiä.
Turun yliopiston lisäksi hankkeessa ovat mukana Helsingin yliopisto, Verohallinto, Op-ryhmä, Siili Solutions, DAIN Studios, Solita, Loihde Advisory ja Zefort. Hanketta rahoitti Business Finland.
AIGA-hanke järjestää avoimen loppuseminaaarin 13.10.2022. Ilmoittautuminen on avoinna 5.10. klo 16 asti tapahtuman verkkosivuilla. Tapahtuman kieli on englanti.