Väitös (oikeustiede ja oikeussosiologia): OTM Nea Lepinkäinen

Aika

12.9.2024 klo 12.00 - 16.00
OTM Nea Lepinkäinen esittää väitöskirjansa ”Algoritmiset haitat: Tekoälyn riskit ja sääntelyn haasteet kiihtyvässä yhteiskunnassa” julkisesti tarkastettavaksi Turun yliopistossa torstaina 12.09.2024 klo 12.00 (Turun yliopisto, Calonia, Cal1-sali, Caloniankuja 3, Turku).

Yleisön on mahdollista osallistua väitökseen myös etäyhteyden kautta: https://echo360.org.uk/section/7d0f1fa8-089d-4df3-874c-06e6b2383460/public (kopioi linkki selaimeen).

Vastaväittäjänä toimii apulaisprofessori Riikka Koulu (Helsingin yliopisto) ja kustoksena professori Mika Viljanen (Turun yliopisto). Tilaisuus on suomenkielinen. Väitöksen alana on oikeustiede ja oikeussosiologia.

Väitöskirja yliopiston julkaisuarkistossa: https://urn.fi/URN:ISBN:978-951-29-9825-8 (kopioi linkki selaimeen).

***

Tiivistelmä väitöstutkimuksesta:

Tekoäly on levittänyt vaikutustaan yhä laajemmin yhteiskunnan eri osa-alueille, ja algoritmien aikaansaaman yhteiskunnallisen muutoksen, niin kutsutun algoritmisen transformaation vauhti näyttäisi vain kiihtyvän. Algoritmiset teknologiat ovat kietoutuneet erottamattomaksi osaksi yhteiskuntaa, ja niiden mukana yhteiskunnassa ovat yleistyneet myös algoritmiset haitat.

Väitöskirjassa arvioidaan, minkälaisia algoritmisia haittoja tekoälyteknologiat aiheuttavat tai voivat aiheuttaa nyky-yhteiskunnassa. Haittojen ja tekoälyn ominaisuuksien vaikutusten analyysi paljastaa, että vasta osa algoritmisiin teknologioihin liittyvästä haittapotentiaalista on kyetty tunnistamaan. Etenkin yhteiskuntaan kohdistuvia algoritmisia haittoja, jotka muuttavat yhteiskuntaa suuntaan, jossa inhimillinen kukoistus ei välttämättä pääse toteutumaan edes nykyisessä määrin, on tutkittu vasta vähän. Kansallisen ja EU-tason tekoälysääntelyratkaisujen jäsentely osoittaa, että myös lainsäädännössä tunnistetaan ainoastaan osa haittapotentiaalista, joka algoritmisiin järjestelmiin liittyy.

Tuoreet lainsäädännöt Suomessa ja EU:ssa pyrkivät löytämään tasapainon siten, että tekoälyn mukanaan tuomat riskit saataisiin hallittua ilman liian suuria rajoituksia innovaatioille tai kilpailulle. Etenkin EU-sääntelyssä pyritään varmistamaan, että sääntely ei rajoita tai hidasta liiaksi markkinoita ja innovaatiokehitystä. Markkinoiden tehokkaan toiminnan ja tekoälyjärjestelmien turvallisuuden välillä tasapainoileva sääntelyratkaisu tunnistaa lähinnä tekoälyteknologioiden teknisistä ominaisuuksista ja kehitystyöstä juontuvat riskit, joiden seuraukset olisivat suurelta osin välittömiä haittoja. Sen sijaan niin kutsuttujen algoritmisten seurannaishaittojen eli tekoälyjärjestelmien välittömistä vaikutuksista etääntyvien haittojen tunnistaminen ja niihin puuttuminen jää sääntelyssä vaatimattomaksi. Tämä voi johtaa siihen, että algoritmisen transformaation aikaansaamien haittojen ennalta estämisen sijaan eurooppalaiset yhteiskunnat joutuvat entistä useammin jälkikäteen ratkomaan algoritmisten teknologioiden kiihtyvästä kehityksestä ja käytöstä juontuvia moninaisia ongelmia.

Tutkimus kiinnittyy erityisesti yhteiskunnallisten haittojen (social harm) tutkimusperinteeseen. Työ laajentaa yhteiskunnallisten haittojen teorian näkökulmaa ottamalla huomioon yksilöihin ja ryhmiin kohdistuvien haittojen lisäksi yhteiskuntaan kohdistuvat haitat. Modernin yhteiskunnan kehityskulkujen, etenkin tekoälyn alati lisääntyvän käytön ymmärtämiseksi ja analysoimiseksi hyödynnetään Rosan yhteiskunnallisen kiihtyvyyden teorian (theory of social acceleration) ja Giddensin rakenteistumisteorian (structuration theory) teesejä.
Viestintä