Verkkokauppa

Tekoälyasetus antaa yhteiset raamit tekoälyn hyödyntämiselle koko EU:n alueella

Euroopan unionissa valmistellaan parhaillaan asetusta tekoälyn sääntelystä. Jatkossa tekoälyn käytölle sekä tekoälyjärjestelmien valmistamiselle ja tarjoamiselle asetetaan raamit, joiden tarkoituksena on turvata eettisesti luotettava ja kilpailukykyinen tekoälyteknologia. Editan kouluttaja ja teknologiajuristi Johanna Tuohino kertoo, mitä tulevasta tekoälyasetuksesta tiedetään nyt.

Korkean riskin kategoriaan luettavan tekoälyn käyttöön sisältyy tulevaisuudessa rajoitteita ja velvollisuuksia, jotka tekoälyteknologiaa kehittävissä, tarjoavissa ja hyödyntävissä yrityksissä sekä organisaatioissa tulee ottaa huomioon.

Tämänhetkisen EU:n komission ehdotuksen mukaan sääntely ei tulisi rajoittamaan kaikkea tekoälyksi luokiteltavaa teknologiaa, vaan velvoitteet koskisivat pääasiassa niin sanottua suuren riskin tekoälyjärjestelmää.

Tähän laskettaisiin muun muassa tekoälyä hyödyntävä biometrinen etätunnistaminen, kriittinen infrastruktuuri, rekrytointi- ja opiskelijavalinta, päätöksenteko henkilöstöhallinnossa sekä eräät tekoälyä hyödyntävät arviointimenettelyt lainvalvonnassa. Lisäksi tekoälyn käyttö tiettyihin tarkoituksiin olisi kokonaan kiellettyä.

– Kiellettyä olisi tekoälyn käyttäminen silloin, kun sillä pyritään vaikuttamaan ihmisen käyttäytymiseen haitallisella tavalla tai hyödyntämään henkilökohtaisten ominaisuuksien haavoittuvuuksia. Tämän lisäksi keskustelussa on myös kieltää sosiaalinen pisteyttäminen, joka johtaisi ihmisten epäedulliseen kohteluun, teknologiajuristi Johanna Tuohino kertoo.

Ihmisen tulee valvoa älyteknologiaa

Teknologiajuristi Johanna Tuohino kouluttaa Editalla uudesta tekoälyasetuksesta.

Sääntely tulee koskettamaan laajalti yrityksiä, jotka myyvät suuren riskin tekoälyteknologiaa tai hyödyntävät sitä toiminnassaan itse. Avainasemassa on toiminnan läpinäkyvyys, jota voidaan vaatia osoitettavaksi eri keinoin, kuten käyttäjille toimitettavilla dokumenteilla tai viranomaisille annetuilla selvityksillä. Älyteknologia ei myöskään saisi toimia kokonaan ilman ihmisen kontrollia.

– Ehdotetun sääntelyn mukaan järjestelmä tulee rakentaa niin, että luonnollinen henkilö, eli ihminen, voi valvoa järjestelmää sen käytön aikana, Tuohino sanoo.

Älyteknologia viranomaisten valvontaan

Ihmisen ja älyteknologian välinen vuorovaikutus tehtäisiin säätelyn myötä käyttäjille selvemmin tiedoksi myös muiden kuin suuririskisten järjestelmien osalta. Kommunikointilanteissa käytettävän teknologian tulisi ilmoittaa, että vuorovaikutuksen toisena osapuolena ei ole ihminen vaan kone. Samoin älyteknologian avulla muokattu kuva- tai videomateriaali tulisi jatkossa merkitä huomautuksella.

– Niin sanotun deep fake -teknologian avulla manipuloituun videokuvaan sisällytettäisiin jatkossa huomio siitä, ettei sisältö ole aito, Tuohino kertoo esimerkiksi.

Jos suuren riskin kategoriaan luettava älyteknologia ei täyttäisi sille asetettuja velvoitteita, sitä ei jatkossa saisi kehittää, tarjota tai käyttää EU:n alueella. Valvonnasta vastaisivat kunkin maan viranomaiset. Laiminlyöntiä seuraisi sakkorangaistus.

– Kansallisella lainsäädännöllä lyötäisiin lukkoon, mitkä viranomaiset kussakin maassa vastaisivat sääntelyn valvonnasta, Tuohino arvioi.

Yritysten tulee varautua sääntelyyn

Euroopan unionin neuvosto antoi sääntelystä yleisnäkemyksensä viime vuoden loppupuolella. Tämän pohjalta asetuksen lopullisesta muodosta tullaan käymään neuvotteluja neuvoston ja Euroopan parlamentin välillä. Tässä vaiheessa yritysten kannattaa alkaa varautua niihin toimenpiteisiin, joita sääntelyn voimaantulon myötä edellytetään.

Vaikka asetuksen lopullinen muoto ottaa vielä aikansa, on tekoälyä koskeva sääntely kuitenkin EU:n prioriteettilistan kärkisijoilla.

– Kyllä tässä asiassa on vahva poliittinen tahtotila edetä, Tuohino uskoo.

Teksti: Juulia Lahnaoja
Kuva: Jacbo Lund/Shutterstock

Liittyy aiheisiin
Tykkäsitkö? 5