EU:n luonnos luotettavaa tekoälyä koskevista eettisistä ohjeista

EU:n tekoälyä käsittelevä työryhmä on julkaissut 18.12.2018 luonnoksen Draft Ethics Guidelines for Trustworthy AI, josta on olemassa suomenkielinen lyhyehkö tiivistelmä. Tekoälyn ja datan monipuolisen käytön kehitys luo meille valtavia mahdollisuuksia, mutta samalla se vaatii pohdintaa käytön etiikasta ja rajoista esimerkiksi yksityisyyden ja tasa-arvon kannalta.

Eurooppa suhtautuu kenties kireimmin tähän asiaan maailmassa, mikä toisaalta edesauttaa tarvittavaa sääntelyä pitäen siten huolta myös tarvittavista rajoitteista. Samalla tämä kuitenkin aiheuttaa kilpailukykyhaasteita verrattuna maihin, joissa yksityisyydensuoja sekä säännöt datan käytöstä eivät ole läheskään samalla tasolla. Usein on esitetty uhkakuvia, joiden mukaan sääntöjemme vuoksi jäämme jälkeen tämän alueen kehityksessä.

Kiinahan on täällä hetkellä tämän alueen villi itä, jossa lähes kaikki on mahdollista ja samalla asiat kytkeytyvät voimakkaasti myös valtion valvontakoneistoon. USA taas on villi länsi, jossa taas kaupalliset intressit ovat vahvoja ja tietoja myydään sekä luovutetaan paljon yhdistellen niitä myös toisiin. Kaupallisten toimjoiden ohessa esimerkiksi FBI:llä on paljon valtaa ja mahdollisuuksia hankkia tietoa. Esimerkiksi jokin aika sitten paljastui tapaus, jossa kuluttajien dna-testejä tekevä yritys antoi 2 miljoonan ihmisen tietoja FBI:n käyttöön kertomatta siitä asiakkailleen.

EU:ssa joudumme tekemään valintoja löytääksemme tasapainon mahdollisuuksien ja uhkien välillä.

Luotettavan tekoälyn osa-alueet

Luonnoksen mukaan meidän tulee pyrkiä maksimoimaan tekoälyn hyödyt ja minimoimaan sen riskit. Tekoälyn kehittämisessä on noudatettava ihmiskeskeistä lähestymistapaa: tekoälyn kehittäminen ja käyttö eivät ole itseisarvo vaan keinoja parantaa ihmisten hyvinvointia.

Luonnoksessa määritellään kaksi osa-aluetta luotettavalle tekoälylle:

  1. Sen olisi kunnioitettava perusoikeuksia, sovellettavaa lainsäädäntöä sekä keskeisiä periaatteita ja arvoja, millä taataan sen ”eettinen tarkoitusperä”
  2. Sen olisi oltava teknisesti luotettava, sillä vaikka tarkoitus olisi hyvä, teknologian kömpelyys voi aiheuttaa tahatonta haittaa.

Näiden totauttamiseksi annetaan mm seuraavia ylätason linjauksia:

  • Varmista tekoälyn ihmiskeskeisyys: Tekoälyn kehittämisessä, käyttöönotossa ja käytössä tulisi pyrkiä kohti ”eettistä tarkoitusperää”, joka perustuu perusoikeuksiin, yhteiskunnallisiin arvoihin sekä hyvään pyrkimisen, vahinkojen välttämisen, ihmisen itsemääräämisoikeuden, oikeudenmukaisuuden ja selitettävyyden (explicability) eettisiin periaatteisiin. Tämä on ratkaisevan tärkeää luotettavaa tekoälyä kohti pyrkiessä.
  • Arvioi tekoälyn mahdollisia vaikutuksia ihmisiin ja yhteiseen etuun perusoikeuksien, eettisten periaatteiden ja arvojen perusteella. Erityistä huomiota tulisi kiinnittää tilanteisiin, joihin liittyy haavoittuvia ryhmiä, kuten lapsia, vammaisia tai vähemmistöjä, tai joissa vallitsee vallan tai tiedon epätasapaino, kuten työnantajien ja työntekijöiden tai yritysten ja kuluttajien välillä

Yksi kohdista eli selitettävyys on kenties oudompi ja kaipaa selvennystä. Tekoälyhän rouskuttaessaan dataa päätyy johonkin tulokseen tekemiensä päätelmien pohjalta. On tärkeää, että kyseessä ei ole ns musta laatikko, jolloin emme tiedä miten se päätyi johonkin tulokseen. Ajatellaan esimerkkinä vaikkapa tekoälyn tekevän ehdotuksia tai jopa päätöksiä vakuutuksen hinnasta henkilön terveysdatan pohjalta. Jo kuluttajansuojan kannalta on oltava mahdollisuus saada selville, miten se päätelmänsä teki. Emme voi antaa jonkun mustan laatikon tehtäväksi päättää ilman mahdollisuutta selittää päätöksen perusteet.

Ensimmäisen luvun yleisten periaatteiden ja tavoitteiden jälkeen kaksi muuta lukua syventävät ohjeita tarkemmalle tasolle. Näihin tutustumisen jätän teille arvon lukijat mikäli aihe kiinnostaa.

Politiikka ja lainsäädäntö jälkijunassa – teknologia porskuttaa kaukana edellä

Poliittinen päätöksenteko on kaukana perässä verrattuna siihen, mikä on teknologisesti mahdollista. Osin eettiset ja moraaliset kysymykset ovat nyt kaupallisten toimijoiden vastuulla. Yleinen periaatehan on, että mikäli jotain ei olla erikseen kielletty, niin se on sallittua. Paitsi toki Suomessa alkoholiasioissa, kuten Korkeimman oikeuden päätös Varustelekan oluiden etämyyntitapauksessa osoitti. wink

Klassinen esimerkki eettisestä ongelmasta on itseohjautuvan auton päätöksenteko tilanteessa, jossa joko jalankulkija tai auton kuljettaja kuolee. Autonvalmistaja on jo nyt tehnyt järjestelmässään päätöksen tästä, missä suojellaan auton kuljettajaa. Tämä taas tarkoittaa sitä, että voidaan jyrätä kadulla oleva lapsi kuljettajan sijaan. Tässä on melkoinen eettinen ongelma ainakin minun mielestäni.

Suomessahan on Pekka Ala-Pietilän johtama tekoälyohjelma, jossa pyritään ottamaan näihin asioihin kantaa ja varmistamaan Suomen kehitys tekoälyssä ja mm robotiikassa. Lisäksi esimerkiksi Sitra on ottanut kantaa myös eettisiin kysymyksiin.

Poliitikot viljelevät digitalisaatiota ja tekoälyä ratkaisuina kaikkeen, mutta en ole vielä oikein vakuuttanut kuinka hyvin parisataa kansanedustajaa on perillä näistä asioista. Toivottavasti ovat, sillä tarvitsemme päätöksiä ja eduskunnassa niitä näistäkin asioista tehdään osin EU:n päätöksiä soveltaen.

Teknologinen kehitys menee kovaa vauhtia eteenpäin – joskus on kuitenkin hyvä pysähtyä miettimään minne se meitä vie ja varmistaa sen olevan haluamamme kohde.

 

 

 

 

NikoKaistakorpi

Oikeudenmukaisuuden toteutumisen puolesta kirjoittava yhteiskunnan asioista kiinnostunut mies. Työurani olen tehnyt yritysmaailmassa erityisesti tuotekehitystiimien vetäjänä ja asiantuntijana. Mielipiteitäni politiikasta ja muusta ilmaisen kirjoittamalla täällä - yritysmaailmassa kohdatessamme en puhu politiikasta vaan pidän nämä erillään.

Ilmoita asiaton viesti

Kiitos!

Ilmoitus asiattomasta sisällöstä on vastaanotettu