Konepomo vailla etiikkaa?

Huhtikuussa verrattain vähälle huomiolle jäi yhdenvertaisuus- ja tasa-arvolautakunnan ratkaisu, jonka mukaan luottolaitos oli tehnyt luoton myöntämistä koskevan päätöksen yhdenvertaisuuslain vastaisesti.

Lautakunnan mukaan luottopäätöksen perusteena oli ollut henkilöön liittyviä kiellettyjä syrjintäperusteita kuten sukupuoli, äidinkieli, ikä ja asuinalue. Lautakunta kielsi luottolaitosta jatkamaan yhdenvertaisuuslain vastaista menettelyään ja asetti sille 100 000 euron uhkasakon

Luottopäätöksen oli tehnyt automatisoitu tekoäly. Kyseessä on yksi ensimmäisistä tekoälyn toimintaa koskevista viranomaisratkaisuista Suomessa.

Lainanhakua koskeva ratkaisu on hyvä esimerkki siitä, millä tavoin tekoälyä käytetään ja siihen luotetaan automatisoidussa päätöksenteossa. Lainapäätös on jo nyt usein koneen, ei ihmisen tekemä.

Tekoälyn ongelmista tapaus taas on huono esimerkki. Lainanhakijat oli pisteytetty ilmeisen kestämättömin perustein – ja vieläpä niin, että kestämättömät perusteet olivat myös hakijalle nähtävillä. Tekoälyn tekemien ratkaisujen kohdalla ongelmat eivät yleensä ole näin ilmeisiä.

Voisi kuvitella, että ongelman voi estää ohjelmoinnin keinoin. Koneelle voidaan aina luoda uusia sääntöjä, tai esimerkiksi sukupuolta tai äidinkieltä koskevan informaation voi poistaa kokonaan sen käytöstä. Tämä olisi saattanut toimia luottopäätöksiä tehneen algoritmin kohdalla.

Todellinen oppiva kone on kuitenkin tätä nokkelampi. Riittävästä määrästä dataa se päättelee vastaavat tiedot. Jos osoite tai äidinkieli ennustaa luotonmaksukykyä, oppiva tekoäly oppii ne hakijassa myös tunnistamaan.

Luottokorttiostoksia koskeva informaatio paljastaa asuinpaikan, koulutausta äidinkielen. Tekoäly voi luoda näiden perusteella uudet luokittelut. Niiden nimikkeinä ei välttämättä ole äidinkieli tai asuinalue, mutta peruste on lopulta sama.

Tilannetta pahentaa toinen oppivan tekoälyn ominaisuus, jota joskus kutsutaan ”mustan laatikon ongelmaksi”.

Kun tekoäly on oppinut tarpeeksi paljon, sen suunnittelijoiden voi olla vaikea tai mahdoton tietää, miten se päätyy ratkaisuihinsa – vaikka se sinänsä toimiikin muuten luotettavasti.

”Mustan laatikon” kielikuva onkin harhaanjohtava. Lentokoneen ”mustan laatikon” tarkoitus on kerätä ja tarvittaessa välittää tietoa ja dataa lentokoneen ja sen ohjaajien toiminnasta. Tekoälyn kohdalla väri viittaa läpinäkymättömyyteen. Monissa toiminnoissa luotamme nyt jo tekoälyyn, jonka toimintaa edes sen suunnittelijoiden on hankala selittää.

Ihminen puolestaan on tyypillisesti varsin valmis sysäämään vastuun ratkaisuistaan toiselle – vaikka koneelle. Jos tekoäly vaikuttaa luotettavalta ja näyttää tarjoavan haettuja tuloksia, kuinka moni lopulta uskaltaa kyseenalaistaa sen tekemät päätökset? Tekoälystä puhutaan nyt usein työkaverina ja avustajana, vaikka todellisuudessa se määrää tahdin. 

Syntyy vastuutyhjiö, jossa luotamme koneen tekemiin ratkaisuihin osaamatta kertoa, miten se niihin päätyy. Tekoälystä tulee konepomo, jonka tekemiä ratkaisuja noudatamme, mutta emme ymmärrä.

Vastuutyhjiöstä eettiseen tekoälyyn

Yhdeksi ratkaisuksi vastuun ongelmaan on tarjottu suurempaa läpinäkyvyyttä. Konepomon sijasta tekoälystä pitäisi tulla asiantuntija, joka esittää ratkaisumahdollisuuksia ja kykenee esittämään niille perusteluja ymmärrettävässä muodossa. Koneen pitäisi siis oppia viestintää.

Koko ongelman ratkaisuksi tämä tuskin riittää. Jos nyt jo tekoäly tekee kannaltamme merkityksellisiä päätöksiä aina mediasisältöjen valikoinnista autolla ajoon, meidän on turha kuvitella tulevaisuutta, jossa jokaisen tekoälyn tekemän ratkaisun varmistaa ihminen. Tekoälystä puhutaan nyt usein työkaverina ja avustajana, vaikka todellisuudessa se määrää tahdin.

Nykyiset tekoälyn ja koneoppimisen sovellukset ovat kapeita: niillä on yksi tehtävä tai päämäärä, kuten tehdä luottopäätöksiä tai niitä koskevia suosituksia. Kone arvioi omaa toimintaansa pelkästään tämän päämäärän toteutumisen valossa. Se ei kaihda keinoja tehtävänsä saavuttamiseksi – vaan oppii niitä lisää.

Seurauksena on helposti äidinkielen tai sukupuolen perusteella luottopäätöksiä tekevä tekoäly, joka päättelee eettisesti kestämättömällä tavalla tai eettisesti kestämättömin seurauksin.

Tämän estämiseksi tekoälyn pitäisi oppia etiikkaa. Sillä pitäisi olla muitakin päämääriä kuin yksittäinen lopputulos, ja sen pitäisi oppia periaatteita, joita mikään päämäärä ei oikeuta rikkomaan.

Tähän tekoäly ei vielä kykene, eivätkä koneoppimisen viimeaikaiset edistyaskeleet sisällä eettistä oppimista. Merkittävätkin ja valtavia ponnistuksia vaativat hankkeet keskittyvät yksittäisten ongelmien ratkaisemiseen.

Helsingin Sanomien vieraskynässä professori Jussi Rintanen kirjoittaa, että pelot tekoälyn kehityksestä ovat osin liioiteltuja:

Tekoäly on täydellinen idiootti. Tekoäly osaa kyllä mekaanisesti tehdä jotain asiaa siinä määrin, että se on hyödyllinen, mutta ajatteluun tekoäly ei kykene. Tekoäly ei tule orjuuttamaan ihmiskuntaa, eikä meidän tarvitse olla huolissamme tekoälyn orjaksi joutumisesta. (HS 3.11.2018)

Rintanen viittaa tekoälyn kapea-alaisuuteen. Yksittäistä tarkoitusta varten kehitetyllä tekoälyllä on tuskin äkkiä mahdollisuuksia nousta monipuolisesti meitä etevämmäksi ja orjuuttaa ihmiskunta. Tämä johtopäätös vaikuttaa uskottavalta.

Suurempi uhka onkin, että annamme kapean ja eettisesti kestämättömästi toimivan tekoälyn hallita elämäämme pala palalta ja ratkaisu ratkaisulta. Tekoäly ei meitä orjuuta – mutta voimme hyvin tehdä sen itse.

29 kommenttia

Vastaa

Sähköpostiosoitettasi ei julkaista.