Tekoäly ja tiedollinen vastuu tieteessä

Koneoppiminen, erityisesti itseohjautuva syväoppiminen ja generatiivinen tekoäly, mullistavat tieteen ja tiedon tuottamisen käytäntöjä vauhdilla. Laajoja aineistoja hyödyntävät itseohjautuvat koneoppimismallit herättävät perustavan filosofisen kysymyksen inhimillisen ymmärryksen paikasta tieteellisen tiedon kokonaisuudessa. Erityistä keskustelua on herättänyt tiedollisesti läpinäkymättömien koneoppimismallien käyttö tieteellisinä malleina: paraneeko ymmärryksemme mallinnettavasta todellisuudesta, jos emme ymmärrä, mitä malli tekee?

Tässä puheenvuorossa esitän, että automatisoidun tieteen suurin filosofinen haaste ei ole tietokoneelle ulkoistettu ymmärtäminen vaan tiedollisen vastuun tarkoituksenmukainen jakautuminen inhimillisten tieteentekijöiden ja algoritmien kesken.

Tieteen tehtävä ei ole vain tuottaa ja ennustaa uusia havaintoja vaan myös tarjota välineitä maailman ymmärtämiselle. Tiede ei vain kerro, millainen maailma on: sen pitäisi myös tarjota ainakin osittaisia vastauksia siihen, miksi maailma on sellainen kuin se on. Automatisoituva tutkimus haastaa tämän tieteen perustehtävän. “Koneet” vastaavat yhä enenevässä määrin faktojen tuottamisesta tavoilla, joita emme koneiden käyttäjinä enää kykene ymmärtämään.

Konkreettinen esimerkki tästä ilmiöstä on syväoppivat hermoverkkomallit, jotka pystyvät löytämään moniulotteisista laajoista havaintoaineistoista usein hämmästyttävän ennustekykyisiä muuttujien yhdistelmiä tavalla, jota mallin rakentaja tai käyttäjä ei pysty seuraamaan. Malli siis löytää havaintoaineistosta säännönmukaisuuksia, joita ihmiskäyttäjä ei hahmota saati käsitä. Vaikka mallin algoritmin toimintaperiaate on pohjimmiltaan yksinkertainen, käyttäjä ei pysty jäljittämään tarkasti sitä, miten malli on tuottanut mallinnustuloksen.

Tämä tiedollinen läpinäkymättömyys ei ole ainoa haaste koneoppimisella tuotetun tiedon ymmärrettävyydelle. Toisin kuin teoriapohjaiset selittävät tieteelliset mallit, syväoppivan mallin sisäinen rakenne ei itsessään kuvaa mallinnettavan kohteen rakennetta. Teoriapohjaisia malleja käytetään usein juuri siitä syystä, että mallin rakenteella katsotaan olevan oleellinen rooli mallinnettavan ilmiön ymmärtämisessä: ymmärrämme ilmiötä mallilla sen nojalla, että mallin sisäiset mekanismit toimivat samalla tavoin kuin mallinnettava ilmiö. 

Koneoppimiseen perustuvat empiiriset mallit eivät kuitenkaan “toimi” samalla tavalla kuin mallinnettavat ilmiöt, joten ne eivät lisää ymmärrystämme ainakaan tässä mielessä. Koneoppiminen ratkaisee ennuste- ja luokitustehtäviä. Tällaisenaan koneoppivat mallit eivät pyri löytämään syy-seuraus -suhteita havaintoaineistosta. Yleisesti hyväksytyn näkemyksen mukaan ainakin valtaosa tieteellisestä selittämisestä perustuu kuitenkin syy-seuraus -suhteiden paljastamiseen ja havaittavia säännönmukaisuuksia tuottavien mekanismien tuntemiseen.

Ei siis ole ihme, että automatisoituva tiede herättää kysymyksiä inhimillisen ymmärryksen arvosta ja rajoista. Erilaisia selitettävään tekoälyyn tähtääviä teknologioita (XAI) on tarjottu ratkaisuksi tähän kysymykseen (esim. Zednik ja Boelsen 2022). Ehdotukset tekoälyn selitettävyyden parantamiseksi perustuvat yleensä koneoppimismallin toiminnan mallintamiseen uudella mallilla, jonka tavoitteena on ymmärtää, mitä, miksi ja millä tavoin algoritmi tuottaa ennusteita havaintoaineiston perusteella. Ajatuksena siis on, että meidän on käytettävä perinteisiä menetelmiä palauttamaan algoritmiset menetelmämme inhimillisesti ymmärrettävään muotoon ymmärtääksemme maailmaa.

Miten tieteellinen ymmärrys kasvaa?

Teesini on, että merkittävä osa tiedollista läpinäkymättömyyttä koskevasta keskustelusta tieteessä ja tekoälyn filosofiassa perustuu yleiselle mutta pohjimmiltaan virheelliselle taustaoletukselle, jonka mukaan yksittäisen tutkijan sisäiset psykologiset tilat olisivat jollakin tavoin olennaisia tieteellisen ymmärryksen kasvulle tai sen arvioinnille. Punnittaessa tiedollisesti läpinäkymättömän tiedontuottamisen ja ymmärtämisen välistä ristiriitaa onkin keskeistä erottaa subjektiivinen ymmärryksen tunne varsinaisesta ymmärtämisestä.

Ymmärryksen tunteella tarkoitan kokemuksellista ahaa-elämystä, joka usein esiintyy ongelmanratkaisun yhteydessä, sekä laajemmin introspektioon perustuvaa itsearviota oman ymmärryksen syvyydestä. Ymmärryksen tunne voi kuitenkin olla valheellinen. Tämä ilmiö lienee kaikille tuttu: olet luullut hoksanneesi jotain, mutta kohdatessasi haastavan koetilanteen huomaat, että et kykene ratkaisemaan tehtäväät. (Ylikoski 2009)

Mitä varsinainen tieteellinen ymmärtäminen sitten on? Filosofiassa asiasta on viime aikoina käyty paljon keskustelua, eikä kysymykseen ole löytynyt konsensusnäkemystä (kts. esim. Lawler, Khalifa ja Shech 2022). Useimmat ovat kuitenkin jokseenkin samaa mieltä siitä, että tieteellinen ymmärtäminen perustuu erityisesti selitykselliseen tietoon ja että ymmärtämisellä on läheinen käsitteellinen kytkös kykyyn soveltaa tietoa. Ymmärtäminen ei ole vain muistettujen faktojen papukaijamaista toistamista vaan edellyttää kykyä käyttää hankittua tietoa erilaisissa ongelmatilanteissa. Soveltaminen ei tässä rajoitu vain käytännön sovelluksiin, vaan kattaa myös teoreettiset päätelmät ymmärrettävän informaation ulkopuolelle. Sisäinen ymmärryksen tunne on vain epäluotettava signaali todellisen ymmärryksen lisääntymisestä.

Mitä tällä kaikella on tekemistä tekoälyn kanssa? Edellisen valossa voimme todeta, että tieteellinen ymmärrys kasvaa selityksellisen tiedon ja tämän tiedon mahdollistamien kyvykkyyksien lisääntyessä. Tieteilijöiden yksityiset psykologiset tilat ovat siis toissijaisia. Emme käytä, tai ainakaan meidän ei tulisi käyttää, mittavia julkisia resursseja vain sen eteen, että pieni joukko tieteentekijöitä saisi henkilökohtaisia onnistumisen kokemuksia. Tieteellinen ymmärrys on sosiaalisesti jaettu joukko kyvykkyyksiä hyödyntää (hyvin laajassa mielessä) systemaattisesti tuotettua ja oleellisesti julkista tietoa. (Kuorikoski 2022)

Tämän perusteella voimme todeta, että vain osa automatisoidun tieteen tiedollisesta läpinäkymättömyydestä on todellinen ongelma tieteellisen ymmärryksen kasvulle. Niin kauan kuin ihmistutkijoiden ja algoritmien yhteistyö tuottaa luotettavasti selityksellisiä päätelmiä tutkittavista ilmiöistä, on sivuseikka, ettei kukaan yksittäinen tutkija ilman apuvälineitä tähän kykenisi. Vielä vähemmän merkitystä on sillä, kokevatko tutkijat subjektiivisesti ymmärtävänsä tutkittavia ilmiöitä.

Jos tämä kuulostaa radikaalilta posthumanismilta, on huomautettava, että olemme jo pitkään ulkoistaneet merkittävän osan tieteellistä ymmärtämistä ihmismielten ulkopuolelle. Perustava kysymys monimutkaisten laskennallisten apuvälineiden roolista tieteellisen tiedon ja ymmärtämisen tuottamisessa edeltää nykyistä tekoälykeskustelua. Monimutkaiset simulaatiomallit ovat jo pitkään olleet monella tapaa tiedollisesti läpinäkymättömiä. Esimerkiksi suurten globaalien ilmastomallien tapauksessakin on usein vaikeaa ymmärtää, miksi malli tuotti juuri tietynlaisen skenaarioennusteen. Ilmastomallit toki poikkeavat koneoppimisella rakennetuista malleista siinä, että niiden rakenne perustuu teoreettiselle ymmärrykselle todellisen ilmaston toiminnasta. Mutta kuten edellä todettiin, tämä on tiedollisesta läpinäkymättömyydestä erillinen ehto tieteellisen ymmärtämisen kasvulle. 

Syvään koneoppimiseen perustuvien mallien todelliset kompastuskivet tieteellisen ymmärtämisen tuottamisessa ovat niiden kyvyttömyys representoida mekanismeja ja erotella kausaalisuhteita pelkistä korrelaatioista, ei niinkään niiden tiedollinen läpinäkymättömyys. Näiden puutteiden korjaaminen ei kuitenkaan edellytä, että koneoppimismallin toiminta tehtäisiin ymmärrettäväksi esimerkiksi selityksellisen tekoälyn tekniikoilla. Puutteen voi korjata esimerkiksi lisäämällä koneoppiviin malleihin kausaalisen päättelyn algoritmisia periaatteita (Buljsman 2023).

Tiedollisten hybriditoimijoiden vastuu ja sen rajat

Edellä esitetty ei kuitenkaan tarkoita, etteikö automatisoituva tiede tulisi syvällisesti muuttamaan tieteellisen tiedon kuvaa ja tapaa, jolla sen tuottaminen tulisi organisoida. Merkittävin kysymys koskee tiedollisten hybriditoimijoiden tiedollista vastuuta. 

Kun yhä suurempi osa tiedosta tuotetaan algoritmien ja tutkijoiden yhteistoimintana, todellinen tieteellisen tiedon ja ymmärtämisen subjekti on ihmisten ja algoritmien muodostama hybriditoimija (Kuorikoski ja Ylikoski 2015). Hybriditoimijalla ei tietenkään (tai ainakaan todennäköisesti) ole itsenäisiä tietoisia tiloja, mutta edellisen valossa nämä yksityiset tietoiset tilat eivät ole oleellisia tieteellisen ymmärryksen kasvulle. Ymmärryksen tunteen ja varsinaisen ymmärryksen sekoittaminen saa tiedollisen läpinäkymättömyyden näyttämään tarpeettoman suurelta ongelmalta.

Toistaiseksi tieteentekemisen sosiaaliset käytännöt on edelleen rakennettu tiedollinen ihmistoimija keskiössä. Viimekätisinä tiedollisen vastuun kantajina ovat tutkijat, joiden nimet löytyvät tieteellisen artikkelin otsikon alta. Koneoppimismenetelmien perustava tiedollinen läpinäkymättömyys tuottaa ongelmia tälle periaatteelle: jos tutkijalla ei voi edes periaatteessa olla täyttä ymmärrystä siitä, miksi menetelmä tuotti tietyn tuloksen, voidaanko häntä pitää täysin vastuussa esittämänsä tuloksen luotettavuudesta?

Erilaiset selityksellisen tekoälyn menetelmät voivat toki auttaa tässä ongelmassa, mutta mitään periaatteellista perustetta uskoa niiden kykyyn ratkaista tätä ongelmaa ei ole näköpiirissä. Lisäksi on hyvä kysymys, tulisiko helpommin ymmärrettäviä menetelmiä suosia vain tästä syystä tilanteissa, joissa tehokkaampia mutta läpinäkymättömiä menetelmiäkin olisi tarjolla (läpinäkyvyys voi tietenkin olennaisesti helpottaa menetelmän luotettavuuden arviointia, mutta tämä on erillinen peruste).

Tiedollisen vastuun oikeudenmukainen ja tarkoituksenmukainen jakautuminen ei ole uusi kysymys. Suurin osa tieteestä tehdään tutkimusryhmissä, joissa kellään yksittäisellä tieteentekijällä ei ole täydellistä ymmärrystä jokaisesta tutkimusprosessin askeleesta. Erilaiset tieteelliset skandaalit ovat viime aikoina nostaneet esiin vaikeita kysymyksiä siitä, miten tieteellisen vilpin ja lievempien hyvän tieteellisen käytännön rikkeiden kohdalla vastuun tulisi kirjoittajajoukossa jakautua.

Hybriditoimijat tuovat tähän perusongelmaan uusia piirteitä (kts. esim. Hakli ja Mäkelä 2019). Menetelmällisen koneoppimisen lisäksi generatiivinen tekoäly tulee varmasti olemaan suuressa roolissa tieteellisessä yhteiskirjoittamisessa. ChatGPT on oikolukenut tämänkin kirjoituksen. “Puhtaan” tiedollisen läpinäkymättömyyden lisäksi algoritmit ja käytetyt aineistot voivat olla esimerkiksi liikesalaisuuksia, jolloin tiedolliseen pääsyyn ja vastuuseen liittyy monimutkaisia oikeudellisia kysymyksiä. Algoritmit itsessään eivät myöskään ole moraalitoimijoita eikä niitä voi mielekkäästi rankaista rikkeistään.

Yhtä kaikki tiede tulee automatisoitumaan yhä enemmän, ja tieteen sosiaalisten käytäntöjen on mukauduttava tiedollisten hybriditoimijoiden tarpeisiin.

Lähteet
Buijsman, S. (2023). Causal scientific explanations from machine learning. Synthese, 202(6), 202.
Hakli, R., & Mäkelä, P. (2019). Moral responsibility of robots and hybrid agents. The Monist, 102(2), 259-275.
Kuorikoski, J. (2022). Factivity, pluralism, and the inferential account of scientific understanding. teoksessa  Lawler et al. (2022): 217-233.
Kuorikoski, J., & Ylikoski, P. (2015). External representations and scientific understanding. Synthese, 192, 3817-3837.
Lawler, I., Khalifa, K., & Shech, E. (toim.). (2022). Scientific understanding and representation: Modeling in the physical sciences. Taylor & Francis.
Ylikoski, P. K. (2009). The illusion of depth of understanding in science. Teoksessa Scientific understanding: Philosophical perspectives (pp. 100-119). University of Pittsburgh press.
Zednik, C., & Boelsen, H. (2022). Scientific exploration and explainable artificial intelligence. Minds and Machines, 32(1), 219-239.

Kommentoi

Sähköpostiosoitettasi ei julkaista. Pakolliset kentät on merkitty *