Koneoppiminen, erityisesti itseohjautuva syväoppiminen ja generatiivinen tekoäly, mullistavat tieteen ja tiedon tuottamisen käytäntöjä vauhdilla. Laajoja aineistoja hyödyntävät itseohjautuvat koneoppimismallit herättävät perustavan filosofisen kysymyksen inhimillisen ymmärryksen paikasta tieteellisen tiedon kokonaisuudessa. Erityistä keskustelua on herättänyt tiedollisesti läpinäkymättömien koneoppimismallien käyttö tieteellisinä malleina: paraneeko ymmärryksemme mallinnettavasta todellisuudesta, jos emme ymmärrä, mitä malli tekee?
Tässä puheenvuorossa esitän, että automatisoidun tieteen suurin filosofinen haaste ei ole tietokoneelle ulkoistettu ymmärtäminen vaan tiedollisen vastuun tarkoituksenmukainen jakautuminen inhimillisten tieteentekijöiden ja algoritmien kesken.
Tieteen tehtävä ei ole vain tuottaa ja ennustaa uusia havaintoja vaan myös tarjota välineitä maailman ymmärtämiselle. Tiede ei vain kerro, millainen maailma on: sen pitäisi myös tarjota ainakin osittaisia vastauksia siihen, miksi maailma on sellainen kuin se on. Automatisoituva tutkimus haastaa tämän tieteen perustehtävän. “Koneet” vastaavat yhä enenevässä määrin faktojen tuottamisesta tavoilla, joita emme koneiden käyttäjinä enää kykene ymmärtämään.
Lue lisää