Generatiivinen tekoäly on tutkijalle houkutteleva työkalu. Sen käyttö aineiston analyysissa sisältää kuitenkin tutkimuseettisiä sudenkuoppia: pystyykö tutkija selittämään, miten analyysi on tehty? Kykeneekö arvioija arvioimaan prosessin luotettavuutta? Tiedämmekö, mitä aineistolle tapahtuu, kun sen syöttää tekoälysovellukseen?
Määritelmästä riippuen tekoälypohjaisia menetelmiä on käytetty tutkimusaineistojen analysoinnissa jo pitkään. Erilaisia koneoppimismenetelmiä on hyödynnetty numeerisen aineiston ja tekstimassan analysoinnissa. Tietyssä mielessä myös perinteisemmät tilastomenetelmät kuten regressioanalyysi tai dimensionaalisuuden analysointimenetelmät ovat vähintäänkin koneoppimisen serkkuja.
Aiemmin käytetyt työvälineet ovat kuitenkin olleet tyypillisesti niin sanotun kapean tekoälyn työvälineitä. Ne ovat siis työkaluja, jotka toteuttavat tietyn, niille määrätyn tehtävän. Uudemmat tekoälyn sovellukset ovat niihin verrattuna lähempänä niin sanottua yleistä tai laajaa tekoälyä, joka pystyy toimimaan erilaisissa konteksteissa ja ratkaisemaan erilaisia ongelmia.
Lue lisää