Insinööri-lehti

Tekoäly koettelee ihmisälyä

Maanantaina naureskeltiin Venäjän kehnolle trollille, joka professoriksi tekeytyen vakuutti Twitterissä, ettei ”Nato voi tallentaa Suomea”. Helposti havaittava kielivirhe herätti heti epäilykset viestin todellisesta lähettäjästä ja motiivista.

Viesti lienee ollut käännös englannin kautta suomeksi. Käännökseen on saatettu käyttää muuta käännösohjelmaa kuin Google Translatoria, koska jopa se osaa vastaavan twiitin kohdalla käyttää sanaa ”pelastaa” tallentamisen sijaan.

Kankea töppäys osoittaa, mihin tekoälyä voidaan käyttää. Yritys on niin kaukana sofistikoituneesta vaikuttamisyrityksestä ja käännöstyökalu on niin vanhaa tekniikkaa, ettei sitä varmaankaan kukaan miellä tekoälyksi. Sitä se kuitenkin on.

On itsestään selvää, että nauramme täällä kehnoille trolleille. Nimittäin ne trollit, jotka onnistuvat tehtävässään, eivät naurata ketään. Ne otetaan todesta eikä tunnisteta trolleiksi. Kehno trolli luo valitettavasti illuusion siitä, että tekoäly on edelleen lapsen kengissä, vaikkei se välttämättä ole.

Käytännössä moni tekee opinnäytetyönsä tekoälyn avustamana.

Vuoden alussa Jyväskylän yliopiston kappakorkeakoulu salli tekoälyn käytön opinnäytteiden kirjoittamisen apuna. Korkeakoulu selitti, että opiskelijoille annettavat tehtävät pitää laatia vastedes niin, ettei niitä voi läpäistä pelkällä geneerisellä tekoälyn tuottamalla tekstillä.

Kauppakorkeakoulu oli ehkä ensimmäinen tekoälyn käytön sallinut korkeakoulu Suomessa muttei takuulla viimeinen. Muut joutuvat seuraamaan perässä, halusivat tai eivät. Käytännössä on mahdoton sanoa, kuinka moni jo nykyään tekee salaa opinnäytetyönsä ainakin osin tekoälyn avustamana. Plagioinnin ja jopa tekoälyn generoiman tekstin tunnistavia sovelluksia on kyllä olemassa, mutta niiden antamien tulosten osuvuudesta ei voi olla varma.

Tekstin tuottaminen tekoälyn avulla ei tietenkään rajoitu vain opinnäytetöihin. Se yleistyy yhtä lailla työelämässä. Botit hoitelevat rutiininomaisia työtehtäviä eri aloilla, kuten journalistien ja juristien työssä.

Alkuvuodesta on naureskeltu paljon Chat GPT -tekoälylle. Tämä keskustelurobotti pystyy tuottamaan tekstiä, pyydettiinpä siltä luovaa kirjallisuutta, ohjelmointikoodia tai asiatekstiä. Mediat kiirehtivät varoittamaan sen tuottamista asiavirheistä. Asiantuntijat painottavat, että ihmisen on tarkistettava tekoälyn tekstin oikeellisuus.

Faktojen tarkistus on tarpeellista, mutta houkutus on suuri myös tämän tehtävän automatisoimiseen. Ei menne pitkään, kun itse asiavirheet yritetään tunnistaa tekoälyn avulla. Toistaiseksi monet tekoälyn hyödyntämät aineistot ovat valikoituja ja ihmisen tarkistamia. Ennen pitkää koneoppivan tekoälyn opetusaineistona voi olla tietokoneiden itsensä tuottamaa aineistoa. Seurauksia on vaikea ennustaa.

Kukaan ei tainnut nostaa maanantaista trollia esimerkiksi tekoälyn käytöstä. Kielen kääntäminen on ollut jo pitkään arkipäivää, vaikkei se vieläkään onnistu luotettavasti. Ennen pitkää Chat GPT:stäkään ei puhuta tekoälynä. Siitä tulee työkalu muiden joukossa, ja se sulautuu osaksi normaaleja toimisto-ohjelmia.

Me koettelemme tekoälyä ja naureskelemme sille. Sitä me emme välttämättä huomaa, kun tekoäly koettelee meitä.

Janne Luotola
Insinööriliiton tiedottaja