Tietojenkäsittelytieteen ja filosofian tutkijat avasivat tänään uuden teknologian riskejä. Samalla he esittelivät keinoja, joilla riskejä voidaan tunnistaa ja ehkäistä.
Tekoälystä tulee kenties ensimmäisenä mieleen paljon julkisuutta saanut Chat-GPT tai Microsoftin Bing-hakukoneeseen sisällytetty luonnollisella kielellä keskusteleva tekoäly. Samantyyppistä tekniikkaa on kuitenkin monenlaisissa järjestelmissä, jotka kykenevät päätöksentekoon tai -suosituksiin esimerkiksi yrityksen tai teollisen laitoksen ohjaamisessa.
Tutkijat suosittelivat tekoälyn etiikkaa käsittelleessä seminaarissa systemaattista riskien kartoitusta ja sen ottamista osaksi organisaation normaaleja prosesseja. Aiheesta on tehty valmiita malleja, joita voi hyödyntää, kuten Deda, Eccola ja EU:n luotettavan tekoälyn tarkistuslista.
Arvioinnissa on tärkeää ottaa huomioon muun muassa, vaikuttaako tekoäly fyysisiin kohteisiin ja mitä tapahtuu, jos ne vikaantuvat. Koneen keräämän datan käyttö ja säilyttäminen pitää miettiä etukäteen loppuun saakka.
Tekoälykysymykset mielletään helposti tekniikan alan ammattilaisten vastuuksi, mutta tutkijat pitävät arviointia koko organisaation ja eri alojen asiantuntijoiden vastuuna.
Seminaarin järjesti kansainvälisen insinööripäivän kunniaksi Suomen insinöörijärjestö Engineers Finland, jonka jäsen Insinööriliitto on.
Kuva: Janne Luotola