Generatiivinen tekoäly virastoissa: pöhinä, toiveet ja todellisuus

ChatGPT:n ja sen sukulaistuotteiden paisuttama tekoälyhype on valtaamassa myös virastoja ja muita instituutioita, joista monet pohtivat paraikaa linjauksia generatiiviseksi tekoälyksi kutsuttujen työkalujen hyödyntämiselle. 

Tässä kirjoituksessa koetan avata muutamaa mielestäni tärkeää, mutta usein ohitettua näkökulmaa teemaan liittyen, omista kokemuksistani ja tutkimuksestani ammentaen. 

Alussa oli sana. Ja se sana oli tekoäly. Sitä on vuosien varrella käytetty laajalti vaikka vallan minkämoisissa yhteyksissä tietojenkäsittelytieteistä tieteiskirjallisuuteen, mutta viime aikoina sitä on, mielestäni virheellisesti, käytetty kuvailemaan kolme vuotta sitten käynnistyneen tekoälyhypen moottoria eli generatiivisia tekoälymalleja, joista tekstipohjaisista tunnetuin lienee OpenAI:n ChatGPT-tuoteperhe. Kyseessä on suurien kielimallien (Large language models – LLM) chatbot-sovellus, jonka ulosanti jäljittelee verkkokauppojen robottikassoja muistuttavaa keinotekoista keskustelukumppania. 

Kielimallit eivät edusta älyä

Kyseessä ei ole kuitenkaan itsenäiseen ajatteluun kykenevä tekoäly vaan LLM yksinkertaistaen on, vahvasti yksinkertaistaen, ennemminkin sofistikoitunut versio siitä, miten automaattinen tekstinsyöttö toimii älypuhelimessa taikka Googlen hakukentässä: kun ChatGPT:ltä kysyy jotain, se päättelee päätöspuulaskennan kautta, mitä sanoja kysyjä on halunnut kuulla ja muotoilee sen sopivaan muotoon. Se, että tähän pisteeseen on päästy, ei ole tapahtunut tyhjiössä monimutkaisen algoritmin tuloksena vaan se on vaatinut valtavan määrän mallin kouluttamista – koneoppimista. Kuvien, videoiden ja äänen tekoälytuotannossa pätevät samat koulutukseen perustuvat periaatteet. Yksi viime vuosikymmenen tekoälyläpimurto saavutettiin, kun kuvia tulkitseva malli oppi itse tunnistamaan kissakuvia.

Älystä ei siis voida puhua, sillä vaikka mallit vaikuttavat ajattelevan – jopa päättelevän – se johtuu yksinomaan siitä, että ne on koulutettu vaikuttamaan siltä. Ne eivät ymmärrä sanomaansa. Isaac Asimovin 40-luvulla visioimista positroniaivoista ollaan varsin kaukana. Tästäkin syystä tällaisten työkalujen käyttäminen päätöksenteossa on aina ihmisen vastuulla. Antaudun kuitenkin termihegemonialle hetkellisesti ja viittaan tässä kirjoituksessa paikoin generatiivisiin malleihin termiä ”tekoäly” käyttäen.

Pituus herpaannuttaa tekoälynkin

Yksi yleisimmistä toiveista, mitä olen kuullut yhdistettävän LLM-työkaluihin, on ollut se, että tekoäly voisi lukea pitkiä tekstimassoja ja tuottaa niistä kätevän nasevia tiivistelmiä – vaikkapa juuri sinne someen jaettaviksi. Hiljattain julkaistussa tutkimusartikkelissa tarkastelimme, miten LLM-palveluiden lippulaiva ChatGPT suoriutuu yksinkertaisesta tekstianalyysista. Tuossa tutkimuksessa totesimme, että tekstitiedoston kasvaessa liian pitkäksi alkaa kielimalli keksimään itse sisältöä, jonka se sitten ”analysoi”. Kyseisessä tapauksessa tekstitiedostossa oli 20 eduskuntapuhetta peräjälkeen tekstitiedostossa. Yhdeksännen analyysin jälkeen ChatGPT kyllä toteutti loput 11 analyysiaan, mutta nuo 11 olivat ChatGPT:n ”hallusinoimia” mukaelmia ensimmäisistä yhdeksästä jo analysoidusta puheesta. 

Toive työn helpottamisesta

Nykyisenkaltaiset generatiiviset tekoälytyökalut eivät tule korvaamaan ihmisiä sillä tavalla tai siinä mittakaavassa kuin mitä lukuisat viime vuosien pelottelevat mediaotsikot antaisivat uskoa. On kuitenkin mahdollista, että tekoälylobbarit konsultteineen onnistuvat vakuuttamaan päättävässä asemassa olevat siitä, että työntekijät voidaan korvata tällaisilla tuotteilla, minkä seurauksena osa voi saada potkut. 

Pitäisi tapahtua jotain todella mullistavaa, että ennustetunkaltaisia tekoälytyöntekijöitä mahdollistava tekoälykehitys saataisiin aikaiseksi. Jos niin käy, on sitten mietittävä uudestaan, haluammeko jättää tärkeitä töitä ja päätöksiä taholle, jonka niin kutsutun ajatuksenjuoksun elementeistä ei välttämättä päästä perille – ja hyväksymmekö sen, että tällaisten työkalujen käyttöönoton annetaan aiheuttaa työttömyyttä. Koska sehän näiden nykyistenkin työkalujen biljoonia sijoitusdollareita imeneen pöhinän keskiössä on: lupaus siitä, että kalliista ihmistyöläisistä päästäisiin eroon tai vähintäänkin prosesseja tehostettua, jotta osasta ihmistyöstä voitaisiin luopua. Talouskasvuun ja tuottavuuden parantamiseen ja sitä kautta voitontavoitteluun liittyvät toiveet ovat kuitenkin toistaiseksi olleet täysin ylimitoitettuja. 

Vapaus ja vastuu

Tekoälyn tuomaa tuottavuusloikkaa varten ei ole ainakaan vielä selviä, hyväksi havaittuja ja toistettavia kaavoja. Tässä tilanteessa on aivan mahdollista, että myös tekoälyn hyödyntäminen ja siihen liittyvät vastuukysymykset jätetään yksittäisen työntekijän kontolle. Yleiset linjaukset esimerkiksi sensitiivisen datan käsittelyn osalta voivat rajata käyttöä asianmukaisella tavalla, mutta muilta osin käyttötapojen osalta ei välttämättä päädytä antamaan erikseen yksityiskohtaisia ohjeita tai rajoitteita. Monesti tekoälytehostustoiveen tuottamaan ongelmaan ratkaisuksi paikalle kutsutaan konsultti.

Olen itsekin osallistunut tällaisten LLM-työkalujen koulutustilaisuuksiin. Keskeisenä viestinä tuntuu olevan aina se, että työkalut pitää ottaa haltuun tai muuten jää auttamatta kehityksen kyydistä – johon ei missään nimessä ole varaa! Vaikka työkalujen käyttöä on ohjeistettu oikeansuuntaisesti, on sisältö ollut lähtökohtaisesti varsin kritiikitöntä ja pintapuolista ja rajautua esimerkkeihin, kuten “näin teet pitkästä tekstistä LinkedIn-postauksen”. 

Mikäli ChatGPT:n kaltaiset työkalut todella tehostavat tällaista tyylittelytyötä luotettavasti, voi sen käyttö olla varsin perusteltua. Tämä edellyttää, että data pysyy turvallisissa sijainneissa esimerkiksi EU:n sisällä. Mikäli työnantajalla on tarjota edellä mainittujen kriteerien mukaisesti turvaisasti toimivat järjestelmät, joilla GenAI-työkaluja ajaa, on niiden käyttämistä mahdollista laajentaa myös monimutkaisempiin tehtäviin, jopa tärkeiden tietojen käsittelyyn. Tunnen monta ohjelmoijaa, jotka ovat korvanneet koodausfoorumit kielimalleilla varsin menestyksekkäästi. Lisäksi ei-natiivilla tasolla työkieltään puhuvat saattavat saada suurtakin hyötyä kielimallien käytöstä työssään.

Tekoäly voi myös syödä luottamusta

Päätöksenteon ulkoistaminen algoritmeille on kuitenkin viimeisen parin vuosikymmenen aikana vain kiihtynyt, ja tekoälyn tuominen osaksi tätä työtä sisältää paljon riskejä. Pari viikkoa sitten kuulin kollegaltani, miten Kela on saanut hämmentävän päätöksen aikaiseksi, ja kun hän on sitten siitä päätynyt valittamaan, hän on saanut vastaukseksi “Juu, sori, se oli robotin tekemä virhe”. Näitä anekdootteja alkaa olemaan jo kovin monella, eikä tämä kehitys erikseen lisää luottamusta julkisiin instituutioihin, joiden yhteiskunnallinen asema ja funktio perustuu juuri luottamukselle. 

Kun tällainen taho päätyy käyttämään kuvattuja tekoälytyökaluja, lainaa se mainettaan työkalulle ja sen tuottamalle sisällölle. Viimeisen parin vuoden aikana on raportoitu lukuisia tapauksia, joissa ChatGPT taikka vastaavat LLM-botit ovat tuottaneet virheellistä tietoa tilanteissa, joissa luottamus on ensiarvoisen tärkeää. Yhdysvalloissa asianajaja joutui pari vuotta sitten kiipeliin käytyään ilmi, että hän oli perustanut oikeusjuttunsa kielimallin keksimiin ennakkotapauksiin. Sittemmin samanlaisia tapauksia on tavattu muun muassa Kanadassa ja Australiassa, ja onpa joku tuomarikin hakenut tukea tuomioonsa tekoälyltä. Maaliskuussa nousi julkisuuteen tapaus norjalaisesta miehestä, jolle ChatGPT oli keksinyt murhatuomion omien lastensa taposta. Tällaisiin virheisiin valtion virastoilla ei vain ole varaa.

Maaliskuun alussa uutisointiin laajasta raportista, jossa todettiin Venäjän myrkyttäneen monet moiset mallit Kremlin propagandalla. Kun nämä mallit sitten otetaan tekemään päätöksiä, antamaan ja muotoilemaan niille perusteluja, taikka vaikka toimimaan vain chatbotin ominaisuudessa ihmistyötä korvaten, arkaluonteisia tai  poliittisesti ristiriitaisia asioita käsitellessä saattaakin ruudulle levähtää vakavasti venäjämieliseksi vinoutettu näkökulma. Jos esim. Ilmatieteiden laitoksen chattibotti alkaisikin yhtäkkiä kieltämään ilmastonmuutoksen, ei se varmaankaan lisäisi luottamusta tutkimuslaitokseen taikka ilmastotieteisiin.

Ympäristöjalanjälki ja eettisyys

Internet-palveluiden markkinaodotusten yhteydessä puhutaan usein virheellisesti aineettomasta kasvusta. Näinhän ei ole. ICT-alan hiilijalanjälki on ollut jo pitkään samaa kokoluokkaa lentoliikenteen kanssa, ja esimerkiksi vuonna 2021 uutisoitiin bitcoinin hiilijalanjäljen olevan samaa kokoluokkaa Suomen vuosipäästöjen kanssa. Samaan ilmiöön törmäämme nyt tekoälytyökalujen kanssa.

Suomeenkin pöhinällä paljolti puuhattujen, vihreäksi murrokseksi pestyjen datakeskusinvestointien ikävä puoli on se, että datakeskukset syövät sähköä – oli se sitten vihreää tai ei. Datakeskusten ja niiden tekoälyaivojen takana ruksuttavien mikrosirujen rakentaminen kuluttaa raaka-aineita. Yksinkertaistaen voidaan sanoa, että yhden tekoälypromptin (kyselyn) hiilijalanjälki vastaa noin 10–15 kertaista, perinteistä tekoälytöntä Google-hakua.

333 kertaa New Yorkiin ja takaisin

Generatiivisen tekoälyn ympäristöjalanjälki voidaan jakaa karkeasti kahteen alueeseen. Sisällyttyjen päästöjen voidaan ajatella syntyvän kaikesta raaka-aineiden louhinnasta ja hankinnasta näytönohjainten ja muun ”raudan” valmistamiseen liittyvästä. Näiden päästöjen on arvioitu olevan 24–35 prosenttia tekoälymallin kokonaispäästöistä. 

Käyttöön liittyvät päästöt syntyvät puolestaan mallien kouluttamiseen liittyvistä päästöistä ja niitä seuraavista valmiiden mallien käyttökustannuksista. Tiettyyn pisteeseen asti voidaan sanoa, että merkittäviä määriä ihmistyötä vaativan kouluttamisen päästöt ylittävät jälkimmäiset, mutta käytön mittakaavan kasvaessa asetelma käännähtää ymmärrettävästi toisin päin. Jos mallilla on vaikkapa ChatGPT:n tavoin satoja miljoonia käyttäjiä kuukaudessa, ylittävät käytön päästöt kouluttamisen päästöt muutaman viikon aikana. Pari kuukautta sitten julkaistiin tutkimus, jonka mukaan ChatGPT:n päästöt ovat noin 261 hiilitonnia kuukaudessa, mikä konservatiivisenkin hiilijalanjälkilaskennan mukaan vastaisi noin 333 edestakaista lentomatkaa Helsingistä New Yorkiin.

Lisäksi muun muassa mallien kouluttamiseen liittyy muita, suuria eettisiä ongelmia, joiden käsittely vaatisi oman kirjoituksensa tai niiden sarjan. Onneksi Yle Areenasta löytyy asiaa käsittelevä dokumentti Tekoälyn ytimessä.

Katso mitä teet

En kuitenkaan halua antaa totaalityrmäystä tällaisten työkalujen käytölle. Niillä on paikkansa, jos tietää, mitä tekee ja lopputuloksen varmistaa ihminen. 

Kuitenkin käyttäjä voi kielimallien käyttöä pohtiessaan miettiä, riittäisikö juuri tähän tehtävään vain ihminen.

Kirjoittaja

Erkki Mervaala

Tutkija, Suomen ympäristökeskus

Vastaa

Pakolliset kentät on merkitty *