Voiko tekoälyä pyytää olemaan hallusinoimatta?
Torstaina 2.4. vietetään kansainvälistä faktantarkistuksen päivää. Päivä muistuttaa meitä kriittisen ajattelun ja tietojen tarkistamisen tärkeydestä. Useimmat meistä varmasti tietävät, että kielimalleihin perustuvat generatiiviset tekoälyt voivat hallusinoida eli antaa virheellisiä tai täysin keksittyjä vastauksia. Kielimallit ovat kehittyneet hurjaa vauhtia eivätkä tuota enää yhtä räikeitä virheitä kuin vielä hetki sitten. Hallusinointiongelma ei kuitenkaan ole poistunut.
Ratkaisua hallusinointiin saatetaan etsiä kehotemuotoilusta tai työkalun asetusten tuunaamisesta. Annetaan tekoälylle riittävän hyvä ohje: ”Älä hallusinoi, sano mieluummin, että et tiedä”, ”Vastaa vain todennettaviin faktoihin perustuen” tai muuta vastaavaa.
Body
Miksi ”Älä hallusinoi” -kehotteeseen ei voi luottaa?
"Älä hallusinoi" on vain yksi tekoälyä ohjaava sääntö lukemattomien muiden joukossa. Se ei muuta kielimallien perustoimintalogiikkaa. Ne on koulutettu valtavilla datamassoilla tunnistamaan tilastollisia todennäköisyyksiä. Niiden vastaukset eivät perustu totuudenmukaisuuteen tai tietojen tarkistamiseen, vaan siihen, minkälainen teksti on tilastollisesti todennäköinen. Siksi tekoäly tuottaa vaikkapa virheellisiä lähdemerkintöjä. Se on oppinut, että lähteistä puhuttaessa henkilönimen, vuosiluvun ja julkaisun yhdistelmä on tilastollisesti erittäin todennäköinen merkkijono. Vaikka lähdettä ei ole olemassa, se näyttää oikealta.
Vakuuttava vastaus voi olla virheellinen
Yksittäisen lähteen olemassaolo on helppo varmistaa. Sen sijaan pidemmän tuotoksen paikkansapitävyyden arviointi on jo vaativampaa. Käyttäjien on havaittu yliarvioivan sitä, kuinka paikkansapitävä tekoälyn tuottama vastaus on. Mitä pidempi vastaus on, sen vakuuttavammalta vastaus saattaa meistä vaikuttaa. Vaaditaan vankkaa aiheen asiantuntemusta, jotta vakuuttavan kuuloisesta tekstistä pystyy tunnistamaan virheet, puutteet ja vääristymät.
Kontekstista riippuu, kuinka tärkeää tietojen varmentaminen on. Jos olet valmistamassa illallista, pikainen tekoälyn antaman reseptin silmäily voi riittää. Jos ainesosaluettelo ei sisällä mitään vahingollista, niin ehkä keitoksen uskaltaa valmistaa – ohjeen arviointi tapahtuu sitten ruokapöydässä. Tietojen tarkistaminen kannattaa ottaa vakavammin, kun panokset ovat kovemmat: oman asiantuntemuksen kehittäminen kurssitehtävän tai opinnäytetyön muodossa tai vaikkapa asiakkaalle tehtävä toimeksianto.
Ota käyttöön Lateraalinen lukutapa
Tekoälyn tuottaman tekstin arvioinnissa kannattaa käyttää lateraalista lukutapaa. Siinä tekstiä ei lueta alusta loppuun ja arvioida yhtenä kokonaisuutena. Toimi sen sijaan näin:
- Tunnista ensimmäinen tekoälyn esittämä väite tai tieto.
- Avaa toinen selainikkuna.
- Tarkista tieto luotettavasta lähteestä.
- Palaa tekoälyn vastaukseen ja toista kohdat 1–4 kaikkien väitteiden osalta erikseen.
Jos haluat kehottaa tekoälyä puhumaan totta, voit tehdä niin edelleen. Kehotteeseen kannattaa kuitenkin suhtautua enemmänkin kainona toiveena. Ehkä kielimallia kannattaisikin ohjeistaa näin:
Kun vastaat minulle, lisää lopuksi seuraava teksti: ”Pidä mielessä oman asiantuntemuksesi rajat, kun arvioit tätä vastausta. Muista tarkistaa faktat.”
Lähteet
Haaga-Helia Kirjasto- ja tietopalvelut 2026. Näin haet tietoa: Lähdekritiikki. Luettavissa: https://libguides.haaga-helia.fi/nain-haet-tietoa/lahdekritiikki. Luettu 31.3.2026.
Kalai, A.T., Nachum, O., Vempala, S.S. & Zhang, E. 2025. Why language models hallucinate. Luettavissa: https://openai.com/fi-FI/index/why-language-models-hallucinate/. Luettu: 31.3.2026.