Selitettävyydestä

Helsingin Sanomat uutisoi tutkijoiden kehittämästä tekoälystä, jonka avulla EKG-käyrästä pystyttiin ennustamaan potilaan riski kuolla vuoden sisällä tutkimuksen ottamisesta. Uutisen tärkeimmät pointit oli se, että kone teki asian melko hyvin ja että kukaan ei oikein tiedä että miksi kone onnistui siinä.

Lehtikielellä ilmaistuna twitter tietysti ”räjähti” asiasta eli asiasta twiitattiin kahdesti. Poliitikko Jyrki Kasvi (vihr.) vaati tekoälyltä selitettävyyttä ja muutkin asiaa ihmettelivät.

Tekoälyn selitettävyys on iso ja tärkeä asia, jopa eettinen kysymys. Jos kone vain tekee ratkaisuja, selittämättä niitä käyttäjille mitenkään, voi syntyä tilanteita joissa kone esimerkiksi syrjii ihmisiä sukupuolen tai etnisen taustan vuoksi tai tekee muuten kurjia päätöksiä.

Tekoälyn selitettävyyden eteen tehdään kyllä paljon töitä sekä tutkimusta. Esimerkiksi Darpa tekee tämän eteen työtä. Lähtökohtana voidaan pitää, että mitä monimutkaisempi malli on kyseessä, sen hankalampaa mallin selittäminen voi olla verrattuna vaikkapa tilastollisiin koneoppimismalleihin.

Selitettävyyden kannalta keskeistä on se miten koneoppimisratkaisun tai -algoritmin käyttäjä pystyy vakuuttumaan käyttämästään ratkaisusta: onko ymmärrettävää miksi malli toimii kuten se toimii? Mitkä tekijät vaikuttavat saatuun tulokseen? Onko malli oikea ja miten tuloksiin mahdollisesti voidaan vaikuttaa?

Jyrki Kasvi toivoi, että julkisessa päätöksenteossa käytettävät tekoälyt pitäisi olla sellaisia, että ne pystyvät selittämään miten ovat johtopäätökseensä päätyneet. Demokratian kannalta tämä on tärkeää, mutta miten siihen sitten päästään? Tässä muutama oma ratkaisuni asiaan:

  1. Mallien täytyy olla verrattain yksinkertaisia: sen sijaan, että käytetään väkisin äärimmäisen monimutkaisia ja monikerroksisia syväoppimismalleja, pyritään käyttämään mallia joka on ongelman kannalta riittävän yksinkertainen. Monimutkainen ei ole sama kuin parempi.
  2. Käytetään blackbox-menetelmiä vastuullisesti: käytetään päätöksenteossa vain sellaisia järjestelmiä ja työkaluja, joiden toiminta tunnetaan tai arvioidaan järjestelmien toiminta riittävän hyvin ennen kuin niitä käytetään johonkin kriittiseen.
  3. Vaaditaan malleilta toistettavuutta: jos tekoälyjärjestelmän sisäinen tila ei muutu, järjestelmän tuottaman ennusteen on pysyttävä samana. Tietysti on myös hyväksyttävä se, että jos järjestelmän sisäinen tila muuttuu, niin on ymmärretään ja hyväksytään se että tuloksetkin muuttuvat.
  4. Arvioidaan mallien tuottamien tuloksien oikeellisuutta pitkällä tähtäimellä.
  5. Jos halutaan jotain säädellä, niin säädellään sitä minkälaista dataa käytetään mallien opettamiseen. Tarvitaanko tieto sukupuolesta luottopäätöksen tekemiseen?

Tekoälyjärjestelmät kehittyvät halusimme sitä tai emme – järjestelmiin tai teknologiaan liittyvien vaatimuksien sijaan meidän on keskityttävä siihen, että organisaatiot kuten yritykset tai valtion virastot käyttävät teknologiaa oikein. Viime kädessä kyse on siitä, että ihminen ymmärtää mitä tekee ja toimii eettisesti oikein.