Tekoälyn etiikassa keskustellaan usein siitä syrjiikö algoritmit jotain ihmisryhmiä tiettyjen ominaisuuksien vuoksi vaiko ei. Vaikka olisi mukava antaa vika algoritmeille, niin todellinen syy sille syrjiikö tekoäly ihmisiä vaiko ei on siinä miten malli on koulutettu.
Otetaan esimerkiksi vaikka aineisto, jossa on seuraavia attribuutteja: asuinpaikka, ansiotulot vuodessa, pituus, paino sekä ikä ja sukupuoli sekä tieto siitä, onko henkilö käynyt viimeisen vuoden sisällä sairaalassa. Analyytikon tehtävänä on kehittää malli, joka ennustaa tätä annetun datan perusteella. Onko tässä aineksia syrjinnälle?
Toisena hyvin paljon yksinkertaistettuna esimerkkinä olkoon malli, jonka tarkoituksena on aiempien kuvien perusteella luoda uusia kuvia. Tämä on sellainen nykyaikainen generatiivinen AI. Syöteaineistona on iso joukko kuvia, joista jokaisesta on selostus siitä mitä kuva esittää: aineistossa on jokaisen suomalaisen pörssiyhtiön toimitusjohtajien kuvat, kuvat sadasta eri Wolt-kuskista sekä iso määrä sairaanhoitajien kuvia. Malli saadaan toimimaan hienosti, kiitos taitavien kehittäjien, niin että kun käyttäjä selittää millaisen kuvan hän haluaa, malli on oppinut tästä aineistosta miltä toimitusjohtaja tai Wolt-kuski näyttää. Onko tässä aineksia syrjinnälle?
Tekoälyalgoritmien käyttö rakentuu sille, että mallit oppivat saamastaan aineistosta. Ensimmäinen esimerkki ei välttämättä syrji: voi olla tarpeen analysoida onko sukupuolella ja sairaalakäynneillä jonkinlaista suhdetta keskenään, mutta jälkimmäinen voi luoda vääristyneitä stereotypioita koska datassa on varmasti vinoumaa.
Kun leikitään valmiilla työkaluilla, etenkin generatiivisen tekoälyn kanssa, meillä ei ole kontrollia siihen millaista opetusaineistoa mallilla on ollut. Kaikki aineiston vinoumat eivät välttämättä edes korjaannu malleja kehittäessä, jos niihin ei tietoisesti puututa. Mallit ovat interaktiossa koulutusaineistonsa kanssa.
Monissa orgaisaatioissa mallit, joiden avulla analysoidaan asiakkaita, potilaita, työntekijöitä tai muita ovat kuitenkin siinä mielessä turvallisia että niiden dataan voidaan vaikuttaa. Mitä sitten voidaan tehdä jos malli sanoo, että sukupuolien välillä on luottokykyyn vaikutusta ja se pitäisi ottaa huomioon mallissa? Mitä malli sanoo, jos kyseinen attribuutti otetaan pois. Pitäisikö malli ajaa erikseen eri sukupuolille ja toivoa, että löytyy jotain selitystä?
Vaikka tekoäly soittaa aina kun pyytää, niin edelleen iso osa tekoälyksi kutsuttavan maailman ratkaisuista rakentuvat sille että ihmiset tietävät mitä ovat tekemässä. Voimme ulkoistaa laskennan ja tekemisen, mutta emme voi ulkoistaa ajattelua ja tulkintaa.