Hypeä vai hyötyä?

Törmäsin MIT Sloan artikkeliin Don’t Get Distracted by the Hype Around Generative AI, jossa varoitetaan tekoälybuumista. Artikkelin mukaan yritysjohtajilla on paine sijoittaa uusiin teknologioihin, mutta heillä voi olla vaikeuksia erottaa todellinen potentiaali pelkästä hypetyksestä. Hypetyksen määrä tekoälyteknologioiden ympärillä on aika suurta, mikä johtuu erityisesti luovien tekoälyjen yleistymisestä.

Artikkelin mukaan esimerkiksi narratiivi ChatGPT:n kaltaisten tekoälyjen ympärillä voi olla hieman epärealistista: sen sijaan, että keskityttäisiin siihen että analysoidaan tarkasti mitä tekoäly pystyy tekemään ja mitä ei, keskustelu käy kiivaana siitä ovatko nämä teknologiat lähellä ihmisen kognitiota vaiko ei. Artikkelissa korostetaan sitä, että teknologian vaikutuksien ennustaminen on todella vaikeaa.

Eräs lempikirjani on Statistical Rethinking (Richard McElreath), jossa käsitellään bayesilaista data-analyysiä sekä tilastollista ohjelmointia. Aloitan kirjan lukemisen aika usein alusta, koska se on aika hyvä ja toisaalta en pääse siinä useinkaan kovin pitkälle.

Kirjassa verrataan tilastollisten menetelmien opetusta siihen, että insinööreille opetettaisiin fysiikkaa nurinpäin: ensiksi opiskeltaisiin siltojen murtumismekaniikkaa ja siitä sitten vähitellen edettäisiin perusmekaniikkaan. Monille tilastollisten menetelmien käyttäjille tämänkaltainen lähestymistapa toimii, mutta kuinka hyvin? Tilastolliset mallit elävät monella tapaa siinä kontekstissa, jossa niitä hyödynnetään ja mallien oletukset vaativat hyvää ymmärrystä itse mallista sekä tietenkin datasta. Kirjassa tätä ongelmaa pyritään taklaamaan sillä, että analyysissä käytetään kirjan menetelmiä.

Monissa tekoälysovelluksissa eletään hypen aikaa. Etenkin generatiiviset tekoälyt ovat tuoneet käyttäjien käden ulottuville monia hyödyllisiä työkaluja joita on helppoa ja kivaa käyttää. Se sama kärsimys, joka meillä oli vaikkapa kymmenen tai viisitoista vuotta sitten vaikkapa neuroverkkojen tekemisen kanssa, on poissa. Ei tarvita syvällistä tietotekniikan ja matematiikan osaamista, ei tohtorintutkintoa eikä mitään muutakaan vaikeaa. Laskentatehon kasvun myötä tulleet helpot työkalut tuovat nämä mallit jokaisen käden ulottuville.

Näiden työkalujen vahvuus on helppokäyttöisyys ja se on hyvä juttu. Kuitenkin, palatakseni alkuperäiseen artikkeliin: helppokäyttöisyys tuo ympärilleen myös hypeä ja optimistista narratiivia, joka on nähty jo paljon aiemmin vaikkapa data sciencen tai analytiikan kanssa.

Jotta organisaatiot pääsevät hypestä hyötyyn uusien teknologioiden kanssa, voisi olla tarpeen päästä myös syvemmälle näihin teknologioihin. Kun olemme kokeilleet vaikkapa ChatGPT:tä, meidän tulisi miettiä mitä siellä taustalla tapahtuu. Emme toki voi tietää mitä kaikkea yksittäisessä tuotteessa on käytetty tai tehty, mutta teknologian – etenkin tekoälyn ja koneoppimisen – kehitys viime vuosikymmenellä antaa meille hyvin osviittaa siitä mihin suuntaan kannattaa lähteä tutkimaan: koneoppimisen kanssa pelehtiminen muuttui helpommaksi vuonna 2015 kun Google julkaisia Tensorflow-kirjaston. Tensorflown tai Kerasin verkkosivujen kautta voidaan löytää paljon tietoa siitä minkälaista koneoppisratkaisuja sen avulla voi rakentaa: siellä on myös ne teknologiat, joiden päälle nämä hypen arvoiset tuotteet on rakennettu.

Seuraava askel hypestä hyötyyn on miettiä näiden käyttökelpoisuus oman liiketoiminnan näkökulmasta, löytää omat käyttötapaukset sekä oma data, jota voi hyödyntää. Näihin vaaditaan vähän osaamista, mutta lopulta se voi avata ratkaisevan kilpailuedun siinä miten uutta teknologiaa hyödynnetään.