tiistai 30. tammikuuta 2018

Tekoäly ja ylitettävät aidat

Jos tekoäly on uusi sähkö, kuka takaa, ettei se anna kynsille?

Älykkäät algoritmit ohjaavat nykyisin sitä, mikä ennen oli ihmisten tekemien valintojen piirissä: autoja, mediasisältöjä, rahaliikennettä, laitteistoja, tuotantokoneistoja ja robotteja.

Valtava kiinnostus tekoälyyn on onneksi poikinut keskustelua riskeistä ja eettisistä ongelmista. Silti tekoälyn etiikan pohdinnassa ollaan vasta alkutekijöissä.

             A.L.

Näin kirjoittaa Henrik Rydenfelt blogissaan Tekoäly ja tunteet.

On tämä minuakin ehtinyt pohdituttaa, vaikkapa liittyen robottiautoihin. Jos tämmöinen auto kolaroi, kenen on vastuu missäkin tilanteessa: valmistajan, omistajan, vaiko lähellä kuskin paikkaa istuvan?

Tekoäly rekrytoijana

Pankkiirimaailmassa on tarjolla jo ensimmäisiä sijoitusrahastoja, joissa osakkeiden painoarvoa arvioi tekoäly. Kuulemma tekoälyn kyky seuloa yritysten tilinpäätöstietoja on ylivoimainen verrattuna ihmiseen.

Uusinta hottia on hyödyntää tekoälyä työnhakutilanteissa.

             Carlos Muza

Erilaisissa henkilöstöpalveluyrityksissä on valtavia määriä tietoja aiemmin tapahtuneista rekrytoinneista ja niiden pohjalta isostakin hakijajoukosta voi löytää sopivimpien ehdokkaiden toivottuja piirteitä.

Syntyy algoritmeja, jotka siis laittavat hakijat järjestykseen. Mutta, ei se aivan ongelmatonta ole. Nyt tutkijat ovatkin alkaneet todella huolestua valtavan taustamateriaalin käyttöön liittyvistä riskeistä.

Tekoäly on oikeastaan aika tyhmä

Ongelma on siinä, että tekoälyohjelmat oppivat vain sen, mitä niille opetetaan.

Toisin sanoen esimerkiksi tietynlainen syrjintä saattaa siirtyä – ikään kuin huomaamatta — tekoälyyn, koska algoritmit perustuvat aiemmin tehtyihin henkilövalintoihin ja asenteisiin.

             Natanael Melchor

Tietoviikko -lehdessä oli yksinkertainen esimerkki.

Jos Google Translatella kääntää suomesta englantiin lauseen ”Hän on lentäjä”, käännös kuuluu ”He’s a pilot”. Lauseen ”Hän on hoitaja” Google Translate puolestaan kääntää ”She’s a nurse”.

Kukaan ei käskenyt, mutta niin se teki

Toisin sanoen Google päättelee ihmisen sukupuolen ikään kuin ammattin perusteella. Kukaan ei ole käskenyt Googlea tekemään näin, mutta niin se vain teki!

Jos siis tekoäly on oppinut ennakkoluuloiseksi, ”väärän” rodun, iän tai sukupuolen edustajat saattavat saada ansaitsemaansa heikomman pisteytyksen ja menettää suorastaan mahdollisuutensa työpaikkaan.

             Markus Spiske

Tutkijoiden viesti on tämä: jos alkuperäinen data on epätasapainoista, lopputuloskin vääristyy.

Esimerkiksi parin viime vuoden suomalaisen some-keskustelun syöttäminen tekoälylle loisi niin epäsosiaalisen konehirviön, että se olisi heti romutettava, todetaan Tivi-lehdessä.

Mustan laatikon ongelma

Huhtikuussa 2017 MIT Technology Review julkaisi artikkelin, joka käsitteli kehittyneen tekoälyn toiminnan läpinäkymättömyyttä.

Syvät neuroverkot ja syväoppiminen perustuvat tilastolliseen malliin, joka koodataan hajautetusti neuroniverkkoon. Sisääntuloneuroneille syötetty data siirtyy tietyin ehdoin seuraavan kerroksen neuroneille ja niin edelleen.

             Teddy Kelley

Juttu ei ole ihan helposti esitettävissä, mutta lopputulemana oli, että tekoälyn toimintalogiikasta saattaa tulla (kylläkin johdonmukainen), mutta niin monimutkainen, että kukaan ei osaa päätellä, mihin sen tekemät päätökset perustuvat.

On puhuttu tekoälytutkimuksen mustan laatikon ongelmasta. Siinäpä sitä on, joksikin aikaa purtavaa.

Ei kommentteja:

Lähetä kommentti