Tekoälyn hyödyntämisen yksi suurimmista riskitekijöistä liittyy tekoälymallien black box-ominaisuuteen, eli siihen, että mallin toiminnan ymmärtäminen ja selittäminen voi olla hyvin haastavaa. Tällaisissa olosuhteissa mallin mahdollisesti epäjohdonmukainen toiminta täysin uuden tyyppisissä tilanteissa voi olla arvaamatonta. Mallin toimintaa paremmin ymmärtämällä mahdolliset riskit ei-toivotuille ennusteille voitaisi proaktiivisesti tunnistaa ja eliminoida. Tekoälyn selitettävyyden parantamiseksi on kehitetty joukko menetelmiä, joiden avulla tekoälyn toteuttaman ennustelogiikan ymmärtäminen voi mahdollistua. Alla olevassa taulukossa on kuvattu kaksi eri selittämisen käyttötapausta ja ohjeita selittämisen toteuttamiseksi.


Taulukko 19: Tekoälymallien selitysmenetelmiä.

Käyttötapaus

Ohje

Tavoitteena on selittää tekoälymallin tekemä yksittäinen päätös numeerisen syötteen perusteella.

Selvitä yleisimpien selitysmenetelmien soveltuvuus käyttötapaukseen: SHAP (SHapley Additive exPlanations), LIME (Local Interpretable Model-Agnostic Explanations). Huomaa, että esim. SHAP menetelmää voi hyödyntää myös tekstimuotoiselle syötteelle.

Tavoitteena on ymmärtää koko aineiston laajuudessa mallin tekemiä päätöksiä.

Selvitä SHAP lähestymistavan sopivuus eri muuttujien tärkeyden selvittämiseen ennusteen muodostuksessa. Selvitä päätöspuihin perustuvien lähestymistapojen (Decision Trees) sopivuus selittämisen toteuttamiseksi.