Merkittävä osa tekoälyn hyödyntämisen riskeistä liittyy mallin kehittämiseen, julkaisuun, ja opettamisessa käytettävän datan arkaluonteisuuteen. Tekoälyjärjestelmät ovat ohjelmistojärjestelmiä, joihin liittyy myös tietoturvallisuuteen liittyviä riskejä, kuten esimerkiksi mahdolliset ulkopuolisten suorittamat hyökkäykset. Yllä olevassa kuvassa on kuvattu tyypillisen tekoälyjärjestelmän komponentteja, joita kohtaan voidaan kohdistaa hyökkäyksiä. Alla olevassa taulukossa on kuvattu yleisimpiä hyökkäysten muotoja ja ohjeita hyökkäyksiltä suojautumiseen. Tekoälyjärjestelmiin kohdistuvien hyökkäysten kuvaaminen perustuu Traficomin julkaisuihin (9), (10).


Taulukko 23: Tekoälyjärjestelmiin kohdistuvat uhat ja niihin varautuminen.

Uhka

Ohjeita

Tekoälymallin vuotaminen ja varastaminen.

Varmista opetetun mallin tietoturva. Malliin pääsy sallittu vain asianmukaisilla henkilöillä.

 

Varmista, että mallin rekonstruointi syöte-vastaus pareista ei ole mahdollista, esim. rajoittamalla mallille tehtävien kyselyiden määrää.

 

Mallin opettamisen hajautus: jos malli opetetaan osissa eri tietojen osalta, yksittäisen mallin vuotaminen ei paljasta koko ratkaisun toimintaa.

Opetusdatan vuotaminen

Varmista opetusdatan tietoturva.

 

Varmista datan siirtämisessä käytettyjen tiedonsiirtokanavien turvallisuus.

 

Differential privacy: dataan mahdollisesti lisätty kohina vaikeuttaa yksittäisten tietoalkioiden paljastumista.

Mallin takaisinmallinnus opetusdatasta tai esimerkeistä

Estä opetusdatan vuotaminen.

 

Rajoita mallille tulevien kyselyiden määrää, jotta takaisinmallinnukseen vaadittavaa tietomäärää ei voida muodostaa.

Mallin väistäminen: syötteen manipulointi tekoälyn harhauttamiseksi

Vihamielinen opettaminen: opetusdataan lisätään muokattuja esimerkkejä, jolloin mallin sietokyky muokkauksille paranee.

 

Syötteen ja ennusteiden tarkistaminen: poikkeavat syötteet tai mallin ennusteet voivat olla merkki manipuloidusta syötedatasta.

Opetusdatan myrkyttäminen: opetusdataa muokataan tahallisesti mallin toiminnan häiritsemiseksi

Regularisointi: rajoita mallin kompleksisuutta (esim. neuroverkon koko), eli käytä yksinkertaisia mallien arkkitehtuureja. Yksinkertaisemmat mallit eivät ole niin herkkiä ylisovittumaan syötedataan, mikä tekee niistä vikasietoisempia.

 

Differential privacy: syötedataan lisätty kohina lisää mallin sietokykyä ja riippuvuutta yksittäisistä myrkytetyistä syötteistä.

Havaintodatan muuttaminen

Varmista, että järjestelmän syötettä ei ole mahdollista manipuloida.

Mallin käytön estäminen ja viivästäminen

Paikallinen päätöksenteko käyttäjän laitteessa: jos päätökset tehdään keskitetysti, luottamuksellisen tiedon siirtämisen tarve kasvaa, päätöksentekoon kuluva aika kasvaa. Aikakriittisissä sovelluksissa paikallinen päätöksenteko nopeuttaa päätöksen tuottamista.

 

Laitteiden jatkuva käyttöasteen seuranta voi paljastaa palvelunestohyökkäyksen käynnistymisen.

Sensoreiden käytön estyminen

Varmista, että tekoälyjärjestelmän vaatiman syötteen keräämisen ja mittaamisen estäminen ei mahdollista koko järjestelmän toimintakyvyn kyseenalaistamiseen.