Page 64 - MRKTNG 2 2023
P. 64
“ jos käytämme Esimerkiksi, jos käytämme rekrytoinnissa teko
rekrytoinnissa teko älyä, joka suosii tiettyä sukupuolta tai rotua, se voi
älyä, joka suosii tiettyä johtaa syrjintään ja estää pätevien hakijoiden valin-
sukupuolta tai rotua, nan. Tätä kutsutaan niin sanotuksi tahattomien seu-
se voi johtaa syrjintään rausten mahdollisuudeksi.
ja estää pätevien
hakijoiden valinnan. Tekoäly voi siis tahtomattaan tuottaa ei-toivottuja
Tätä kutsutaan niin tuloksia tai vaikutuksia, ja se on tiedostettava. Kuten
sanotuksi tahattomien myös se, että tekoäly tekee virheitä, jos algoritmi ei
seurausten ole optimaalinen tai syötetty data sisältää puutteita.
mahdollisuudeksi.” Virheitä, jotka näyttävät niin oikeilta, että jos ohjel-
maa käyttävä ihminen ei ole asian päällä tai tekee
miten päätökset tehdään ja millä perusteella ne teh- k iireessä, virhe lipsahtaa helposti eteenpäin.
dään”, Microsoftin toimitusjohtaja Mervi Airaksinen
listaa Microsoftin arvoja. ”Tekoäly kehittyy huimaa vauhtia, mutta on tär-
keä muistaa, että olemme vielä pitkään tilanteessa,
Microsoft omistaa 49 prosenttia generatiivisen eli jossa virheiden mahdollisuus tulee ottaa huomioon.
sisältöä tuottavan tekoäly ChatGPT:n kehittäneestä Tekoäly voi esimerkiksi tehdä ennusteita tai ehdot-
Open AI -tutkimuskeskuksesta. ChatGPT:n teknolo- taa toimenpiteitä, mutta ihmisen tulee aina arvioida
gian pohjalta Microsoft on tuonut keskustelevan teko- sitä ja olla vastuussa sen toiminnasta”, Airaksinen
älyn Bing-hakukoneeseensa. muistuttaa.
Airaksinen jatkaa, että vastuullinen tekoäly edel- Vastuu on myös käyttäjällä
lyttää ohjelman tekijältä myös päätösten tekemistä Tekoälyn kehitys on lisännyt myös huolta sen vaiku-
avoimesti, luottamuksen rakentamista ja vastuuvel- tuksista yksilöiden oikeuksiin ja vapauksiin. Monet
vollisuuden varmistamista sekä sen varmistamista, tekoälysovellukset keräävät suuria määriä tietoa, joka
että yksilöitä ei syrjitä heidän rotunsa, sukupuolensa voi olla arkaluonteista tai henkilökohtaista. Tämä
tai muiden ominaisuuksiensa vuoksi. herättää kysymyksiä vastuullisuuden lisäksi myös
tietosuojasta ja yksityisyydestä.
Yhdenvertaisuusperiaate onkin yksi tärkeimmistä
eettisistä periaatteista, joka ohjaa tekoälyn kehitystä. ”Tietoturva ja tietosuoja ovat alusta alkaen olleet
Jos tekoälyohjelma käyttää tietoja, jotka perustuvat Microsoftin tekoälykehityksen ytimessä. M icrosoftin
etniseen taustaan, sukupuoleen tai muuhun henkilö- tekoälypalveluissa noudatetaan samoja tietoturvan ja
kohtaiseen ominaisuuteen, sen käyttö voi johtaa syr- tietosuojan määräyksiä ja teknisiä ratkaisuja kuin kai-
jintään ja epäoikeudenmukaisuuteen. kissa muissakin pilvipalveluissamme. A siakas omis-
taa aina oman datansa, eikä sitä kerätä tai hyödynnetä
mihinkään muuhun tai kenenkään muun toimesta.
Viime kädessä on aina kuitenkin käyttäjän vastuulla
huolehtia siitä, että tekoälyä käytetään vastuullisesti
ja määräysten mukaisesti”, Mervi Airaksinen sanoo.
Microsoftin pilvipalvelut täyttävät ja osin ylittävät
sekä paikalliset että kansainväliset määräykset.
Euroopan komissio on ehdottanut sääntöjä, joilla
varmistetaan, että EU:ssa käytettävät tekoälyjärjes-
telmät ovat turvallisia, läpinäkyviä, eettisiä, puolueet
tomia ja ihmisen valvonnassa. Tätä varten järjestel-
mät on luokiteltu riskin mukaan ei-hyväksyttäviin,
suuririskisiin, rajoitetun riskin ja vähäisen riskin
sovelluksiin.
Koska teknologian kehitystahtia ei voi hidastaa
eikä pysäyttää, kannattaakin keskittyä siihen, mihin
voi vaikuttaa. Miten käytän tekoälyä? Miten opin
hyödyntämään sitä? Kenen kanssa sitä käytän? Mitä
ohjelmia otamme yrityksessä käyttöön? Ja ennen
kaikkea: keneen luotan ja miten varmistan tekoälyn
•tuottaman tiedon?
64 MRKTNG