Tekoälyaiheinen kuva, jossa lapsella on tabletti kädessään ja kasvojen eteen heijastuu verkkomaista kuvitusta.

Tekoäly ekstremismin mahdollistajana ja suojakeinona 

Tekoälyn nopea kehitys tuo uusia haasteita lapsen oikeuksien toteutumiseen. Se vaikuttaa negatiivisesti muun muassa lasten yksityisyyden suojaan, ja lisää ennakkoluuloja ja syrjintää. Tekoälyteknologian kehittyminen edistää myös lasten turvallisuuteen liittyviä haitallisia lieveilmiöitä – kuten väkivaltaista ekstremismiä.  

Viime aikoina erityisesti deepfake-teknologian tuomat haasteet ovat herättäneet julkista keskustelua. Se on muodostunut tekoälyn etiikkaan liittyvien keskustelujen ”kuumaksi perunaksi”. Deepfake-teknologia on tekoälyn muoto, joka käyttää koneoppimista, ja erityisesti siihen sisältyvää syväoppimista, luomaan realistiselta vaikuttavaa mediasisältöä, kuten synteettistä ääntä, kuvaa, videota ja tekstiä. Teknologian tavoitteena on kuvata jotain, mitä ei todellisuudessa tapahtunut.

Tämän niin kutsutun syväväärennösteknologian väärinkäyttömahdollisuudet ovat melkeinpä rajattomia. Tutkimusten mukaan väkivaltaiset ääriliikkeet ovat hyödyntäneet deepfakea levittääkseen haitallista, vihamielistä ja harhaanjohtavaa tietoa ja sisältöä verkossa. Sisällöllä pyritään synnyttämään yhteiskunnallista polarisaatiota ja jännitteitä, sekä edesauttamaan ääri-ideologian ja propagandan leviämistä. Menetelmällä tavoitellaan myös uusien kannattajien ja jäsenien rekrytointia, missä erityisesti haavoittuvassa asemassa olevat nuoret ovat otollinen kohderyhmä. 

Tekoälypohjaisilla algoritmeilla nuorta voidaan myös houkutella radikaalimman sisällön pariin. Tämä on todennettu tutkimuksissa mm. YouTuben ja TikTokin algoritmeissä, jotka ohjaavat käyttäjää videosuositusten kautta yhä väkivaltaisempaan materiaaliin. Ääriliikkeet hyödyntävät algoritmeja myös analysoidakseen valtavia määriä verkossa olevaa dataa löytääkseen malleja ja merkkejä mahdollisesta radikalisoitumisesta. Tämän avulla ääriliikkeet voivat etsiä ja houkutella ideologiansa kannattajiksi erityisen haavoittuvassa asemassa olevia nuoria. Ääriliikkeiden käyttämillä tekoälypohjaisilla rekrytointikeinoilla ei itseasiassa näytä olevan rajaa: maailmalla on esimerkkejä chat-boteista, joita on valjastettu ääriliikkeiden rekrytointiin.  

Tekoälyn valoisa puoli 

Tekoäly-teknologiaa voidaan kuitenkin valjastaa myös ehkäisemään ja torjumaan lasten ja nuorten hyvinvointia vahingoittavaa väkivaltaista ekstremismiä. Useat sosiaalisen median alustat tunnistavat ja poistavat jo valtavia määriä terroristien ja väkivaltaisten ääriliikkeiden verkkosisältöä päivittäin, ja suuri osa havaitsemisesta perustuu tekoälyyn ja automatisoituihin prosesseihin. Iso-Britanniassa myös poliisi on pystynyt hyödyntämään tekoälyyn pohjautuvaa teknologiaa löytääkseen ja tunnistaakseen äärimmäistä verkkosisältöä, jota on käytetty lasten radikalisoimiseen.   

Tekoälyä hyödyntävän teknologian lisäksi esimerkiksi tekoälyä rajoittava lainsäädäntö, kuten Euroopan unionin tekoälyasetus, lasten ja nuorten medialukutaidon vahvistaminen, sekä aikuisten tiedottaminen tekoälyteknologian kehityksestä ja vaaroista ovat tehokkaita keinoja ongelmien välttämiseksi. Tekoälyratkaisuja kehittävien tahojen tulisi toimia eettisesti, läpinäkyvästi ja loppukäyttäjiä osallistavasti, aina suunnittelusta alkaen. Ennakoinnilla, valppaudella ja osallistamisella pääsemme jo pitkälle.  

Kirjoittaja: Eemil Nero 

Kirjoittaja on tekoälyyn erikoistuva IT- tradenomiopiskelija Haaga-Helian ammattikorkeakoulusta. Hän suoritti korkeakouluharjoittelunsa Pelastakaa Lapsilla. Opinnäytetyössään hän käsittelee tekoälyn vaikutuksia lapsen oikeuksiin. 


Tämä kirjoitus on osa Pelastakaa Lasten ekstremismin ennaltaehkäisytyönasiantuntijablogien sarjaa. Asiantuntijablogin tarkoituksena on nostaa esille ajankohtaisia asioita liittyen nuorten väkivaltaiseen radikalisoitumiseen ja ekstremismiin, sekä niihin liittyviin lieveilmiöihin. Kirjoittajina toimivat Pelastakaa Lasten asiantuntijat sekä vierailevat alan asiantuntijat, nuorisotyöntekijät ja nuoret.