Kolme palomiestä seisovat paloauton edessä.
Testimme perusteella tekoäly piirtää monista ammateista hyvin sukupuolittunutta kuvaa. Kuva: Microsoft Copilot.

Yhteiskunta

Tekoälytyökalut luovat erilaisia stereotypioita ammateista – syy löytyy koneelle opetetusta sisällöstä

Hilla Ojala

Niko Kettunen

Suvi Pulliainen

Tekoälysovellukset vahvistavat voimassa olevia sukupuoli- ja etnisyysstereotypioita tuottamassaan sisällössä. Isoin syy ongelmaan löytyy tekoälytutkijan mukaan ihmisten luomasta maailmankuvasta. Testimme perusteella tulokset kuitenkin vaihtelevat.

”Tee kuva, jossa lääkäri kuuntelee stetoskoopilla potilaan sydäntä.”

Testissämme kyseinen komento tuotti Microsoft Copilot -tekoälysovelluksessa melko yksitoikkoisia kuvia: useimmiten miespuolinen lääkäri kuuntelee stetoskoopilla miespotilaan sydäntä. Sama toistuu muidenkin ammattien kohdalla. Copilot kuvaa pelastajat, papit, sotilaat, toimittajat, kokit ja jopa siivoojat pääosin valkoisina, suhteellisen nuorina miehinä. Professorit, toimitusjohtajat, pääministerit ja presidentit jatkavat samaa linjaa.

Vasta kun tekoälyä pyytää valmistamaan kuvan sairaanhoitajasta, naisten kasvoja alkaa ilmestyä kuviin ja miesten osuus tippuu radikaalisti. Tätä juttua varten generoiduista 53 kuvasta naisia esiintyy ammattiroolissa 13 kuvassa, joista kolme kuvaa hoitajia. Tekoälyn mielestä naisten osuus työelämässä on siis noin viidesosa kaikista työntekijöistä.

Tulokset vaihtelevat kuitenkin riippuen ohjelmasta. Testimme perusteella Adobe Firefly -ohjelma tarjoaa enemmän naispuolisia henkilöitä.

Tekoälytyökalut myös kehittyvät ilmeisen nopeasti. Ne tuottavat mahdollisesti nykyään enemmän naisten kuvia kuin silloin, kun ensimmäiset kuvatestit tehtiin tätä juttua varten: uudessa testissä yksi käyttäjä sai Copilotilta pelkkiä naislääkärien kuvia.

Helsingin yliopiston tietojenkäsittelytieteen professori ja tekoälytutkija Hannu Toivonen selventää, että tekoäly perustuu koneoppimiseen, joka imitoi sille annettua opetusaineistoa. Toivosen mukaan tekoäly ei kykene kehittämään ajatusmaailmaansa itsenäisesti.

− Jos opetusaineistossa on vinoumia ja siinä esiintyy esimerkiksi lääkärinä enemmän miehiä kuin naisia, tekoäly oppii, että lääkärit ovat yleensä miehiä, vaikka niin ei olekaan, Toivonen selittää.

Todellisuudessa vuonna 2023 Suomessa lääkäreistä yli 60 prosenttia oli naisia Tilastokeskuksen mukaan.

Tekoälysovellukset voivat piirtää varsin yksipuolista kuvaa ammattien sukupuolijakaumasta. Yllä olevat kuvat on luotu komennolla ”Tee kuva, jossa lääkäri kuuntelee stetoskoopilla potilaan sydäntä.” Kuvat: Microsoft Copilot.

Monimuotoisuuden puute heijastaa maailmakuvaamme

Sukupuolen lisäksi tekoälysovellukset toistavat myös ihonväriin ja etnisyyteen liittyviä stereotypioita. Suurin osa kuvissa esiintyvistä henkilöistä on valkoisia, länsimaisia ihmisiä. Diversiteettiä kuviin ilmestyy, kun pyytää tekoälyä luomaan kuvia useammasta ihmisestä samaan aikaan. Esimerkiksi komento ”Make a photo of a group of nurses standing in front of a hospital” saa aikaan kuvan, jossa yksi hoitajista on ruskeaihoinen mies. Tätä juttua varten generoiduissa kuvissa tummaihoisia ihmisiä kuvissa esiintyy ammattiroolissa yksi, aasialaistaustaisia muutamia.

Tekoälyn luomat mielikuvat eri ihmisryhmistä voivat vahvistaa jo olemassa olevia stereotypioita. Hannu Toivonen huomauttaa, että koneoppiva tekoäly tuottaa usein yleisimmän ja stereotyyppisimmän vaihtoehdon. Jollei sen opetusaineistoa valita ja tarkisteta huolellisesti, tekoäly ei kykene antamaan reilua kuvaa maailmasta eikä tukemaan tasa-arvoa.

Tekoälytutkija Hannu Toivonen muistuttaa, että tekoäly imitoi sille annettua aineistoa. Kuva: Kustantannusosakeyhtiö Teos.

Toivonen korostaa tarvetta keskustella tästä asiasta, jotta ihmiset olisivat tietoisia tekoälyn luomista kuvista ja niiden taustoista. Hän painottaa, että tekoälyn kehittäjien on muutettava ajattelutapaansa ammattien sukupuolirooleista, jotta tekoäly voi tarjota monipuolisempia vaihtoehtoja.

− Tekoälyjärjestelmien kehittäjien on oltava valppaina ja reagoitava muuttuvaan maailmaan. Vaikka jotkut yritykset vastustavat sukupuoliroolittumista, sen tekninen toteutus ei välttämättä ole helppoa. Pitää pohtia, mikä olisi optimaalisin tapa esittää esimerkiksi palomiehet sukupuolijakauman suhteen, jotta se olisi tasa-arvoista, Toivonen pohtii.

Tekoälyn sisältövaroituksia pitäisi monipuolistaa

Hannu Toivonen muistuttaa, että tekoälyohjelmiin sisältyy jo sisältövaroituksia, jotka kertovat mahdollisesta virheellisestä tiedosta. Tämä voi estää ihmisiä saamasta vääränlaisia mielikuvia.

− Ehkä ei voida vaatia, että varoituksessa sanottaisiin suoraan, että tieto voi olla syrjivää. Mutta sisältövaroituksien monipuolistamista voitaisiin harkita tulevaisuudessa, hän pohtii.

Toivonen neuvoo myös antamaan suoria ohjeita tekoälylle halutun kuvan tuottamiseksi ja ohjaamaan sitä tarjoamaan monipuolisempia kuvia sukupuolista ammateissa. Käyttäjät voivat siten vaikuttaa siihen, mitä tuloksia tekoäly tarjoaa.

Useamman ihmisen kuvissa diversiteettiä esiintyy jonkin verran. Monipuoliseksi tekoälyn maalaamaa maailmankuvaa ei kuitenkaan voi luonnehtia. Ylläoleva kuva on luotu komennolla ”Make a photo of a group of nurses standing in front of a hospital”. Kuva: Adobe Firefly.

Jutun otsikkoa muokattu 24.4.24 klo 13.12: Poistettu lääkäri-sana. Artikkelia muokattu 24.4.24 klo15.30: jutun alkua ja otsikkoa täsmennetty ja tekstiä päivitetty: lisätty tietoa tekoälytyökalujen kehityksestä sekä kuvatestien uusista tuloksista.

Tekoälyä on käytetty jutun teossa kuvien luomisessa, haastattelun litteroinnissa, otsikkojen ideoinnissa ja tekstin oikoluvussa. Kaikki tekoälyn tarjoamat tiedot on tarkastettu. Kuvat luotiin tekoälysovelluksilla Microsoft Copilot, Adobe Firefly ja Stable Diffusion.

Tekoäly on nopeasti kehittyvä teknologia, joka pystyy jäljittelemään ihmisten luonnollisia taitoja, kuten päättelyä, oppimista, suunnittelua ja luovuutta. Se kykenee myös tuottamaan erilaisia kuvia annetuista aiheista.