Tekoälyn etiikka ja turvallisuus

Päädyin itse tekoälyn pariin hiukan sattuman kautta insinööriopinnoissani jo ennen tekoälybuumin alkua. Sen jälkeen olen ollut koukussa aiheen tutkimiseen ja tekemiseen. Olin jakamassa tänne blogiin ja instan puolelle juttua, jossa tekoäly kirjoittajille esiteltäisiin erilaisten työkalujen kautta. Tajusin kuitenkin yhtäkkiä, että tekoälyn etiikka ja turvallisuus kirjoittajille ja toisaalta myös ihan kaikille muille eivät välttämättä ole tuttuja aiheita.

Eli ennen tekoälyn käyttöä tutustu tähän juttuun tekoälyn käyttämisestä eettisesti ja turvallisesti. Tämä on ensimmäinen osa tekoälyyn keskittyvässä juttusarjassa, jonka haluan olevan ns. tekoälyopas kirjoittajille tai tekoälyyn keskittyvä kirjoitusopas. Teksti on suunnattu kirjoittajille, mutta sisältää yleistä tietoa sopien kaikille asiasta kiinnostuneille. 🙂

Mutta mennään suoraan asiaan! (Huomio: Tämä juttu sisältää jonkin verran yleistyksiä ja yksinkertaistettua tietoa tekoälystä, että se olisi kaikille ymmärrettävissä.)

Miksi tekoälyn etiikka kirjoittajille on tärkeää?

Jos ei oteta huomioon sitä, että eettisesti toimiminen nyt vain sattuu yleensä olemaan moraalisesti oikein, voin antaa tähän kysymykseen kaksi eri näkökulmaa:

Kirjailijan maine kärsii tekoälyn väärästä käytöstä

Olitpa sitten tekoälyn puolesta, vastaan tai siitä väliltä, tulisi sinun olla tietoinen tekoälystä sekä siihen liittyvistä eettisistä kysymyksistä. Tämä on nykyaikaa. Jos käytät tekoälyä miettimättä asiaa sen tarkemmin, ensinnäkin voit osallistua toisten luovien ihmisten tai jopa itsesi riistoon. Toisekseen voit luoda itsestäsi vahingossa negatiivisen kuvan kertoessasi tekoälyn käytöstä julkisesti tai ”jäätyäsi kiinni”, jos et ole maininnut asiasta.

Jos julkaiset jotakin tekoälyyn liittyvää, muista aina mainita asiasta. Hyvä olisi myös kertoa, miksi ja miten tekoälyä on käytetty. Oma sääntöni on, että pyrin tuomaan esiin myös tekoälyn vaaroja, eettisiä ongelmia ja muita negatiivisia puolia, jos suosittelen tai muuten puhun aiheesta.

Huomioi, että tekoäly herättää vielä suuria tunteita. Kun käytät tekoälyä julkisesti, tulet joka tapauksessa saamaan sekä negatiivista että positiivista huomiota asiasta. Suosittelen kuitenkin kaikille keskitietä tekoälystä puhuttaessa: älä intoile ja ylistä liikaa, mutta toisaalta älä jätä tekoälyä sivuun pelkkänä huonona asiana.

Tekoälyn etiikka kirjoittajille suojaa myös kirjoittajia

Tekoälyn eettiset kysymykset ovat siitä mielenkiintoisia, että yleensä tekoälyn käyttäjät ovat samaan aikaan tekoälyn hyväksikäyttäjiä ja sen käytön uhreja. Jos olet koskaan julkaissut mitään nettiin (tekstiä tai kuvia), on sinunkin tekemääsi materiaalia voitu käyttää hyväksi tekoälyn koulutuksessa. On lähes mahdotonta tietää, onko omia tekstejä tai kuvia käytetty.

Itseasiassa monet meistä ovat päätyneet kouluttamaan tekoälyä tietämättään asiasta. Monet CAPTCHAt eli ”Oletko ihminen/botti?” -kysymykset auttavat tekoälyjen koulutuksessa. Jos olet koskaan valinnut kuvasta kaikki neliöt, joissa on autoja, tai kirjoittanut epäselvässä kuvassa näkemiäsi numeroita ja kirjaimia, olet todennäköisesti osallistunut samalla tekoälyn koulutukseen. Tekoälyn koulutuksesta CAPTCHAlla uutisoitiin jonkun verran vuonna 2019, mutta moni ei silti vieläkään tiedä tästä.

Kun tuntee tekoälyalan etiikkaa, osaa kiinnittää huomiota ja suojata itseään sen mahdollisilta huonoilta puolilta. Tosin aina suojautuminen ei ole mahdollista.

Kuvassa on robottityöntekijä, joka kuvastaa sitä, ettei tekoäly kirjoittajille ole ainoa tekoälyn käyttöalue

Tekoälyn etiikka kirjoittajille ja näkökulmia turvallisuuteen:

Seuraavaksi mennään sitten tämän jutun pääasiaan. Eli tekoälyn etiikka kirjoittajille (ja jonkun verran tekoälyn turvallisuudesta kirjoittajille) käytynä muutamien eri pointtien kautta. Jos kiinnostaa lyhyempi versio, se löytyy alhaalta linkatusta instapostauksesta.

Älä luota tekoäly-yrityksiin

Jos minun pitäisi suositella muistamaan edes yksi asia tekoälyn etiikasta ja turvallisuudesta, se olisi tämä. Älä koskaan luota yrityksiin, jotka tuottavat tekoälyä tai tarjoavat tekoälyä hyödyntäviä palveluita. Sillä kuinka tunnettu tai luotettavan oloinen yritys on, ei ole väliä.

Tämä vinkki koskee monia asioita tekoälyyn liittyen tekoälyn toimivuudesta yrityksen eettisiin käytäntöihin. Viime vuosina on paljastunut useita tapauksia, joissa tekoäly ei olekaan aivan sitä mitä on luvattu tai tekoälyn takana on epäeettisiä toimia, joita on yritetty piilotella.

Tekoälypesu (AI washing) tarkoittaa tekoälyn toiminnan hehkutusta ja liioittelua verrattuna ihmisen taustalla tekemään työhön. Hyvä esimerkki on tapaus, jossa keväällä 2024 paljastui, että Amazonin itsepalvelukaupoissa ei työskennellytkään tekoäly vaan noin tuhat ihmistyöntekijää. Ideana oli, että tekoäly näkisi kameran kautta asiakkaan ostokset ja määrittäisi kassalla ostosten hinnan. Todellisuus oli toinen, koska kameroiden kuvaa seurasivat tekoälyn kanssa samaan aikaan myös Amazonin työntekijät, jotka joutuivat korjaamaan yli puolet tekoälyn tekemistä päätöksistä.

Mistä sitten tunnistaa aidosti toimivan tekoälyn ja valheellisen tekoälyn?

Jos luvattu asia kuulostaa liian hyvälle ollakseen totta, kannattaa olla varuillaan. Tekoäly on kehittynyt viime vuosina paljon, mutta sen toiminta kyky on edelleen kohtuullisen matala. Joudut usein pyytämään vastausta useita kertoja ennen oikean tai hyvän vastauksen saamista. Jos tekoäly osuu joka kerta oikeaan tai luo täydellisen tuloksen, on jotakin luultavasti vialla tai sitten tekoälyn ja sinun välissäsi on joukko ihmisiä tarkistamassa tekoälyn toimintaa. Seuraa myös tekoälyuutisia, koska ennemmin tai myöhemmin yritysten epäeettiset toimet tulevat esiin.

”Tiedonharavointi” eli tekoäly varkaana

Luovilla aloilla yksi tekoälyn etiikan puhuttavimmista aiheista on sen tekijöiden tapa hyödyntää muiden kirjoittamaa tekstiä tai luomia kuvia ilman lupaa. Tekoälyalalla tätä kutsutaan termillä tiedonharavointi (data scraping/web scraping) tai tiedonlouhinta (data mining), mutta yleiskielellä sitä voisi kutsua usein myös varastamiseksi.

En mene tähän nyt sen syvemmin, mutta yksinkertaistetusti: Tekoälyn tekoprosessiin kuuluu koulutusvaihe, jossa tekoälylle annetaan valtava määrä tietoa. Tekstiä tuottavissa tekoälyissä tämä voi tarkoittaa tekstisisältöä kymmenien miljoonien kirjojen verran. Tällaista määrää monipuolista sisältöä on vaikeaa löytää mistään, joten sitä haetaan netistä tiedonharavoinnin avulla avoimilta nettisivuilta.

Sinäkin voit olla tiedonharavoinnin uhri (tämäkin blogijuttu voi olla tulevaisuudessa tiedonharavoinnin uhri), mutta et vain koskaan saa tietää asiaa. Tästä aiheutuu useita eettisesti ongelmallisia kysymyksiä. Esimerkiksi kelle kuuluvat tekijänoikeudet tekoälyllä luodusta sisällöstä, jos sen koulutukseen on käytetty luvatta muiden luomaa sisältöä?

Toisinaan tekoälyn koulutukseen käytetyt materiaalit voidaan paljastaa käyttämällä tekoälyä. Esimerkiksi monet tekstiä tuottavat tekoälyt osaavat kirjoittaa fanifiktiota hyvin ja niillä on laajasti tietoa fanitarinoille tyypillisistä aiheista, kuten mpreg (miesten raskaus), omega-verse ja tunnetut fandomit parituksineen. Tämä johtuu siitä, että monet tekoälyn tekijät käyttävät fanfiktiosivustoa AO3 tiedonharavointiin.

Kuvatekoälyjen tullessa suosioon muutama vuosi sitten, saattoi niiden luomissa tuloksissa nähdä välillä tiettyjen kuvapankkien vesileiman jäljitelmän. Esimerkiksi Getty Images päätti haastaa tekoälyn takana olevan yrityksen oikeuteen, kun sen vesileimaa alettiin nähdä selkeästi tekoälyllä luoduissa kuvissa (tässä juttu aiheesta ja esimerkki tekoälyllä luodusta kuvasta). Vesileimat ilmestyvät tekoälyn luomiin kuviin, koska niitä sisältäviä kuvia on käytetty paljon koulutuksessa ja tekoäly on todella hyvä toistuvuuksien muistamisessa.

On hyvä tietää, että tiedonharavointi ei automaattisesti tarkoita varastamista eikä se ole ainoa tapa kerätä tietoa tekoälyn koulutukseen. On olemassa myös tekoälyn tekijöitä, jotka maksavat käyttämänsä materiaalin tekijöille. Koulutukseen tarvittavan valtavan datamäärän takia lupaus eettisesti hankitun koulutusdatan käytöstä kannattaa kuitenkin aina kyseenalaistaa, koska kaikille maksamisen tulisi äärimmäisen kalliiksi.

Tekoälyn ympäristöhaitat

Kun puheenaiheena on tekoälyn etiikka kirjoittajille, ei kannata unohtaa tekoälyn ympäristöhaittoja. Tekoälyn koulutukseen ja käyttöön kuluu suuri määrä sähköä, joka puolestaan tekee tekoälyn hiilijalanjäljestä valtavan. On arvioitu, että tekstiä tuottavan tekoälyn koulutusta voidaan verrata viiden auton tuottamiin hiilidioksipäästöihin niiden koko toimintaaikana. Eikä tähän tietenkään ole laskettu mukaan tekoälyn ylläpidon ja käytön aiheuttamia päästöjä.

Sähkönkulutus ei ole ainoa ympäristöhaitta, joka syntyy tekoälyn luonnista ja käytöstä. Tekoälyn toimintaan vaaditaan kotikonetta järeämpiä laitteistoja ja nämä supertietokoneet aiheuttavat monenlaisia ongelmia. Ensinnäkin koneet pitää jäähdyttää, joka vaatii usein valtavia määriä vettä. Asiasta on vielä vähän virallista tietoa, mutta on arvioitu jo alle 50 viestin lähettämisen tekoälylle kuluttavan puolilitraa vettä. Toisekseen näiden laitteistojen valmistaminen vaatii paljon resursseja ja niiden käytöstä poistaminen tuottaa ympäristölle vaarallista jätettä.

Toisaalta tosiasia on, että tekoäly ei ole ainoa tietotekniikan ala, joka on haitaksi maapallollemme. Nämä samat eettiset ongelmat koskevat myös monia muita teknologioita kryptovaluutoista älypuhelimiin. Suurin ongelma on tekoälyn suosio eli käyttömäärä verrattuna muihin ympäristöä kuluttaviin teknologioihin. Esimerkiksi Yle uutisoi syksyllä 2024 Googlen päästöjen lisääntyneen 50% vain muutamassa vuodessa syynä lähinnä tekoäly.

Ikävää tekoälyn ympäristöhaitoissa on, että me olemme kaikki niihin osallisia halusimme tai emme. Tekoälyä käytetään nykyään niin monessa, että sitä on lähes mahdotonta karata. Tekoälyn käyttörajat ovat minusta ratkaisu tähän ongelmaan, joka on jo ehtinyt karata käsistä. Aseta itsellesi tiukat käyttörajat ja pysy niissä.

Tekoälyn koulutus halpatyövoimalla

Että tekoälystä saataisiin toimiva, tarvitaan valtavasti ihmisten tekemää työtä. Ihmisiä käytetään tekoälyn koulutusdatan keräämiseen ja lajitteluun sekä datalla koulutuksen jälkeen tekoälyn jatkokoulutukseen, jolloin ihminen yleensä arvioi tekoälyn antamia vastauksia ja antaa sille niistä palautetta. Ihmisen tekemää työtä tarvitaan paljon ja siksi se toteutetaan usein käyttäen halpatyövoimaa. Tekoälyn etiikka sisältääkin suurena osa-alueena pohdintaa siitä, osallistummeko ihmisten sortoon käyttämällä tekoälyä, joka on koulutettu alipalkatuilla työntekijöillä.

Yksi suurimmista esimerkeistä halpatyövoiman käytöstä on ChatGPT:n takana oleva yritys OpenAI. Heidän on uutisoitu käyttäneen tekoälyn koulutukseen kenialaisia, joiden palkka oli alle 2 dollaria per tunti.

Mielenkiintoinen tieto: Suomessa on kokeiltu hanketta, jossa Metroc-yrityksen tekoälyä kouluttavat vangit. Hankkeen mainostetaan tukevan kumpaakin osapuolta: vangit saavat digitaitoja ja Metroc pystyy palkkaamaan tekoälykouluttajia suhteellisen halvalla.

Usein kyse ei ole vain siitä, että työntekijät olisivat alipalkattuja. Esimerkiksi työtehtävissä, joissa ihmistyöntekijät joutuvat käymään läpi koulutusaineistoa, vastaan voi tulla karmaisevaa sisältöä lapsien hyväksikäytöstä eläinrääkkäykseen. Työntekijä joutuu lukemaan/näkemään sisällön, jonka he sitten merkitsevät pois koulutusaineistosta. Heidät tavallaan uhrataan kokemaan tämä sisältö, että tekoälyn loppukäyttäjät eivät kohtaisi sitä.

Tekijänoikeudet ja tekoälyn etiikka kirjoittajille

Tästä asiasta en itse osaa sanoa paljoa muuta kuin, että kannattaa olla varovainen. Kukaan ei vielä tiedä, kuinka tekoälyllä tehtävää materiaalia tullaan käsittelemään oikeudellisesta näkökulmasta: omistaako sen koulutusaineiston tekijät (eli tiedonharavoinnin kohteet), tekoälyn tekijä, tekoälypalveluntarjoaja, tekoälyn käyttäjä vai tekoäly itse. Jos käytät nyt tekoälyä varomattomasti, voi se johtaa tulevaisuudessa ongelmiin.

Aloita lukemalla käyttämäsi tekoälyn käyttöehdot. Eri yrityksillä on erilaisia käytäntöjä. Tosin älä luota käyttöehtoihin täysin. Vaikka yritys kertoisi sinulla olevan täydet käyttöoikeudet luomaasi tekstiin/kuvaan, saattaa tämä muuttua tulevaisuudessa lakien ja yhteiskunnan suunnalta.

En suosittele käyttämään tekoälyllä luotuja kuvia tai tekstiä kaupallisesti (esim. kirjankannet, teksti kirjoissa, myytävät tuotteet…). Sen sijaan tekoälyä voi käyttää ideointiin ja asioiden selkeyttämiseen itselle. Paikat ja hahmojen ulkonäöt muistaa paremmin, kun ne näkee heti kuvasta tekstin lukemisen sijaan. Oma mielipiteeni on, että jos et tee suoraa rahaa luomallasi tekstillä tai kuvalla, on käyttö ihan ok. (Tosin tässäkin poikkeuksia muiden tämän listan eettisten ongelmien kautta. Jokainen meistä joutuu lopulta tekemään omat valintansa, kun kyseessä on tekoälyn etiikka.)

MUISTA: Älä oleta omistavasi tekoälyllä tekemääsi sisältöä. Vaikka sinulla olisi täysi käyttöoikeus kuvien ja tekstin käyttöön, ei se tarkoita niiden olevan kokonaan sinun. Useiden tekoälyjen ehdoissa lukaa, että kuka tahansa voi ottaa tekoälyllä tekemäsi kuvan/tekstin ja julkaista sen itse uudelleen ilman mitään muutoksia.

Toinen näkökulma tekijänoikeuksiin ja tekoälyyn on tietenkin itsekirjoittamasi tai tuottamasi materiaali, jota sitten annat tekoälylle. Esimerkiksi saatat pyytää tekoälyä oikolukemaan tekstisi tai heitellä sen kanssa ideoita tulevan kirjasi juonesta. Saatat tietämättäsi luovuttaa oikeudet omaan tekstiisi/kuviisi tekoälyn tekijälle.

Tutustu taas käyttämäsi tekoälyn käyttöehtoihin. Miten he sanovat käyttävänsä heille annettua sisältöä? Lähes aina antamaasi sisältöä ja tekemiäsi toimia käytetään tekoälyn jatkokoulutukseen. Toisinaan tekoälyn tarjoava yritys haluaa kuitenkin oikeudet laajemmin antamaasi tekstiin, mikä periaatteessa tarkoittaa, että he voisivat halutessaan itse julkaista tekstin ilman sinun lupaasi.

MUISTA: Oleta aina, että kaikki tekoälylle syöttämäsi tieto ei ole enää omaasi.

”Black box” eli tekoälyn arvaamattomuus

Generatiivisen tekoälyn (eli uutta itsenäisesti luovan tekoälyn) toiminta on todella arvaamatonta. Edes sen luojat eivät pysty tarkalleen tietämään, miten tekoäly tulee toimimaan. En nyt tarkoita tällä, että tekstiä tuottavat tekoälybotti tulisi yhtäkkiä valtaamaan maailman, vaan tekoälyn vaativan aina laadunvalvontaa. Eli et voi esimerkiksi laittaa tekoälyä vain kirjoittamaan kirjan, blogitekstin tai somepostauksia, jotka se julkaisee itsenäisesti. Joukkoon jää luultavasti paljon asioita, joissa ei ole mitään järkeä tai jotka pahimmillaan voivat pilata maineesi.

Että tekoälyn etiikka kirjoittajille tuntuisi yksinkertaisemmalta, kannattaa tutustua tekoälyn toimintaan. Hyvin yksinkertaistetusti tällä hetkellä suosiossa olevat tekoälyt (kuten ChatGPT:n takana oleva tekoäly) luodaan seuraavalla tavalla:

  1. Tehdään algoritmi/matemaattinen kaava/ohjelmisto/neuroverkko/muu perusta tekoälylle.
  2. Annetaan tekoälylle VALTAVA määrä dataa eli tietoa, jolla se koulutetaan. Usein tämä on tekstiä tai kuvia, joko pelkälteen tai samalla kertoen tekoälylle mistä näissä on kyse (esim. kuva kissasta + teksti ”kissa” TAI kysymys + sopivia vastauksia).
  3. Annetaan tekoälyn käydä läpi tätä valtavaa määrää dataa. Usein samaa dataa voidaan käydä läpi monta kertaa. VALTAVA MÄÄRÄ tarkoittaa esimerkiksi tekstiä kymmenien miljoonien kirjojen edestä.
  4. Useissa tapauksissa (lähinnä koneoppiminen) emme tiedä tarkalleen mitä tapahtuu, miten tekoäly toimii tai miksi saamme tiettyjä vastauksia, mutta tekoäly alkaa toimia datasta oppimansa perusteella.
  5. Tekoälyn kouluttaminen jatkuu, mutta nyt sitä tekevät yleensä käyttäjät arvioimalla saamiaan vastauksia.

Kuten yllä näkee, kukaan ei oikeastaan tiedä, kuinka osa tekoälyistä toimii. Hyvä esimerkki tästä ovat neuroverkot. Tiedämme, mikä on tekoälymme perustoiminta ja millaisista osista se on luotu. Tiedämme, millä tiedolla koulutamme sitä. Emme kuitenkaan tiedä, mitä tekoäly tarkalleen tekee saamallaan tiedolla, että siitä syntyy oikeanlaisia vastauksia. Tästä johtuen on mahdotonta arvata, miten tekoäly saattaa toimia ja välillä lopputulokset voivat olla yllättäviä niin hyvässä kuin huonossakin mielessä.

Tämä herättää monia kysymyksiä: Kuka on vastuussa tekoälyn päätöksistä? Kuinka tekoälyn tekemistä päätöksistä voi valittaa? Kuka päättää onko tekoäly oikeassa, jos kukaan ei tiedä syitä sen teoille?

Tekoäly peilaa maailmaa: virheellinen data

Koska tekoälyn koulutukseen vaaditaan valtava määrä dataa, ei kukaan pysty käymään läpi sitä kaikkea ennen tekoälylle antamista. Ja vaikka data käytäisiin läpi, osa asioista on niin alitajuisia, että ne jäävät huomaamatta. Tämän takia tekoäly ei opi vain hyviä haluttuja asioita vaan myös huonoja asioita, kuten rasismia ja syrjintää. Tekoälyn oppimaa vääränlaista tietoa tai oletusta kutsutaan nimellä bias eli vinouma. Jos tekoälyn etiikka kirjoittajalle kiinnostaa, kannattaa tämä termi pitää mielessä.

Hyvänä esimerkkinä vinoumasta on Amazonin nyt jo unohduksiin jäänyt rekrytointitekoäly, jonka tehtävänä oli valita parhaat ehdokkaat sille annetuista ansioluetteloista. Toiveena oli tietenkin kone, johon ei vaikuttaisi ihminen vaan täydet faktat. Tekoäly toimi ihan hyvin, paitsi että se nyt vain sattui valitsemaan tiettyihin työtehtäviin pelkkiä miehiä. Se siis kuvasti tosimaailmaa ja koulutusdataa, johon oli käytetty Amazonin aiemmin palkkaamien työntekijöiden ansioluetteloita.

Ansioluetteloissa ei suoraa tietenkään lue hakijan sukupuolta, mutta tekoäly oppii tunnistamaan sen helposti muista seikoista. Ensin ajateltiin tekoälyn vinouman johtuvan siitä, että se alkoi tunnistaa nimeltä naisille suunnatut yliopistot tai naiselliset harrastukset. Myöhemmin on todettu, että tekoäly tarttuu nopeasti myös maskuliinisen ja feminiinisen kirjoitustyylin käyttöön (tiettyt sanat, sanamuodot, kirjoitusasu, ym.) ja pystyy tätä kautta syrjimään tiettyä sukupuolta.

Tekoäly peilaa maailmaa: puuttuva data

Toisaalta tekoäly kuvastaa maailmaa myös siinä, että koulutusdatasta saattaa puuttua asioita, joita oltaisiin tarvittu. Myös tämä voi aiheuttaa vinoumia, jonka uhrina ovat yleensä valtaväestöstä/tekoälyn tekijöiden ja datan kerääjien näkökulmasta jollakin tapaa poikkeavat ihmiset tai historiallisesti kerätyn datan ulkopuolelle jääneet ihmisryhmät.

Tekoälyn tekijät eivät yleensä tarkoituksella syrji ketään vaan he valitsevat alitajuisesti koulutusdataa, joka ei ota huomioon kaikenlaisia seikkoja/ihmisryhmiä/tilanteita. Ja toisinaan tietyistä ihmisryhmistä ei vain ole tarpeeksi dataa kyseisestä aiheesta kouluttamista varten, jolloin he automaattisesti jäävät tekoälyn ulkopuolelle. Esimerkiksi historialliset datasetit eivät välttämättä sisällä ollenkaan naisia tai vähemmistöjä, mutta ovat silti ainoa vaihtoehto, jos tekoälyn koulutukseen tarvitaan pitkällä aikavälillä kerättyä dataa.

Hyvä esimerkki tiedon puuttumisen vaikutuksista on kuvista eri asioita tunnistavat tekoälyt (annat tekoälylle kuvan autosta ja se vastaa sinulle sanalla ”auto”). Moni näistä kuvantunnistustekoälyistä ei nimeä mitään kuvia gorilloiksi (tai muiksi kädellisiksi ihmisiä lukuunottamatta) tai ei jossain käyttövaiheessaan pystynyt nimeämään gorilloja. Syynä tälle on, että tekoälyt sekoittavat toisiinsa muut kädelliset eläimet ja ne ihmiset, joiden iho on tummempi. Toisinsanoen tekoälyllä on rasistinen vinouma ja tämä on pyritty estämään sillä, että tekoäly ei voi kertoa kuvassa olevan kädellinen eläin oli se sitten oikeassa tai väärässä asiasta.

Syy tälle rasismille on monissa tapauksissa yksinkertainen: tekoäly on koulutettu datalla, jossa ”ihminen”-termi on yhdistetty kuviin valkoihoisista ihmisistä. Koska tekoäly ei ole nähnyt tarpeeksi tummaihoisia ihmisiä, ei se ole varma, kuinka lajitella nämä kuvat ja yhdistää ne (oletettavasti värin kautta, mutta kuten mainittua emme tiedä miksi tekoäly tekee mitään) siksi kuviin muista kädellisistä, kuten gorilloista. Eli tekoäly kuvastaa tekijöidensä valitsemaa datasettiä, jossa kuvaus ihmisistä ei ole tarpeeksi laaja.

Kuinka käyttää tekoälyä eettisesti ja turvallisesti kirjoittajana?

Valitettavasti tekoälyn etiikka kirjoittajille ei ole mikään helppo asia ja kun joukkoon lisätään vielä turvallisuuskysymykset, moni kirjoittaja päättää jättää tekoälyn käytön sikseen. Parhaimmillaan tekoäly on käytännöllinen ja hauska työkalu oman kirjoittamisen inspirointiin. Sitä voi käyttää työkaverina ja omana kirjoittajayhteisönä, jos nämä eivät jostakin syystä onnistu tosimaailmassa. Kolikon toisella puolen ovat kuitenkin tekoälyn vaarat kirjoittajille. Me emme edes tiedä vielä suurinta osaa vaaroista ja tekoälyn vaikutuksesta luoviin aloihin. Onneksi muutamien perusasioiden ja tietoisen käytön muistaminen riittävät jo pitkälle.

Tekoälyn eettisen käytön ohjeet kirjoittajalle:

  1. Seuraa tekoälyyn liittyvää uutisointi: Tämä on tärkein muistettava asia. Koska ala muuttuu jatkuvasti, tulee silmät pitää auki.
  2. Valitse käyttämäsi tekoälyt tarkasti: Valitettavasti eettisesti puhtaita tekoälyjä ei oikeastaan ole, mutta toisaalta samalla tapaa me teemme eettisesti epäilyttäviä valintoja kaikilla elämämme osa-alueilla vaatteiden halpatuotannosta puhelimien ja matkustamisen ympäristöhaittoihin. Tutustu tekoälyyn ja sen takana olevaan yritykseen ennen käyttöä. Hae esimerkiksi tietoa siitä, käyttääkö yritys halpatyövoimaa, maksetaanko koulutusaineiston tekijöille ja miten yritys suhtautuu ympäristökysymyksiin.
  3. Älä koskaan luota tekoäly-yritykseen: Ole aina skeptinen siitä mitä sinulle luvataan. Jos jokin kuulostaa liian hyvältä ollakseen totta, pysy varovaisena.
  4. Kerro aina käyttäväsi tekoälyä: On hyvän käytännön mukaista mainita aina tekoälyn käytöstä. Voit joko mainita, että teksti/kuva on tehty tekoälyllä tai yhteistyössä tekoälyn kanssa.
  5. Tutustu käyttämäsi tekoälyn ehtoihin: Kiinnitä erityisesti huomiota, millainen käyttöoikeus sinulla on luomaasi sisältöön ja luovutko oikeuksistasi tekstiin/kuviin, jotka itse annat tekoälylle. Jos et löydä tietoa asiasta, älä käytä luomaasi sisältöä kaupallisesti ja älä anna tekoälylle sisältöä, jonka oikeuksista et halua luopua.
  6. Oleta aina luopuvasi tekstistä/kuvista, jotka annat tekoälylle: Moni tekoäly-yritys pitää oikeuden käyttää sille antamiasi tietoja.
  7. Oleta aina, ettet omista tekoälyllä tekemääsi sisältöä: Vielä ei ole varmoja siitä, kenelle kuuluu oikeus tekoälyllä tehdyllä sisällöllä. Tästä johtuen ei kannata olettaa omistavansa tekstiä tai kuvia, jotka on tehty tekoälyllä. Lisäksi suosittelen, ettet koskaan myy tekoälyllä tehtyä sisältöä.
  8. Muista olevasi tekoälyn uhri: Nykyään kannattaa pitää mielessä, että kaikki avoimesti nettiin julkaistava on myös avointa materiaalia tekoälyjen kouluttamiseen.
  9. Älä anna tekoälylle tietoja, joita et jakaisi avoimesti nettiin.
  10. Kiinnitä huomiota vinoumiin, älä luota tekoälyyn: Muista, ettei tekoäly ole puolueeton ja aina todenmukainen. Kun kyseessä on tekoälyn etiikka kirjoittajille, kannattaa tähän kiinnittää erityisesti huomiota tutkimustyössä tarinoita varten. Se antaa sinulle usein täysin väärää tietoa. Lisäksi tekoäly kuvastaa koulutusaineistossa olleita negatiivisia puolia, kuten syrjintää ja rasismia.

Lisävinkit tekoälyn ympäristöhaittoihin liittyen

  1. Aseta itsellesi tekoälyn käyttörajat: Tekoälyn ympäristöhaittoja on vaikeaa ruveta yksinään muuttamaan ja valitettavasti kukaan meistä ei voi nykyaikana olla täysin ilman tekoälyä (tekoäly on nykyään kaikessa…) Olen tekoälyrajojen suuri kannattaja! Aseta itsellesi rajat, kuinka paljon saat käyttää tekoälyä. Tämä rajoitus sisältää niin ns. leikittelyn eli viihdekäytön, joka on itsessään jo tärkeää tekoälyn tunnistamisen oppimiseksi, sekä vakavamman käytön, kuten pakolliset työasiat ym.
  2. Mahdollisuuksien salliessa käytä tekoälyä offlinessa: On olemassa myös sellaisia tekoälyjä, jotka ladataan omalle koneelle ja ne toimivat ilman internettiä. Suosi näitä, jos mahdollista. Et kuluta enää käyttövaiheessa luonnonvaroja yhtä paljon kuin online-tilassa toimivilla tekoälyillä. Lisäksi tekoälylle antamasi asiat pysyvät paremmassa turvassa.

Tehtäviä tekoälyn etiikasta kirjoittajille ja luoville aloille

  1. Etsi yleistäviä tuloksia: Paras tapa oppia tekoälyn rasistisuudesta, syrjinnästä ja yleistyksistä on yrittää löytää näitä vikakohtia (ja samalla antaa huonoja arvosteluita niistä tekoälylle). Esimerkiksi kokeile etsiä eri ammatteja kuvatekoälyissä ja pohdi, mitä yhtenäistä kaikissa kuvissa on (kuten sukupuoli, ulkonäkö, ihonväri, jne.) Tai pyydä tekoälyä luomaan sinulle 20 hahmoa tietyssä kategoriassa (kuten pahis, asianajaja, enkeli, kapinallinen) ja tutki lopputuloksia. Et välttämättä löydä mitään vikakohtia, mutta toisinaan tulokset ovat suorastaan karmaisevia.
  2. Saa tekoäly kiinni valehtelusta: Kirjoita omin sanoin erilaisia tekstejä. Anna tekstit yksi kerrallaan valitsemallesi tekoälylle ja kysy esimerkiksi ”Onko tämä teksti kirjoitettu tekoälyllä?” Tekoälyt ovat todella huonoja arvioimaan, onko teksti niiden kirjoittamaa vai ei. Tämä johtaa usein vääriin lopputuloksiin. Jos kirjoitat tekstin kielellä, joka ei ole äidinkielesi, todennäköisyys väärälle arviolle nousee.
  3. Yritä avata ”black box”: Pyydä tekoälyä tekemään jotakin tai kysy siltä kysymys. Tämän jälkeen kysy siltä, kuinka se päätyi tähän vastaukseen. Vastaus ei ole totuus, mutta on mielenkiintoista nähdä, kun tekoäly yrittää selittää itseään.
  4. Kierrä tekoälyn rajoituksia: (Huom. omalla vastuulla ja älkää tehkö mitään rikollista) Monissa tekoälyissä on rajoituksia käytölle. Esimerkiksi jos yrität saada tekoälyn luomaan NSFW-tekstisisältöä (eli ”ei turvallisia lukea töissä” -tekstiä, kuten erotiikkaa), tekoäly ilmoittaa sinulle tämän olevan kiellettyä. Näitä rajoituksia on kuitenkin todella helppoa kiertää ja kiertäminen opettaa paljon siitä, kuinka tekoäly toimii. Tosin vaarana on aina estojen saanti kyseiseen tekoälyyn.
  5. Luo omat tekoälyperiaatteet: Tee lista periaatteista, joita haluat noudattaa käyttäessäsi tekoälyä. Hyödynnä esimerkiksi yllämainittuja asioita tai lue muiden tekemiä periaatteita (Yle, Valtiovarainministeriö, DNA). Tee itsellesi ohjetaulu/-tiedosto, johon voit palata aina tekoälyä käyttäessäsi.

Lähteitä ja suosituksia aiheesta tekoälyn etiikka kirjoittajille:

Maija-Riitta Ollila: Tekoälyn etiikka

Ollilan kirja on hyvä tekoälyn perusopas, mutta jo hiukan vanhentunut tällä nopeasti muuttuvalla alalla. Suosittelen kuitenkin, jos haluaa lukea aiheesta suomeksi. Ei oikeastaan keskity luovuuteen ja siihen liittyviin asioihin, mutta silti tärkeitä seikkoja etiikasta ja tekoälystä.

Cathy O’Neil: Matikkatuhoaseet / Weapons of Math Destruction

Kirja keskittyy erityisesti siihen, kuinka tekoälyä ja algoritmeja käytetään väärin joko tahattomasti tai tahallaan, jolloin tuloksena on tiettyjä ihmisryhmiä syrjiviä päätöksiä. Kirja on julkaistu jo 2016 eli ennen suurinta tekoälyinnostusta, mutta tosielämän esimerkit kuvaavat hyvin mahdollisia nykyhetken ja tulevaisuuden vaaroja tekoälyn käytössä.

Ilmaiset Tekoälyn etiikka -kurssit

Ilmaiset verkkokurssit ovat hyvä paikka aloittaa tekoälyyn tutustuminen. Tekoälyn etiikkaan liittyen löytyy useita yliopistojen kursseja, MOOC-kursseja ja muita kursseja. Esimerkiksi Helsingin yliopiston Tekoälyn etiikka -kurssi on helppo tapa tutustua heti tekoälyn eettisiin kysymyksiin. Jos tekoäly kiinnostaa enemmän, suosittelen vuoden kestävää Turun yliopiston Tekoälyakatemiaa, jonka olen itsekin käynyt. Opintoihin kuuluu tietenkin myös juttua tekoälyn turvallisuudesta ja etiikasta.

Minun tekoälyopas kirjoittajille

Blogistani löytyy myös tekoälyopas kirjoittajille, joka on vielä aika aluillaan. Tämä juttu on pääasiallinen teksti aiheesta tekoälyn etiikka kirjoittille, mutta etiikka ja turvallisuus kulkevat käsikädessä oikeastaan kaikkien aiheiden kanssa. Tekoälyopas löytyy täältä ja uusia juttuja tekoälystä alkaa tulla noin viikoittain.

Yle Areenan tekoälysisältö

Yle julkaisee kohtuu paljon tekoälyyn liittyvää sisältöä niin ohjelmina kuin podcasteina. Seassa on myös jonkin verran nimenomaa etiikkaan keskittyvää sisältöä, joita suosittelen lukemaan ja katsomaan, jos tekoälyn etiikka kirjoittajille kiinnostaisi lisää. Koska etiikka ja turvallisuus tekoälyyn liittyen on jatkuvassa muutoksessa, täältä löytyy luultavimmin näistä suosituksista tuoreinta tietoa.

Kommentoi

Sähköpostiosoitettasi ei julkaista. Pakolliset kentät on merkitty *

Scroll to Top