Kuinka varmistamme, että käytämme tekoälyä vastuullisesti?
Koneoppimisen kehitys osoittaa, että mallit voivat nopeasti skaalata ja vaikuttaa suureen osaan yhteiskuntaa.
Algoritmit ohjaavat uutissyötettä kaikkien puhelimissa. Hallitukset ja yritykset alkavat käyttää tekoälyä tehdäkseen tietoon perustuvia päätöksiä.
Kun tekoäly juurtuu entisestään maailman toimintaan, miten voimme varmistaa, että tekoäly toimii oikeudenmukaisesti?
Tässä artikkelissa tarkastelemme tekoälyn käytön eettisiä haasteita ja katsomme, mitä voimme tehdä tekoälyn vastuullisen käytön varmistamiseksi.
Mikä on eettinen tekoäly?
Eettisellä tekoälyllä tarkoitetaan tekoälyä, joka noudattaa tiettyjä eettisiä ohjeita.
Toisin sanoen se on tapa yksilöille ja organisaatioille työskennellä tekoälyn kanssa vastuullisesti.
Viime vuosina yritykset ovat alkaneet noudattaa tietosuojalakeja sen jälkeen, kun todisteita väärinkäytöksistä ja loukkauksista on paljastettu. Samoin suositellaan eettisen tekoälyn ohjeita sen varmistamiseksi, että tekoäly ei vaikuta kielteisesti yhteiskuntaan.
Esimerkiksi jotkin tekoälytyypit toimivat puolueellisesti tai ylläpitävät jo olemassa olevia ennakkoluuloja. Tarkastellaanpa algoritmia, joka auttaa rekrytoijia lajittelemaan tuhansia ansioluetteloita. Jos algoritmi on koulutettu tietojoukolle, jossa on pääasiassa miehiä tai valkoisia työntekijöitä, on mahdollista, että algoritmi suosii hakijoita, jotka kuuluvat näihin luokkiin.
Eettisen tekoälyn periaatteiden luominen
Olemme pohtineet sääntöjen laatimista tekoäly Vuosikymmenten ajan.
Jopa 1940-luvulla, jolloin tehokkaimmat tietokoneet pystyivät tekemään vain erikoisimpia tieteellisiä laskelmia, tieteiskirjailijat ovat pohtineet ajatusta älykkäiden robottien ohjaamisesta.
Isaac Asimov loi tunnetusti kolme robotiikan lakia, jonka hän ehdotti sisällytettäväksi robottien ohjelmointiin hänen novellissaan turvallisuustekijänä.
Näistä laeista on tullut koetinkivi monille tuleville scifi-tarinoille, ja ne ovat jopa antaneet tietoa todellisista tekoälyn etiikkaa koskevista tutkimuksista.
Nykytutkimuksessa tekoälytutkijat etsivät perustellumpia lähteitä luodakseen luettelon eettisen tekoälyn periaatteista.
Koska tekoäly vaikuttaa viime kädessä ihmisten elämään, meillä on oltava perustavanlaatuinen käsitys siitä, mitä meidän pitäisi tehdä ja mitä ei.
Belmontin raportti
Viitekohtana etiikan tutkijat tarkastelevat Belmontin raporttia oppaana. The Belmont-raportti oli Yhdysvaltain kansallisten terveysinstituuttien vuonna 1979 julkaisema asiakirja. Toisessa maailmansodassa tehdyt biolääketieteelliset julmuudet johtivat eettisten ohjeiden säätämiseen lääketiedettä harjoittaville tutkijoille.
Tässä on kolme raportissa mainittua perusperiaatetta:
- Kunnioitus henkilöitä kohtaan
- hyväntekeväisyys
- Oikeudenmukaisuus
Ensimmäinen periaate pyrkii vaalimaan kaikkien ihmisten arvokkuutta ja autonomiaa. Tutkijoiden tulisi esimerkiksi minimoida osallistujien pettäminen ja vaatia jokaista henkilöä antamaan nimenomainen suostumuksensa.
Toinen periaate, hyväntekeväisyys, keskittyy tutkijan velvollisuuteen minimoida osallistujille mahdollisesti aiheutuva haitta. Tämä periaate antaa tutkijoille velvollisuuden tasapainottaa yksittäisten riskien suhdetta mahdollisiin sosiaalisiin hyötyihin.
Oikeudenmukaisuus, Belmontin raportin lopullinen periaate, keskittyy riskien ja hyötyjen tasapuoliseen jakautumiseen ryhmien kesken, jotka voisivat hyötyä tutkimuksesta. Tutkijoiden velvollisuus on valita tutkimuskohteet laajemmasta väestöstä. Se minimoi yksilölliset ja systeemiset ennakkoluulot, jotka voisivat vaikuttaa kielteisesti yhteiskuntaan.
Eettiikan sijoittaminen tekoälytutkimukseen
Vaikka Belmontin raportti oli ensisijaisesti suunnattu ihmisiin liittyvään tutkimukseen, periaatteet olivat riittävän laajoja sovellettavaksi tekoälyn etiikan alaan.
Big Datasta on tullut arvokas resurssi tekoälyn alalla. Prosessien, jotka määrittävät tutkijoiden tiedonkeruun, tulee noudattaa eettisiä ohjeita.
Tietosuojalakien täytäntöönpano useimmissa maissa asettaa jonkin verran rajoituksia sille, mitä tietoja yritykset voivat kerätä ja käyttää. Suurimmalla osalla valtioita on kuitenkin edelleen olemassa alkeellisia lakeja, joilla estetään tekoälyn käyttö haitan aiheuttamiseen.
Kuinka työskennellä tekoälyn kanssa eettisesti
Tässä on muutamia keskeisiä käsitteitä, jotka voivat auttaa edistämään tekoälyn eettisempää ja vastuullisempaa käyttöä.
Biasin hallinta
Tekoäly ei ole luonnostaan neutraali. Algoritmit ovat aina alttiita lisätylle harhalle ja syrjinnälle, koska data, josta ne oppivat, sisältää harhaa.
Yleinen esimerkki syrjivästä tekoälystä on tyyppi, joka esiintyy usein kasvojentunnistusjärjestelmissä. Nämä mallit onnistuvat usein tunnistamaan valkoiset miesten kasvot, mutta he eivät onnistu tunnistamaan ihmisiä, joilla on tummempi iho.
Toinen esimerkki on OpenAI:n DALL-E 2:ssa. Käyttäjillä on löysi että tietyt kehotteet usein toistavat sukupuoleen ja rotuun liittyviä ennakkoluuloja, jotka malli on poiminut verkkokuvien tietojoukostaan.
Esimerkiksi, kun DALL-E 2 pyytää kuvia asianajajista, se palauttaa kuvia miespuolisista asianajajista. Toisaalta lentoemäntien kuvien pyytäminen palauttaa enimmäkseen naislentoemännät.
Vaikka harhaa voi olla mahdotonta poistaa kokonaan tekoälyjärjestelmistä, voimme ryhtyä toimiin sen vaikutusten minimoimiseksi. Tutkijat ja insinöörit voivat hallita harhaa paremmin ymmärtämällä koulutustiedot ja palkkaamalla monipuolisen tiimin tarjoamaan panoksia tekoälyjärjestelmän toimintaan.
Ihmiskeskeinen suunnittelu lähestymistapa
Suosikkisovelluksesi algoritmit voivat vaikuttaa sinuun negatiivisesti.
Alustat, kuten Facebook ja TikTok, voivat oppia, mitä sisältöä tarjotaan, jotta käyttäjät pysyvät alustoillaan.
Jopa ilman aikomusta vahingoittaa, tavoite pitää käyttäjät kiinni sovelluksessaan mahdollisimman pitkään voi johtaa mielenterveysongelmiin. Termi "doomscrolling" on noussut yleisenä terminä, jolla käytetään liikaa aikaa negatiivisten uutisten lukemiseen Twitterin ja Facebookin kaltaisilla alustoilla.
Muissa tapauksissa vihamielinen sisältö ja väärä tieto saavat laajemman alustan, koska se auttaa lisäämään käyttäjien sitoutumista. A 2021 tutkimus New Yorkin yliopiston tutkijat osoittavat, että viestit, jotka ovat peräisin vääristä tiedoista tunnetuista lähteistä, saavat kuusi kertaa enemmän tykkäyksiä kuin hyvämaineiset uutislähteet.
Nämä algoritmit puuttuvat ihmiskeskeisestä suunnittelusta. Tekoälyn suorittamista suunnittelevien insinöörien on aina pidettävä käyttäjäkokemus mielessä.
Tutkijoiden ja insinöörien on aina esitettävä kysymys: "miten tämä hyödyttää käyttäjää?"
Useimmat tekoälymallit noudattavat mustaa laatikkoa. Musta laatikko sisällä koneoppiminen viittaa tekoälyyn, jossa kukaan ihminen ei voi selittää, miksi tekoäly päätyi tiettyyn tulokseen.
Mustat laatikot ovat ongelmallisia, koska ne vähentävät luottamuksen määrää, jonka voimme kohdistaa koneisiin.
Kuvitellaan esimerkiksi skenaario, jossa Facebook julkaisi algoritmin, joka auttoi hallituksia jäljittämään rikollisia. Jos tekoälyjärjestelmä ilmoittaa sinulle, kukaan ei voi selittää, miksi se on tehnyt tämän päätöksen. Tämäntyyppisen järjestelmän ei pitäisi olla ainoa syy, miksi sinun pitäisi saada pidätys.
Selitettävän tekoälyn tai XAI:n pitäisi palauttaa luettelo tekijöistä, jotka vaikuttivat lopputulokseen. Palataksemme hypoteettiseen rikollisseurantaamme, voimme säätää tekoälyjärjestelmää palauttamaan luettelon viesteistä, joissa näkyy epäilyttävää kieltä tai termejä. Sieltä ihminen voi tarkistaa, onko merkitty käyttäjä tutkimisen arvoinen vai ei.
XAI tarjoaa enemmän läpinäkyvyyttä ja luottamusta tekoälyjärjestelmiin ja voi auttaa ihmisiä tekemään parempia päätöksiä.
Yhteenveto
Kuten kaikki ihmisen tekemät keksinnöt, tekoäly ei ole luonnostaan hyvä tai huono. Se on tapa, jolla käytämme tekoälyä, ratkaisee.
Tekoälyssä ainutlaatuista on sen kasvuvauhti. Viimeisen viiden vuoden aikana olemme nähneet joka päivä uusia ja jännittäviä löytöjä koneoppimisen alalla.
Laki ei kuitenkaan ole yhtä nopea. Kun yritykset ja hallitukset käyttävät edelleen tekoälyä voittojen maksimoimiseksi tai kansalaisten hallintaan, meidän on löydettävä tapoja edistää avoimuutta ja tasapuolisuutta näiden algoritmien käytössä.
Onko todella eettinen tekoäly mielestäsi mahdollista?
Jätä vastaus