Edukien aurkibidea[Ezkutatu][Erakutsi]
Nola ziurtatzen dugu IA modu arduratsuan erabiltzen dugula?
Ikaskuntza automatikoaren aurrerapenek erakusten dute ereduek azkar eskala dezaketela eta gizartearen zati handi batean eragin dezaketela.
Algoritmoek guztion telefonoetan albisteak kontrolatzen dituzte. Gobernuak eta korporazioak IA erabiltzen hasi dira datuen araberako erabakiak hartzeko.
AI munduaren funtzionamenduan gehiago barneratzen den heinean, nola ziurtatu AI zuzen jokatzen ari dela?
Artikulu honetan, AI erabiltzearen erronka etikoak aztertuko ditugu eta zer egin dezakegun AIaren erabilera arduratsua bermatzeko.
Zer da AI etikoa?
AI etikoa jarraibide etiko multzo jakin bati atxikitzen zaion adimen artifiziala deritzo.
Beste era batera esanda, norbanakoek eta erakundeek IArekin modu arduratsuan lan egiteko modu bat da.
Azken urteotan, korporazioak datuen pribatutasuneko legeei eusten hasi dira, tratu txarren eta urraketen frogak agertu ostean. Era berean, AI etikorako jarraibideak gomendatzen dira IAk gizarteari kalterik eragiten ez diola ziurtatzeko.
Esate baterako, AI mota batzuek modu alboratuan lan egiten dute edo lehendik dauden alborapenak iraunarazten dituzte. Har dezagun erreklutatzaileei milaka curriculumak ordenatzen laguntzen dien algoritmo bat. Algoritmoa nagusiki gizonezkoak edo langile zuriak dituen datu-multzo batean trebatzen bada, baliteke algoritmoak kategoria horietan sartzen diren eskatzaileei mesede egitea.
AI etikorako printzipioak ezartzea
Ezartzeko arau multzo bat ezartzea pentsatu dugu adimen artifizialeko hamarkadetan.
1940ko hamarkadan ere, ordenagailu indartsuenek kalkulu zientifiko espezializatuenak soilik egin ahal izan zituztenean, zientzia-fikzioko idazleek hausnartu egin dute robot adimendunak kontrolatzeko ideia.
Isaac Asimovek Robotikaren Hiru Legeak asmatu zituen, bere istorio laburretan roboten programazioan txertatzea proposatu zuen segurtasun-eginbide gisa.
Lege hauek etorkizuneko zientzia-fikziozko istorio askoren ukitu-harria bihurtu dira eta AIaren etikari buruzko benetako ikerketen berri ere eman dute.
Gaur egungo ikerketetan, AI ikertzaileek oinarri gehiago dituzten iturriak aztertzen ari dira AI etikorako printzipioen zerrenda ezartzeko.
Azken finean, IAk gizakien bizitzari eragingo dionez, zer egin behar dugun eta zer egin behar ez dugunaren oinarrizko ulermena izan behar dugu.
Belmont txostena
Erreferentzia puntu bat izateko, etika ikertzaileek Belmont Txostena gida gisa hartzen dute. The Belmont txostena AEBetako Osasun Institutu Nazionalak 1979an argitaratutako dokumentua izan zen. Bigarren Mundu Gerran egindako ankerkeria biomedikoek medikuntza praktikatzen zuten ikertzaileentzako jarraibide etikoak legeztatzeko bultzada ekarri zuten.
Hona hemen txostenean aipatzen diren hiru oinarrizko printzipioak:
- Pertsonekiko errespetua
- Ongintzaren
- Justizia
Lehenengo nagusiak giza subjektu guztien duintasuna eta autonomia defendatzea du helburu. Esaterako, ikertzaileek parte-hartzaileak engainatzea gutxitu beharko lukete eta pertsona bakoitzari bere baimen esplizitua eman beharko liokete.
Bigarren printzipioa, ongizatea, ikertzailearen betebeharra zentratzen da parte-hartzaileek izan ditzaketen kalteak gutxitzeko. Printzipio honek ikertzaileei arrisku indibidualen eta onura sozial potentzialen arteko erlazioa orekatzeko betebeharra ematen die.
Justizia, Belmont Txostenak ezarritako azken printzipioa, ikerketatik onura litezkeen taldeen artean arriskuen eta onuren banaketa berdinean oinarritzen da. Ikertzaileek biztanleria zabalagotik ikerketa-gaiak hautatzeko betebeharra dute. Hori eginez gero, gizartean negatiboki eragin dezaketen alderdi indibidual eta sistemikoak gutxituko lirateke.
Etika IA ikerkuntzan jartzea
Belmont Txostena giza subjektuei buruzko ikerketara zuzenduta zegoen batez ere, printzipioak nahikoa zabalak ziren AIaren etikaren alorrean aplikatzeko.
Big Data baliabide baliotsu bihurtu da adimen artifizialaren arloan. Ikertzaileek datuak nola biltzen dituzten zehazten duten prozesuek jarraibide etikoak jarraitu behar dituzte.
Nazio gehienetan datuen pribatutasun-legeak ezartzeak muga bat jartzen du enpresek bildu eta erabil ditzaketen datuei. Hala eta guztiz ere, nazio gehienek lege-multzo oinarrizko bat dute indarrean AI-a kalteak eragiteko erabiltzea saihesteko.
Nola lan egin AIarekin etikoki
Hona hemen AIaren erabilera etiko eta arduratsuago baten alde lan egiten lagun dezaketen funtsezko kontzeptu batzuk.
Alborapenerako kontrola
Adimen artifiziala ez da berez neutroa. Algoritmoak beti izaten dira txertatutako alborapenak eta diskriminazioak jasan ditzakete, ikasten dituen datuek alborapena barne hartzen dutelako.
AI diskriminatzailearen adibide arrunta aurpegia ezagutzeko sistemetan maiz agertzen den mota da. Eredu hauek gizonezkoen aurpegi zuriak identifikatzea lortzen dute askotan, baina ez dute arrakastarik azala ilunagoa duten pertsonak ezagutzeko.
Beste adibide bat OpenAI-ren DALL-E 2-n agertzen da. Erabiltzaileek dute aurkitu Zenbait gonbita sarritan ereduak sareko irudien datu-multzotik jaso dituen genero- eta arraza-alborapenak erreproduzitzen dituztela.
Esate baterako, abokatuen irudiak eskatzen dituenean, DALL-E 2-k gizonezko abokatuen irudiak itzultzen ditu. Bestalde, hegazkineko laguntzaileen argazkiak eskatzeak emakumeak itzultzen ditu gehienbat.
AI sistemetatik alborapena guztiz kentzea ezinezkoa bada ere, neurriak har ditzakegu bere ondorioak minimizatzeko. Ikertzaileek eta ingeniariek alborapenaren kontrol handiagoa lor dezakete prestakuntza-datuak ulertuz eta talde anitza kontratatuz AI sistemak nola funtzionatu behar duen jakiteko.
Gizakiarengan oinarritutako diseinuaren ikuspegia
Zure gogoko aplikazioko algoritmoek negatiboki eragin dezakete.
Facebook eta TikTok bezalako plataformek zer eduki zerbitzatzen duten jakiteko gai dira erabiltzaileak euren plataformetan mantentzeko.
Nahiz eta kalte egiteko asmorik izan gabe, erabiltzaileak beren aplikazioari ahalik eta denbora gehien atxikita edukitzeak buruko osasun arazoak sor ditzake. "Doomscrolling" terminoak ospea gora egin du, Twitter eta Facebook bezalako plataformetan albiste negatiboak irakurtzen denbora gehiegi igarotzeko termino orokor gisa.
Beste kasu batzuetan, gorrotozko edukiak eta informazio okerrak plataforma zabalagoa jasotzen dute, erabiltzaileen konpromisoa areagotzen laguntzen duelako. A 2021 study New Yorkeko Unibertsitateko ikertzaileen arabera, informazio desegokiagatik ezagunak diren iturrietako argitalpenek entzute handiko albiste-iturriek baino sei aldiz atsegin gehiago jasotzen dituzte.
Algoritmo hauek gizakiarengan zentratutako diseinu-ikuspegi bat falta dute. AI batek ekintza bat nola egiten duen diseinatzen ari diren ingeniariek beti izan behar dute kontuan erabiltzailearen esperientzia.
Ikertzaileek eta ingeniariek beti egin behar dute galdera: 'zer mesede egiten dio horrek erabiltzaileari?'
AI modelo gehienek kutxa beltzaren eredua jarraitzen dute. Kutxa beltz bat barruan makina ikaskuntza AI bati erreferentzia egiten dio, non gizakiak ezin duen azaldu zergatik iritsi den AI emaitza jakin batera.
Kutxa beltzak problematikoak dira, makinetan jarri dezakegun konfiantza gutxitzen duelako.
Esaterako, imajina dezagun agertoki bat non Facebook-ek gobernuei gaizkileak atzematen laguntzen dien algoritmo bat kaleratu zuen. AI sistemak marka ematen bazaitu, inork ezingo du azaldu zergatik hartu duen erabaki hori. Sistema mota honek ez luke izan behar atxilotuak izateko arrazoi bakarra.
Explainable AI edo XAIk azken emaitzan lagundu duten faktoreen zerrenda itzuli beharko luke. Gure kriminalaren jarraitzaile hipotetikora itzuliz, AI sistema moldatu dezakegu hizkuntza edo termino susmagarriak erakusten dituzten mezuen zerrenda itzultzeko. Hortik aurrera, gizaki batek markatutako erabiltzaileak ikertzea merezi duen edo ez egiaztatu dezake.
XAI-k AI sistemetan gardentasun eta konfiantza handiagoa eskaintzen du eta gizakiei erabaki hobeak hartzen lagun diezaieke.
Ondorioa
Gizakiak egindako asmakizun guztiak bezala, adimen artifiziala ez da berez ona edo txarra. AI erabiltzeko modua da garrantzitsua.
Adimen artifizialaren berezitasuna hazten ari den erritmoa da. Azken bost urteotan, ikaskuntza automatikoaren arloan aurkikuntza berri eta zirraragarriak ikusi ditugu egunero.
Hala ere, legea ez da hain azkarra. Korporazioek eta gobernuek IA aprobetxatzen jarraitzen dutenez, irabaziak maximizatzeko edo herritarren kontrola hartzeko, algoritmo hauek erabiltzean gardentasuna eta ekitatea bultzatzeko bideak aurkitu behar ditugu.
Benetan AI etikoa posible dela uste duzu?
Utzi erantzun bat