Table of Contents[Veşartin][Rêdan]
Em çawa piştrast dikin ku em AI-ê bi berpirsiyarî bikar tînin?
Pêşveçûnên di fêrbûna makîneyê de destnîşan dikin ku model dikarin zû mezin bibin û bandorê li beşek mezin a civakê bikin.
Algorîtmayan nûçeyên li ser têlefonên her kesî kontrol dikin. Hikûmet û pargîdanî dest bi karanîna AI-yê dikin da ku biryarên agahdar-agahdar bidin.
Gava ku AI di cîhan de çawa tevdigere, em ê çawa piştrast bikin ku AI bi dadperwerî tevdigere?
Di vê gotarê de, em ê li kêşeyên exlaqî yên karanîna AI-ê binihêrin û bibînin ka em dikarin çi bikin da ku karanîna berpirsiyar a AI-yê misoger bikin.
Ethical AI çi ye?
AI-ya exlaqî behsa îstîxbarata sûnî ye ku bi komek rêwerzên exlaqî ve girêdayî ye.
Bi gotineke din, ew rêyek e ku kes û rêxistinan bi AI-ê re bi awayek berpirsiyar bixebitin.
Di salên dawî de, piştî ku delîlên destdirêjî û binpêkirinê derketin holê, pargîdan dest bi qanûnên nepenîtiya daneyê kirin. Bi heman rengî, rêwerzên ji bo AI-ya exlaqî têne pêşniyar kirin da ku pê ewle bibin ku AI bandorek neyînî li civakê nake.
Mînakî, hin cûreyên AI-ê bi rengekî alîgir dixebitin an jî pêşbaziyên heyî berdewam dikin. Werin em algorîtmayek ku ji peykeran re dibe alîkar ku bi hezaran resumeyan bihevre bikin binirxînin. Ger algorîtma li ser danehevek bi piranî karmendên mêr an spî re were perwerde kirin, wê hingê mimkun e ku algorîtm ji serlêderên ku di bin wan kategoriyan de cih digirin xweş bike.
Sazkirina Prensîbên ji bo AI-ya Etîk
Em li ser damezrandina rêzek qaîdeyên ku li ser ferz bikin fikirîn çêkirî dehsalan
Tewra di salên 1940-an de, dema ku komputerên herî bi hêz tenê dikaribûn hesabên zanistî yên herî pispor bikin, nivîskarên çîroka zanistî li ser ramana kontrolkirina robotên aqilmend fikirîn.
Isaac Asimov bi navûdeng Sê Zagonên Robotîkê afirand, ku wî pêşniyar kir ku di kurteçîrokên xwe de di bernameya robotan de wekî taybetmendiyek ewlehiyê hate bicîh kirin.
Van zagonan ji gelek çîrokên zanistî-filîstanê yên pêşerojê re bûne kevirek destek û tewra lêkolînên rastîn ên li ser etîka AI-yê agahdar kirine.
Di lêkolîna hevdem de, lêkolînerên AI-ê li çavkaniyên bêtir bingehîn digerin da ku navnîşek prensîbên ji bo AI-ya exlaqî saz bikin.
Ji ber ku AI dê di dawiyê de bandorê li ser jiyana mirovan bike, divê em têgihîştinek bingehîn ya ku divê em bikin û çi nekin hebe.
Rapora Belmont
Ji bo xalek referansê, lêkolînerên exlaqî li Rapora Belmont wekî rêberek dinêrin. Ew Rapora Belmont Belgeyek bû ku ji hêla Enstîtuya Tenduristiyê ya Neteweyî ya Dewletên Yekbûyî ve di sala 1979-an de hate weşandin. Zordestiyên bijîjkî yên ku di WW2 de hatin kirin bû sedem ku ji bo lêkolînerên ku bijîjkî dikin rêwerzên exlaqî werin qanûn kirin.
Li vir sê prensîbên bingehîn ên ku di raporê de hatine destnîşan kirin hene:
- Rêzgirtina ji bo kesan
- Qencîxwazî
- Mafî
Armanca sereke ya yekem ew e ku rûmet û xweseriya hemî mijarên mirovan biparêzin. Mînakî, lêkolîner divê beşdarên xapandinê kêm bikin û divê ji her kesî bixwazin ku razîbûna xwe ya eşkere bide.
Prensîba duyemîn, xêrxwazî, li ser peywira lêkolîner disekine ku zirara potansiyel ji beşdaran re kêm bike. Ev prensîb erkê dide lêkolîneran ku rêjeya rîskên takekesî bi feydeyên potansiyel ên civakî re hevseng bikin.
Edalet, prensîba paşîn a ku ji hêla Rapora Belmont ve hatî destnîşan kirin, balê dikişîne ser dabeşkirina wekhev a xetere û berjewendiyan di nav komên ku dikarin ji lêkolînê sûd werbigirin. Erka lêkolîneran e ku mijarên lêkolînê ji nifûsa berfireh hilbijêrin. Bi kirina vî karî rêgezên ferdî û pergalî yên ku dikarin bandorek neyînî li civakê bike kêm bike.
Di Lêkolîna AI-ê de Etîk bi cih kirin
Dema ku Rapora Belmont di serî de li lêkolîna ku mijarên mirovî vedihewîne hate armanc kirin, prensîb têra xwe berfireh bûn ku li qada etîka AI-ê bicîh bibin.
Daneyên Mezin di warê îstîxbarata sûnî de bûye çavkaniyek hêja. Pêvajoyên ku diyar dikin ka lêkolîner çawa daneyan berhev dikin divê rêwerzên exlaqî bişopînin.
Pêkanîna qanûnên nepenîtiya daneyê li piraniya neteweyan hinekî sînorek li ser tiştên ku pargîdaniyên daneyê dikarin berhev bikin û bikar bînin datîne. Lêbelê, pirraniya neteweyan hîn jî komek qanûnên bingehîn hene ku pêşî li karanîna AI-ê bigire ku zirarê bide.
Meriv çawa bi AI-ê re bi exlaqî dixebite
Li vir çend têgehên sereke hene ku dikarin ji bo karanîna AI-ê ya exlaqî û berpirsiyartir bixebitin.
Kontrol ji bo Bias
Zehmetiya çêkirî bi xwezayî ne bêalî ye. Algorîtmak her gav ji bertengbûn û cûdaxwaziya binavkirî re guncan in ji ber ku daneyên ku ew jê fêr dibe biasiyê vedihewîne.
Nimûneyek hevpar a AI-ya cûdaxwaz celebek e ku pir caran di pergalên nasîna rû de xuya dike. Van modelan bi gelemperî di naskirina rûyên nêr ên spî de bi ser dikevin, lê di naskirina mirovên bi çermê tarî de kêmtir serfiraz in.
Mînakek din di DALL-E 2 ya OpenAI de xuya dike. Bikarhêner hene Dît ku hin şîretan bi gelemperî pêşbaziyên zayendî û nijadî yên ku modelê ji daneyên xweya wêneyên serhêl hildigire dubare dikin.
Mînakî, dema ku ji bo wêneyên parêzeran tê xwestin, DALL-E 2 wêneyên parêzerên mêr vedigerîne. Ji aliyê din ve, daxwaza wêneyên karmendên firokevaniyê bi piranî jin vedigere.
Her çend dibe ku ne gengaz be ku meriv bi tevahî ji pergalên AI-ê dûr bixîne, em dikarin gavan bavêjin da ku bandorên wê kêm bikin. Lekolînwan û endezyar dikarin bi têgihiştina daneyên perwerdehiyê û bi kar kirina tîmek cihêreng ve bigihîjin kontrolek mezin a nelirêtiyê da ku li ser pergala AI-ê çawa bixebite.
Nêzîkatiya sêwirana mirov-navendî
Algorîtmayên li ser sepana weya bijare dikarin neyînî bandorê li we bikin.
Platformên wekî Facebook û TikTok dikarin fêr bibin ka kîjan naverok xizmet dikin da ku bikarhêneran li ser platformên xwe bihêlin.
Tewra bêyî mebesta ku zirarê bide, mebesta ku bikarhêner heya ku gengaz be bi sepana xwe ve girêbide dikare bibe sedema pirsgirêkên tenduristiya derûnî. Têgîna 'doomscrolling' wekî têgîna tev-hev ji bo derbaskirina demek zêde ji xwendina nûçeyên neyînî li ser platformên wekî Twitter û Facebook-ê populerbûna xwe zêde kiriye.
Di rewşên din de, naverok û agahdariya nefret platformek berfireh distînin ji ber ku ew alîkariya zêdekirina tevlêbûna bikarhêner dike. YEK xebatê de 2021 ji lêkolînerên li Zanîngeha New Yorkê nîşan dide ku postên ji çavkaniyên ku bi agahdariya çewt têne zanîn şeş carî ji çavkaniyên nûçeyan ên navdar bêtir hez dikin.
Van algorîtmayan di nêzîkatiya sêwirana mirov-navendî de kêm in. Endezyarên ku sêwiran dikin ka AI çawa çalakiyek dike divê her gav ezmûna bikarhêner di hişê xwe de bihêle.
Divê lêkolîner û endezyar her gav vê pirsê bipirsin: 'ev çawa sûdê dide bikarhêner?'
Piraniya modelên AI-ê modelek qutiya reş dişopînin. Qutiyeke reş tê de fêrbûna makîneyê tê wateya AI-ê ku tu mirov nikare rave bike ka çima AI gihîştiye encamek taybetî.
Qutiyên reş pirsgirêk in ji ber ku ew pêbaweriya ku em dikarin li makîneyan deynin kêm dike.
Mînakî, werin em senaryoyek bifikirin ku Facebook algorîtmayek derxist ku alîkariya hukûmetan kir ku sûcdaran bişopînin. Ger pergala AI-ê we nîşan bide, dê kes nikaribe rave bike ka çima ew biryar daye. Divê ev cure sîstem nebe sedema yekane ku hûn werin girtin.
Pêdivî ye ku AI an XAI-ya şirovekirî navnîşek faktorên ku beşdarî encama dawîn bûne vegerîne. Em vegerin ser şopînerê xweya sûcdar a hîpotetîk, em dikarin pergala AI-ê biguhezînin da ku navnîşek postên ku ziman an şertên gumanbar nîşan didin vegerînin. Ji wir, mirovek dikare verast bike ka bikarhênerê ala hêjayî lêkolînê ye an na.
XAI di pergalên AI-ê de bêtir zelal û pêbaweriyê peyda dike û dikare alîkariya mirovan bike ku biryarên çêtir bigirin.
Xelasî
Mîna hemî îcadên ku ji hêla mirovan ve hatine çêkirin, îstîxbarata çêkirî bi xwe ne baş an xirab e. Ew awayê ku em AI-ê bikar tînin girîng e.
Tiştê ku di derheqê îstîxbarata çêkirî de bêhempa ye leza ku ew mezin dibe ye. Di pênc salên borî de, me her roj di warê fêrbûna makîneyê de vedîtinên nû û balkêş dîtin.
Lêbelê, qanûn ne bi lez e. Gava ku pargîdan û hukûmet berdewam dikin ku AI-ê bikar bînin da ku berjewendiyan zêde bikin an kontrola hemwelatiyan bi dest bixin, divê em rêyên ku di karanîna van algorîtmayan de ji bo zelalî û wekheviyê bişopînin bibînin.
Ma hûn difikirin ku bi rastî AI-ya exlaqî gengaz e?
Leave a Reply