Sut ydyn ni'n gwneud yn siŵr ein bod ni'n defnyddio AI yn gyfrifol?
Mae datblygiadau mewn dysgu peirianyddol yn dangos y gall modelau raddio ac effeithio ar gyfran fawr o gymdeithas yn gyflym.
Algorithmau sy'n rheoli'r porthiant newyddion ar ffonau pawb. Mae llywodraethau a chorfforaethau yn dechrau defnyddio AI i wneud penderfyniadau ar sail data.
Wrth i AI ddod yn rhan annatod o'r ffordd y mae'r byd yn gweithredu, sut ydym ni'n sicrhau bod yr AI yn gweithredu'n deg?
Yn yr erthygl hon, byddwn yn edrych i mewn i heriau moesegol defnyddio AI a gweld beth allwn ni ei wneud i sicrhau defnydd cyfrifol o AI.
Beth yw AI Moesegol?
Mae AI moesegol yn cyfeirio at ddeallusrwydd artiffisial sy'n cadw at set benodol o ganllawiau moesegol.
Mewn geiriau eraill, mae'n ffordd i unigolion a sefydliadau weithio gydag AI mewn modd cyfrifol.
Yn ystod y blynyddoedd diwethaf, mae corfforaethau wedi dechrau cadw at gyfreithiau preifatrwydd data ar ôl i dystiolaeth o gam-drin a thorri ddod i'r amlwg. Yn yr un modd, argymhellir canllawiau ar gyfer AI moesegol i sicrhau nad yw AI yn effeithio'n negyddol ar gymdeithas.
Er enghraifft, mae rhai mathau o AI yn gweithio mewn modd rhagfarnllyd neu'n parhau â thueddiadau sydd eisoes yn bodoli. Gadewch i ni ystyried algorithm sy'n helpu recriwtwyr i ddatrys miloedd o ailddechrau. Os yw'r algorithm wedi'i hyfforddi ar set ddata gyda gweithwyr gwrywaidd neu wyn yn bennaf, yna mae'n bosibl y bydd yr algorithm yn ffafrio ymgeiswyr sy'n dod o dan y categorïau hynny.
Sefydlu Egwyddorion ar gyfer AI Moesegol
Rydym wedi meddwl sefydlu set o reolau i'w gosod deallusrwydd artiffisial am ddegawdau.
Hyd yn oed yn y 1940au, pan nad oedd y cyfrifiaduron mwyaf pwerus ond yn gallu gwneud y cyfrifiadau gwyddonol mwyaf arbenigol, mae awduron ffuglen wyddonol wedi ystyried y syniad o reoli robotiaid deallus.
Bathodd Isaac Asimov y Tri Chyfraith Roboteg yn enwog, a chynigiodd ei fod wedi'i ymgorffori yn rhaglennu robotiaid yn ei straeon byrion fel nodwedd diogelwch.
Mae'r cyfreithiau hyn wedi dod yn garreg gyffwrdd i lawer o straeon sci-fi yn y dyfodol ac maent hyd yn oed wedi llywio astudiaethau gwirioneddol ar foeseg AI.
Mewn ymchwil gyfoes, mae ymchwilwyr AI yn edrych ar ffynonellau mwy sefydledig i sefydlu rhestr o egwyddorion ar gyfer AI moesegol.
Gan y bydd AI yn y pen draw yn effeithio ar fywydau dynol, rhaid inni gael dealltwriaeth sylfaenol o'r hyn y dylem ac na ddylem fod yn ei wneud.
Adroddiad Belmont
I gael pwynt cyfeirio, mae ymchwilwyr moeseg yn edrych ar Adroddiad Belmont fel canllaw. Mae'r Adroddiad Belmont yn ddogfen a gyhoeddwyd gan Sefydliadau Iechyd Cenedlaethol yr Unol Daleithiau ym 1979. Arweiniodd erchyllterau biofeddygol a gyflawnwyd yn yr Ail Ryfel Byd at ymdrech i ddeddfu canllawiau moesegol ar gyfer ymchwilwyr sy'n ymarfer meddygaeth.
Dyma’r tair egwyddor sylfaenol a grybwyllir yn yr adroddiad:
- Parch i bersonau
- Buddioldeb
- Cyfiawnder
Nod yr egwyddor gyntaf yw cynnal urddas ac ymreolaeth pob gwrthrych dynol. Er enghraifft, dylai ymchwilwyr leihau'r rhai sy'n twyllo a dylent ofyn i bob person roi eu caniatâd penodol.
Mae'r ail egwyddor, budd, yn canolbwyntio ar ddyletswydd yr ymchwilydd i leihau'r niwed posibl i gyfranogwyr. Mae'r egwyddor hon yn rhoi dyletswydd ar yr ymchwilwyr i gydbwyso cymhareb risgiau unigol â buddion cymdeithasol posibl.
Mae Cyfiawnder, yr egwyddor olaf a osodwyd yn Adroddiad Belmont, yn canolbwyntio ar ddosbarthu risgiau a buddion yn gyfartal ar draws grwpiau a allai elwa o'r ymchwil. Mae gan ymchwilwyr ddyletswydd i ddewis pynciau ymchwil o'r boblogaeth ehangach. Byddai gwneud hynny yn lleihau rhagfarnau unigol a systemig a allai effeithio'n negyddol ar gymdeithas.
Rhoi Moeseg mewn Ymchwil AI
Er bod Adroddiad Belmont wedi'i dargedu'n bennaf at ymchwil yn ymwneud â phynciau dynol, roedd yr egwyddorion yn ddigon eang i'w cymhwyso i faes moeseg AI.
Mae Data Mawr wedi dod yn adnodd gwerthfawr ym maes deallusrwydd artiffisial. Dylai'r prosesau sy'n pennu sut mae ymchwilwyr yn casglu data ddilyn canllawiau moesegol.
Mae gweithredu deddfau preifatrwydd data yn y rhan fwyaf o genhedloedd braidd yn cyfyngu ar yr hyn y gall cwmnïau data ei gasglu a'i ddefnyddio. Fodd bynnag, mae gan y mwyafrif o genhedloedd set elfennol o gyfreithiau o hyd i atal defnyddio AI i achosi niwed.
Sut i Weithio gydag AI yn Foesegol
Dyma rai cysyniadau allweddol a all helpu i weithio tuag at ddefnydd mwy moesegol a chyfrifol o AI.
Rheolaeth ar gyfer Bias
Nid yw deallusrwydd artiffisial yn gynhenid niwtral. Mae algorithmau bob amser yn agored i ragfarn a gwahaniaethu a fewnosodwyd oherwydd bod y data y mae'n dysgu ohono'n cynnwys tuedd.
Enghraifft gyffredin o AI gwahaniaethol yw'r math sy'n ymddangos yn aml mewn systemau adnabod wynebau. Mae'r modelau hyn yn aml yn llwyddo i adnabod wynebau gwrywaidd gwyn, ond maent yn llai llwyddiannus wrth adnabod pobl â chroen tywyllach.
Mae enghraifft arall yn ymddangos yn DALL-E 2 OpenAI. Mae gan ddefnyddwyr darganfod bod rhai awgrymiadau yn aml yn atgynhyrchu rhagfarnau rhyw a hil y mae'r model wedi'u canfod o'i set ddata o ddelweddau ar-lein.
Er enghraifft, pan roddir anogwr ar gyfer delweddau o gyfreithwyr, mae DALL-E 2 yn dychwelyd delweddau o gyfreithwyr gwrywaidd. Ar y llaw arall, mae gofyn am luniau o gynorthwywyr hedfan yn dychwelyd merched yn bennaf yn gynorthwywyr hedfan.
Er y gallai fod yn amhosibl cael gwared ar ragfarn yn llwyr o systemau AI, gallwn gymryd camau i leihau ei effeithiau. Gall ymchwilwyr a pheirianwyr sicrhau mwy o reolaeth dros ragfarn trwy ddeall y data hyfforddi a llogi tîm amrywiol i gynnig mewnbwn ar sut y dylai'r system AI weithio.
Dull dylunio sy'n canolbwyntio ar bobl
Gall algorithmau ar eich hoff app effeithio'n negyddol arnoch chi.
Mae llwyfannau fel Facebook a TikTok yn gallu dysgu pa gynnwys i'w wasanaethu i gadw defnyddwyr ar eu platfformau.
Hyd yn oed heb y bwriad i achosi niwed, gallai'r amcan i gadw defnyddwyr wedi'u gludo i'w app cyhyd â phosibl arwain at faterion iechyd meddwl. Mae'r term 'doomscrolling' wedi dod yn fwy poblogaidd fel y term cyffredinol am dreulio gormod o amser yn darllen newyddion negyddol ar lwyfannau fel Twitter a Facebook.
Mewn achosion eraill, mae cynnwys atgas a gwybodaeth anghywir yn cael llwyfan ehangach oherwydd ei fod yn helpu i gynyddu ymgysylltiad defnyddwyr. A 2021 study gan ymchwilwyr ym Mhrifysgol Efrog Newydd yn dangos bod postiadau o ffynonellau sy'n hysbys am wybodaeth anghywir yn cael eu hoffi chwe gwaith yn fwy na ffynonellau newyddion ag enw da.
Mae'r algorithmau hyn yn ddiffygiol mewn dull dylunio sy'n canolbwyntio ar bobl. Rhaid i beirianwyr sy'n dylunio sut mae AI yn cyflawni gweithred gadw profiad y defnyddiwr mewn cof bob amser.
Rhaid i ymchwilwyr a pheirianwyr ofyn y cwestiwn bob amser: 'sut mae hyn o fudd i'r defnyddiwr?'
Mae'r rhan fwyaf o fodelau AI yn dilyn model blwch du. Bocs du i mewn dysgu peiriant yn cyfeirio at AI lle na all unrhyw ddyn esbonio pam y cyrhaeddodd y AI ganlyniad penodol.
Mae blychau du yn broblemus oherwydd mae'n lleihau faint o ymddiriedaeth y gallwn ei roi mewn peiriannau.
Er enghraifft, gadewch i ni ddychmygu senario lle rhyddhaodd Facebook algorithm a helpodd lywodraethau i ddod o hyd i droseddwyr. Os bydd y system AI yn eich fflagio, ni fydd neb yn gallu esbonio pam y gwnaed y penderfyniad hwnnw. Nid y math hwn o system ddylai fod yr unig reswm pam y dylech gael eich arestio.
Dylai AI neu XAI egluradwy ddychwelyd rhestr o ffactorau a gyfrannodd at y canlyniad terfynol. Gan fynd yn ôl at ein traciwr troseddol damcaniaethol, gallwn newid y system AI i ddychwelyd rhestr o bostiadau sy'n dangos iaith neu dermau amheus. O'r fan honno, gall bod dynol wirio a yw'n werth ymchwilio i'r defnyddiwr a nodir ai peidio.
Mae XAI yn darparu mwy o dryloywder ac ymddiriedaeth mewn systemau AI a gall helpu bodau dynol i wneud penderfyniadau gwell.
Casgliad
Fel pob dyfais o waith dyn, nid yw deallusrwydd artiffisial yn gynhenid dda nac yn ddrwg. Y ffordd rydyn ni'n defnyddio AI sy'n bwysig.
Yr hyn sy'n unigryw am ddeallusrwydd artiffisial yw'r cyflymder y mae'n tyfu. Yn ystod y pum mlynedd diwethaf, rydym wedi gweld darganfyddiadau newydd a chyffrous ym maes dysgu peiriannau bob dydd.
Fodd bynnag, nid yw'r gyfraith mor gyflym. Wrth i gorfforaethau a llywodraethau barhau i drosoli AI i wneud y mwyaf o elw neu gipio rheolaeth ar ddinasyddion, rhaid inni ddod o hyd i ffyrdd o wthio am dryloywder a thegwch wrth ddefnyddio'r algorithmau hyn.
Ydych chi'n meddwl bod AI gwirioneddol foesegol yn bosibl?
Gadael ymateb