Sê sal berê min serdana pêşangeheke hunerî ya balkêş kir. "Bîranînên Makîne" ya Refîk Anadol ji destpêkê ve eleqeya min kişand.
Ew navek populer e di nav wan kesên ku bi hevberdana huner û AI-ê re eleqedar dibin. Lê xem neke, ev blog ne li ser hunerê ye. Em ê li "têgihiştinên" kûr ên AI-ê bigerin.
Di vê pêşangehê de, Anadol bi ceribandinê bû Wêneyên lêgerîna fezayê ya NASA. Pêşangeh ji ramana ku teleskop dikarin bi arşîvên xwe yên dîtbarî "xewnan" bikin, astengên di navbera rastî û xeyalê de ronî bikin, hat îlhama xwe.
Anadol bi lêkolîna têkiliyên di navbera dane, bîr û dîrokê de li ser pîvanek kozmîk, ji me xwest ku em potansiyela çêkirî ji bo dîtin û têgihîştina cîhana li dora me. Û tewra AI jî xewnên xwe hene…
Ji ber vê yekê, çima ev ji me re têkildar e?
Vê yekê bihesibînin: bi qasî ku Anadol li ser têgeha teleskopan ku ji daneyên wan xewnan dibînin lêkolîn kir, pergalên AI-ê di nav bankên bîranîna xweya dîjîtal de celebek xewna xwe heye - an bêtir, halusînasyonan.
Van halusînasyonan, mîna dîmenên di pêşangeha Anadol de, dikarin ji me re bibin alîkar ku di derheqê dane, AI û sînorên wan de bêtir fêr bibin.
Halusînasyonên AI-ê bi rastî çi ne?
Dema ku modelek zimanek mezin, wekî chatbotek AI-ê ya hilberî, bi qalibên ku ji çavdêrên mirovî re tune ne an jî nayên dîtin hildiberîne, em ji van re dibêjin "AI hallucinations."
Van derketinên ku ji bersiva bendewar a li ser bingeha têketina ku ji AI-yê re hatî dayîn cûda dibin, dikarin bi tevahî xelet an bêaqil bin.
Di çarçoweya komputeran de, têgîna "halûsînasyon" dibe ku ne asayî xuya bike, lê ew bi rastî karaktera xerîb a van derketinên nerast diyar dike. Halusînasyonên AI-ê ji hêla cûrbecûr guherbaran ve têne çêkirin, di nav de zêdebûn, nelihevkirinên di daneyên perwerdehiyê de, û tevliheviya modela AI-ê.
Ji bo ku baştir were fêm kirin, ev ji hêla têgînî ve dişibihe ku mirov çawa şeklên di ewran an rûyên heyvê de dibînin.
Mînakek:
Di vê nimûneyê de, min pirsek pir hêsan kir GPT chat. Diviyabû ku min bersivek wekî, "Nivîskarê rêzenivîsa pirtûka Dune Frank Herbert e."
Çima Ev Diqewime?
Tevî ku ji bo nivîsandina naverokek hevgirtî û herikbar hatine çêkirin jî, modelên zimanên mezin bi rastî nikanin tiştên ku ew dibêjin fam bikin. Ev di destnîşankirina pêbaweriya naveroka AI-ê hatî çêkirin de pir krîtîk e.
Dema ku ev model dikarin reaksiyonên ku tevgerên mirovan dişibînin, biafirînin, haya wan ji çarçoweyê û jêhatîbûna ramana rexneyî tune ku îstîxbarata rastîn bingeh digire.
Wekî encamek, derketinên ku ji hêla AI-ê ve hatî çêkirin xetereya xapînok an xeletiyê dikişînin ji ber ku ew li ser rastdariya rastîn pêşnumayên lihevhatinê digirin.
Dibe ku hin rewşên din ên halusînasyonan çi bin?
Dezînformasyona xeternak: Ka em bibêjin chatbotek AI-ê ya hilberî delîl û şahidan çêdike da ku bi derewîn kesayetek gelemperî bi kiryara sûc tawanbar bike. Ev agahiya xapînok xwedî potansiyel e ku zirarê bide navûdengê mirov û bibe sedema tolhildana nerast.
Bersivên Xerîb an Xerîb: Ji bo ku mînakek mîzahî bidin, wêneyek chatbotek bikin ku pirsek hewayê dide bikarhênerek û bi pêşbîniyek ku dibêje dê pisîk û kûçikan bibarîne, ligel wêneyên dilopên baranê yên ku dişibin pisîk û kûçikan bersiv dide. Her çend ew henek in jî, ev ê dîsa jî "halusînasyonek" be.
Nerastiyên Rastî: Bifikirin ku chatbotek-based modela zimanî bi derewîn dibêje ku Dîwarê Mezin ê Chinaînê dibe ku ji fezayê were dîtin bêyî ku rave bike ku ew tenê di bin şert û mercên taybetî de xuya dike. Digel ku ev gotin ji hin kesan re maqûl xuya dike, ew nerast e û dikare mirovan li ser dîtina dîwarê ji fezayê bixapîne.
Meriv çawa wekî Bikarhêner ji Halusînasyonên AI-yê dûr disekine?
Pêşniyarên eşkere bikin
Pêdivî ye ku hûn bi eşkere bi modelên AI-ê re têkilî daynin.
Berî nivîsandinê li ser armancên xwe bifikirin û pêşniyarên xwe sêwirînin.
Mînakî, talîmatên taybetî yên wekî "Rêve bike ka Înternet çawa dixebite û li ser girîngiya wê ya di civaka nûjen de paragrafekê binivîse" li şûna ku lêpirsînek gelemperî wekî "Ji min re li ser Înternetê bêje."
Zelalbûn ji modela AI-ê re dibe alîkar ku niyeta we şîrove bike.
Mînak: Pirsên AI-ê yên wekî van bipirsin:
"Komputera ewr çi ye, û ew çawa dixebite?"
"Bandora dravê daneyê li ser performansa modelê rave bike."
"bandor û paşeroja potansiyela teknolojiya VR li ser karsaziya IT-ê nîqaş bikin."
Hêza Mînak hembêz bikin
Di pêşniyarên we de nimûneyên pêşkêş dikin ji modelên AI-ê re dibe alîkar ku çarçovê fam bikin û bersivên rast biafirînin. Ma hûn li têgihîştinên dîrokî an ravekirinên teknîkî digerin, pêşkêşkirina mînakan dikare bibe alîkar ku rastbûna naveroka çêkirî ya AI-ê zêde bike.
Mînakî, hûn dikarin bibêjin, "Bêje romanên xeyalî yên wekî Harry Potter."
Karên Kompleksê Bişkînin
Serlêdanên tevlihev algorîtmayên AI-yê zêde bar dikin, û dibe ku ew bibin sedema encamên negirêdayî. Ji bo pêşîlêgirtina vê yekê, çalakiyên tevlihev li perçeyên piçûktir, birêkûpêktir dabeş bikin. Bi organîzekirina şîretên xwe bi rêzdarî, hûn destûrê didin AI-ê ku li ser her pêkhateyek serbixwe bisekine, û di encamê de bersivên maqûltir çêdibe.
Mînakî, li şûna ku ji AI-yê bipirsin ku "pêvajoya afirandina a tora neuralî" di pirsek yekane de, peywirê li qonaxên veqetandî yên mîna pênasekirina pirsgirêkê û berhevkirina daneyan veqetînin.
Derketiyan rast bikin û Bersiv bidin
Her gav encamên ku ji hêla modelên AI-ê ve têne hilberandin du-kontrol bikin, nemaze ji bo çalakiyên bingehîn an girîng. Bersivên çavkaniyên pêbawer bidin ber hev û cûdahî an xeletiyan binihêrin.
Ji pergala AI-ê re têketinê peyda bikin da ku performansa pêşerojê zêde bikin û halusînasyonan kêm bikin.
Stratejiyên ji bo Pêşdebiran ku ji Halusînasyonên AI-ê dûr bixin
Vegere-Nifşa Zêdekirî (RAG) pêk bînin.
Teknolojiyên hilberîna vegerandin-zêdekirî di pergalên AI-ê de entegre bikin da ku bersivên li ser rastiyên rastîn ên ji databasên pêbawer bingeh bigirin.
Nifşa zêdebûyî-vegerandin (RAG) hilberîna zimanê xwezayî ya standard bi kapasîteya ku agahdariya têkildar ji bingehek zanyarî ya mezin werdigire û tevlê dike, digihîje encamek dewlemendtir.
Bi tevhevkirina naveroka AI-ê bi çavkaniyên daneya pejirandî re, hûn dikarin pêbawerî û pêbaweriya encamên AI-ê baştir bikin.
Berdewam derketinên AI-ê rast bikin û bişopînin
Pêvajoyên pejirandî yên hişk saz bikin da ku rast û hevahengiya derketinên AI-ê di wextê rast de verast bikin. Performansa AI-ê bi baldarî bişopînin, li halusînasyon an xeletiyên potansiyel bigerin, û li ser perwerdehiya modelê dubare bikin û xweşbîniya bilez bikin da ku pêbaweriya bi demê re zêde bikin.
Mînakî, rûtînên pejirandî yên otomatîkî bikar bînin da ku naveroka ku ji hêla AI-ê ve hatî hilberandin ji bo rastbûna rastîn kontrol bikin û ji bo nirxandina destan mînakên halusînasyonên gengaz ronî bikin.
Ji bo Driftên Daneyên Kontrol bikin
Rakirina daneyan fenomenek e ku tê de taybetmendiyên statîstîkî yên daneyên ku ji bo perwerdekirina modelek AI-yê têne bikar anîn bi demê re diguhere. Ger modela AI-ê di dema encamnameyê de bi daneyên ku ji daneyên perwerdehiya wê pir cûda dibe bigihîje, ew dikare encamên derewîn an nelogîkî peyda bike, ku bibe sedema halusînasyonan.
Mînakî, heke modelek AI-ê li ser daneyên paşîn ên ku êdî ne têkildar an nîşana jîngeha heyî ye were perwerde kirin, dibe ku ew encam an pêşbîniyên nerast bike.
Wekî encamek, çavdêrîkirin û çareserkirina danûstendinên daneyê ji bo misogerkirina performansa pergala AI-ê û pêbaweriyê girîng e û di heman demê de îhtîmala halusînasyonan jî kêm dike.
Xelasî
Li gorî Daneyên IBM, halusînasyonên AI-ê li dora 3% heya 10% bersivên ji modelên AI-yê pêk tê.
Ji ber vê yekê, bi rengekî din, hûn ê belkî li wan jî temaşe bikin. Ez bawer dikim ku ev mijarek pir balkêş e ji ber ku ew bîranînek balkêş a rêça domdar a berbi zêdekirina kapasîteyên AI-ê ye.
Em dikarin pêbaweriya AI-ê, tevliheviyên hilberandina daneyê, û danûstendinên mirov-AI-yê çavdêrî û ceribandinê bikin.
Leave a Reply