AI በተለያዩ ዘርፎች እንደ ንግድ እና የጤና እንክብካቤ ቅልጥፍናን የማሻሻል ሃይል አለው። ነገር ግን፣ የማብራራት ችሎታ ማነስ ለውሳኔ አወሳሰድ ልንጠቀምበት እንደምንችል እንቅፋት ሆኖብናል።
የአልጎሪዝምን ፍርድ ማመን አለብን?
በማንኛውም ኢንዱስትሪ ውስጥ ላሉ ውሳኔ ሰጪዎች ውስንነቶችን እና እምቅ አድልዎዎችን እንዲገነዘቡ አስፈላጊ ነው። የማሽን መማሪያ ሞዴሎች. እነዚህ ሞዴሎች እንደታሰበው እየሰሩ መሆናቸውን ለማረጋገጥ የማንኛውም የ AI ስርዓት ውጤት ለሰው መገለጽ አለበት።
በዚህ ጽሑፍ ውስጥ በ AI ውስጥ የማብራራት አስፈላጊነትን እንመረምራለን ። ከማሽን መማሪያ ሞዴሎች ማብራሪያዎችን ለማግኘት ስለሚጠቀሙባቸው ዘዴዎች አይነት አጭር መግለጫ እናቀርባለን።
ሊገለጽ የሚችል AI ምንድን ነው?
ሊገለጽ የሚችል ሰው ሰራሽ እውቀት ወይም XAI የሚያመለክተው የማሽን መማሪያ ሞዴሎች በአንድ የተወሰነ ውጤት ላይ እንዴት እንደሚደርሱ እንዲረዱ ለማስቻል የሚረዱ ቴክኒኮችን እና ዘዴዎችን ነው።
ብዙ ታዋቂዎች የማሽን ስልተ ቀመሮች እንደ "ጥቁር ሣጥን" ይሥሩ. በማሽን ትምህርት ፣ የጥቁር ሳጥን ስልተ ቀመር አንድ የተወሰነ ግብዓት ወደ አንድ የተወሰነ ውጤት እንዴት እንደሚመራ ማረጋገጥ በማይቻልበት የኤምኤል ሞዴሎችን ይመልከቱ። የ AI ገንቢ እንኳን አልጎሪዝም እንዴት እንደሚሰራ ሙሉ በሙሉ ማብራራት አይችልም.
ለምሳሌ, ጥልቅ የመማሪያ ስልተ ቀመሮች ይጠቀማሉ የነርቭ ኔትወርኮች ንድፎችን ከአንድ ቶን ውሂብ ለመለየት. ምንም እንኳን የ AI ተመራማሪዎች እና ገንቢዎች የነርቭ ኔትወርኮች ከቴክኒካዊ እይታ አንጻር እንዴት እንደሚሠሩ ቢረዱም, የነርቭ አውታረመረብ የተለየ ውጤት እንዴት እንደመጣ ሙሉ በሙሉ ማብራራት አይችሉም.
አንዳንድ የነርቭ ኔትወርኮች በሚሊዮን የሚቆጠሩ መለኪያዎችን ያስተናግዳሉ, ይህም የመጨረሻውን ውጤት ለመመለስ ሁሉም በአንድነት ይሰራሉ.
ውሳኔዎች አስፈላጊ በሚሆኑባቸው ሁኔታዎች፣ የማብራራት ችሎታ ማጣት ችግር ሊፈጥር ይችላል።
ማብራራት ለምን አስፈላጊ ነው?
የማብራራት ችሎታ ሞዴሎች እንዴት ውሳኔ እንደሚያደርጉ ግንዛቤን ይሰጣል። ውሳኔዎችን ለማድረግ AIን ለማላመድ ያቀዱ ንግዶች AI ትክክለኛውን ግብአት ተጠቅሞ የተሻለ ውሳኔ ላይ መድረሱን መወሰን አለባቸው።
ሊገለጹ የማይችሉ ሞዴሎች በበርካታ ኢንዱስትሪዎች ውስጥ ያሉ ችግሮች ናቸው. ለምሳሌ፣ አንድ ኩባንያ የቅጥር ውሳኔዎችን ለማድረግ ስልተ ቀመር ቢጠቀም፣ አልጎሪዝም አመልካቹን ላለመቀበል የሚወስንበት መንገድ ግልጽነት እንዲኖረው ለሁሉም ሰው የተሻለ ይሆናል።
የት ሌላ መስክ ጥልቀት ያለው ትምህርት ስልተ ቀመሮች በተደጋጋሚ ጥቅም ላይ ይውላሉ በጤና እንክብካቤ ውስጥ። አልጎሪዝም የካንሰር ምልክቶችን ለመለየት በሚሞክርበት ጊዜ, ሞዴሉ በአንድ የተወሰነ ምርመራ ላይ እንዴት እንደደረሰ ለዶክተሮች መረዳት በጣም አስፈላጊ ነው. ኤክስፐርቶች AIን ሙሉ በሙሉ ለመጠቀም እና በጭፍን ላለመከተል አንዳንድ የማብራራት ደረጃ ያስፈልጋል
ሊብራራ የሚችል AI አልጎሪዝም አጠቃላይ እይታ
ሊብራሩ የሚችሉ የ AI ስልተ ቀመሮች በሁለት ሰፊ ምድቦች ይከፈላሉ፡ በራስ ሊተረጎሙ የሚችሉ ሞዴሎች እና ድህረ-ሆክ ማብራሪያዎች።
በራሳቸው ሊተረጎሙ የሚችሉ ሞዴሎች
በራሳቸው ሊተረጎሙ የሚችሉ ሞዴሎች አንድ ሰው በቀጥታ ማንበብ እና ሊተረጉምባቸው የሚችሉ ስልተ ቀመሮች ናቸው። በዚህ ጉዳይ ላይ ሞዴሉ ራሱ ማብራሪያ ነው.
አንዳንድ በጣም ከተለመዱት እራሳቸውን የሚተረጉሙ ሞዴሎች የውሳኔ ዛፎችን እና የመመለሻ ሞዴሎችን ያካትታሉ.
ለምሳሌ፣ የቤት ዋጋዎችን የሚተነብይ መስመራዊ ሪግሬሽን ሞዴልን እንመልከት። መስመራዊ መመለሻ ማለት በተወሰነ እሴት x፣ የተወሰነ የመስመር ተግባርን በመተግበር የዒላማ እሴታችንን y መተንበይ እንችላለን ማለት ነው።
የእኛ ሞዴል የቤት ዋጋን ለመወሰን የሎተሪ መጠንን እንደ ዋና ግብአት ይጠቀማል እንበል። መስመራዊ ሪግሬሽን ተጠቅመን y = 5000 * x የ ስኩዌር ጫማ ወይም የሎተል መጠን የሆነበትን ተግባር ልናገኝ ችለናል።
ይህ ሞዴል በሰው ሊነበብ የሚችል እና ሙሉ በሙሉ ግልጽ ነው.
የድህረ-ሆክ ማብራሪያዎች
ድህረ-ሆክ ማብራሪያዎች ለሌሎች ስልተ ቀመሮች የማብራራት ችሎታን ለመጨመር የሚያገለግሉ የአልጎሪዝም እና ቴክኒኮች ቡድን ናቸው።
አብዛኛዎቹ የድህረ-ሆክ የማብራሪያ ዘዴዎች አልጎሪዝም እንዴት እንደሚሰራ መረዳት አያስፈልጋቸውም. ተጠቃሚው የታለመውን አልጎሪዝም ግብአት እና ውጤቱን ብቻ መግለጽ ያስፈልገዋል።
እነዚህ ማብራሪያዎች በተጨማሪ በሁለት ዓይነት ይከፈላሉ፡ የአካባቢ ማብራሪያዎች እና ዓለም አቀፋዊ ማብራሪያዎች።
የአካባቢ ማብራሪያዎች ግብዓቶችን ንዑስ ስብስብ ለማብራራት ያለመ ነው። ለምሳሌ፣ ከተወሰነ ውጤት አንጻር፣ የአካባቢ ማብራሪያ ያንን ውሳኔ ለማድረግ የትኞቹ መለኪያዎች አስተዋፅዖ እንዳደረጉ ማወቅ ይችላል።
ዓለም አቀፋዊ ማብራሪያዎች የጠቅላላውን አልጎሪዝም የድህረ-ሆክ ማብራሪያዎችን ለማምረት ያለመ ነው። የዚህ ዓይነቱ ማብራሪያ ብዙውን ጊዜ ለመሥራት የበለጠ ከባድ ነው። ስልተ ቀመሮች ውስብስብ ናቸው እና የመጨረሻውን ውጤት ለማግኘት ወሳኝ የሆኑ ስፍር ቁጥር የሌላቸው መለኪያዎች ሊኖሩ ይችላሉ።
የአካባቢ ማብራሪያ አልጎሪዝም ምሳሌዎች
XAI ን ለማግኘት ከሚጠቀሙባቸው በርካታ ቴክኒኮች መካከል፣ ለአካባቢው ማብራሪያዎች የሚውሉት ስልተ ቀመሮች አብዛኞቹ ተመራማሪዎች የሚያተኩሩት ናቸው።
በዚህ ክፍል ውስጥ አንዳንድ ታዋቂ የአካባቢ ማብራሪያ ስልተ ቀመሮችን እና እያንዳንዳቸው እንዴት እንደሚሰሩ እንመለከታለን።
LIME
LIME (አካባቢያዊ ሊተረጎም የሚችል ሞዴል-አግኖስቲክ ገላጭ) የማንኛውንም የማሽን መማሪያ ስልተ ቀመር ትንበያዎችን የሚያብራራ ስልተ ቀመር ነው።
ስሙ እንደሚያመለክተው LIME ሞዴል-አግኖስቲክ ነው። ይህ ማለት LIME ለማንኛውም ዓይነት ሞዴል ሊሠራ ይችላል. ሞዴሉ በአካባቢው ሊተረጎም የሚችል ነው, ይህም ማለት ሙሉውን ሞዴል ከማብራራት ይልቅ የአካባቢ ውጤቶችን በመጠቀም ሞዴሉን ማብራራት እንችላለን.
እየተብራራ ያለው ሞዴል ጥቁር ሳጥን ቢሆንም፣ LIME በአንድ የተወሰነ ቦታ አቅራቢያ ባሉ ነጥቦች ዙሪያ የአካባቢያዊ መስመራዊ ሞዴል ይፈጥራል።
Lime ሞዴሉን በትንበያ አካባቢ የሚገመት መስመራዊ ሞዴል ያቀርባል ነገር ግን የግድ በአለም አቀፍ ደረጃ አይደለም።
ይህንን የክፍት ምንጭ ማከማቻ በመጎብኘት ስለዚህ ስልተ ቀመር የበለጠ ማወቅ ይችላሉ።
SHAP
የሻፕሊ ተጨማሪ ማብራሪያዎች (SHAP) የግለሰብ ትንበያዎችን ለማብራራት ዘዴ ነው. SHAP እንዴት እንደሚሰራ ለመረዳት የሻፕሌይ እሴቶች ምን እንደሆኑ ማብራራት አለብን።
የሻፕሌይ እሴት በጨዋታ ቲዎሪ ውስጥ ያለ ፅንሰ-ሀሳብ ሲሆን በጨዋታው ውስጥ ለእያንዳንዱ ተጫዋች “ዋጋ” መስጠትን ያካትታል። ይህም ለእያንዳንዱ ተጫዋች የሚሰጠው ዋጋ ተጫዋቹ ለጨዋታው ባበረከተው አስተዋፅኦ ላይ የተመሰረተ እንዲሆን ይሰራጫል።
እንዴት እናመልካለን የጨዋታ ንድፈ ሐሳብ ወደ ማሽን መማር ሞዴሎች?
በእኛ ሞዴል ውስጥ ያለው እያንዳንዱ ባህሪ "ተጫዋች" ነው እና "ጨዋታው" ትንበያውን የሚያወጣው ተግባር ነው እንበል.
የSHAP ዘዴ የሻፕሌይ እሴቶችን ለተለያዩ ባህሪያት የሚመድብ የክብደት መስመራዊ ሞዴል ይፈጥራል። ከፍተኛ የሻፕሊ እሴቶች ያላቸው ባህሪያት በአምሳያው ውጤት ላይ የበለጠ ተጽእኖ ሲኖራቸው ዝቅተኛ የሻፕሌይ እሴቶች ያላቸው ባህሪያት ግን ያነሰ ተጽእኖ ይኖራቸዋል.
መደምደሚያ
AI ማብራራት የ AI ስርዓቶችን ፍትሃዊነት እና ተጠያቂነት ለማረጋገጥ ብቻ ሳይሆን በአጠቃላይ በ AI ቴክኖሎጂ ላይ እምነትን ለመገንባት አስፈላጊ ነው.
በኤአይ ማብራራቱ ላይ አሁንም ብዙ ምርምር ማድረግ አለ, ነገር ግን ዛሬ በሰፊው ጥቅም ላይ የዋሉትን ውስብስብ የጥቁር ሳጥን AI ስርዓቶችን እንድንረዳ የሚረዱ አንዳንድ ተስፋ ሰጪ አካሄዶች አሉ.
ተጨማሪ ምርምር እና ልማት ጋር, እኛ ይበልጥ ግልጽ እና ለመረዳት ቀላል የሆኑ AI ስርዓቶች ለመገንባት ተስፋ እንችላለን. እስከዚያው ድረስ፣ እንደ ጤና አጠባበቅ ባሉ መስኮች ያሉ ንግዶች እና ባለሙያዎች የ AI የማብራራት ውስንነቶችን ማወቅ አለባቸው።
መልስ ይስጡ