வணிகம் மற்றும் சுகாதாரம் போன்ற பல்வேறு துறைகளில் செயல்திறனை மேம்படுத்த AI க்கு சக்தி உள்ளது. எவ்வாறாயினும், விளக்கமளிக்கும் தன்மை இல்லாததால், முடிவெடுப்பதற்கு அதைப் பயன்படுத்துவதில் நமது நம்பிக்கையைத் தடுக்கிறது.
அல்காரிதத்தின் தீர்ப்பை நாம் நம்ப வேண்டுமா?
எந்தவொரு தொழிற்துறையிலும் முடிவெடுப்பவர்கள் வரம்புகள் மற்றும் சாத்தியமான சார்புகளைப் புரிந்துகொள்வது முக்கியம் இயந்திர கற்றல் மாதிரிகள். இந்த மாதிரிகள் திட்டமிட்டபடி செயல்படுகின்றன என்பதை உறுதிப்படுத்த, எந்த AI அமைப்பின் வெளியீடும் மனிதனுக்கு விளக்கப்பட வேண்டும்.
இந்தக் கட்டுரையில், AI இல் விளக்கக்கூடியதன் முக்கியத்துவத்தைப் பற்றிப் பார்ப்போம். இயந்திர கற்றல் மாதிரிகளிலிருந்து விளக்கங்களைப் பெறப் பயன்படுத்தப்படும் முறைகளின் வகைகளின் சுருக்கமான கண்ணோட்டத்தை நாங்கள் வழங்குவோம்.
விளக்கக்கூடிய AI என்றால் என்ன?
விளக்கக்கூடியது செயற்கை நுண்ணறிவு அல்லது XAI என்பது ஒரு குறிப்பிட்ட வெளியீட்டில் இயந்திர கற்றல் மாதிரிகள் எவ்வாறு வருகின்றன என்பதைப் புரிந்துகொள்ள மனிதர்களை அனுமதிக்கும் நுட்பங்கள் மற்றும் முறைகளைக் குறிக்கிறது.
பல பிரபலமானவை இயந்திர கற்றல் வழிமுறைகள் அது ஒரு "கருப்பு பெட்டி" போல் வேலை. இயந்திர கற்றலில், கருப்பு பெட்டி வழிமுறைகள் ஒரு குறிப்பிட்ட உள்ளீடு ஒரு குறிப்பிட்ட வெளியீட்டிற்கு எவ்வாறு வழிவகுக்கிறது என்பதைச் சரிபார்க்க முடியாத நிலையில் ML மாதிரிகளைப் பார்க்கவும். AI இன் டெவலப்பரால் கூட அல்காரிதம் எவ்வாறு செயல்படுகிறது என்பதை முழுமையாக விளக்க முடியாது.
எடுத்துக்காட்டாக, ஆழ்ந்த கற்றல் வழிமுறைகளைப் பயன்படுத்துகிறது நரம்பியல் வலையமைப்புகள் ஒரு டன் தரவுகளிலிருந்து வடிவங்களை அடையாளம் காண. தொழில்நுட்பக் கண்ணோட்டத்தில் நரம்பியல் நெட்வொர்க்குகள் எவ்வாறு செயல்படுகின்றன என்பதை AI ஆராய்ச்சியாளர்கள் மற்றும் டெவலப்பர்கள் புரிந்து கொண்டாலும், ஒரு நரம்பியல் நெட்வொர்க் எவ்வாறு ஒரு குறிப்பிட்ட முடிவைக் கொண்டு வந்தது என்பதை அவர்களால் கூட முழுமையாக விளக்க முடியாது.
சில நரம்பியல் நெட்வொர்க்குகள் மில்லியன் கணக்கான அளவுருக்களைக் கையாளுகின்றன, அவை அனைத்தும் இறுதி முடிவைத் தருவதற்கு ஒரே மாதிரியாக வேலை செய்கின்றன.
முடிவுகள் முக்கியமான சூழ்நிலைகளில், விளக்கமின்மை சிக்கலாக இருக்கலாம்.
விளக்குவது ஏன் முக்கியமானது
விளக்கக்கூடிய தன்மை மாதிரிகள் எவ்வாறு முடிவுகளை எடுக்கின்றன என்பதைப் பற்றிய நுண்ணறிவை வழங்குகிறது. முடிவுகளை எடுப்பதற்கு AI ஐ மாற்றியமைக்கத் திட்டமிடும் வணிகங்கள், AI சரியான உள்ளீட்டைப் பயன்படுத்தி சிறந்த முடிவை எடுக்கிறதா என்பதைத் தீர்மானிக்க வேண்டும்.
விவரிக்க முடியாத மாதிரிகள் பல தொழில்களில் ஒரு பிரச்சினை. எடுத்துக்காட்டாக, பணியமர்த்தல் முடிவுகளை எடுக்க ஒரு நிறுவனம் அல்காரிதத்தைப் பயன்படுத்தினால், விண்ணப்பதாரரை நிராகரிக்க அல்காரிதம் எவ்வாறு முடிவு செய்கிறது என்பதில் வெளிப்படைத்தன்மை இருப்பது அனைவருக்கும் நல்லது.
எங்கே இன்னொரு களம் ஆழமான கற்றல் அல்காரிதம்கள் சுகாதாரத்தில் அடிக்கடி பயன்படுத்தப்படுகின்றன. அல்காரிதம்கள் புற்றுநோயின் சாத்தியமான அறிகுறிகளைக் கண்டறிய முயற்சிக்கும் சந்தர்ப்பங்களில், ஒரு குறிப்பிட்ட நோயறிதலுக்கு மாதிரி எவ்வாறு வந்தது என்பதை மருத்துவர்கள் புரிந்துகொள்வது முக்கியம். வல்லுநர்கள் AIஐ முழுமையாகப் பயன்படுத்திக் கொள்ளவும், கண்மூடித்தனமாக அதைப் பின்பற்றாமல் இருக்கவும் சில நிலை விளக்கங்கள் தேவை
விளக்கக்கூடிய AI அல்காரிதம்களின் கண்ணோட்டம்
விளக்கக்கூடிய AI அல்காரிதம்கள் இரண்டு பரந்த வகைகளில் அடங்கும்: சுய-விளக்க மாதிரிகள் மற்றும் பிந்தைய தற்காலிக விளக்கங்கள்.
சுய விளக்க மாதிரிகள்
சுய விளக்க மாதிரிகள் ஒரு மனிதனால் நேரடியாகப் படிக்கவும் விளக்கவும் கூடிய வழிமுறைகள். இந்த வழக்கில், மாதிரி தன்னை விளக்குகிறது.
மிகவும் பொதுவான சுய-விளக்க மாதிரிகளில் சில முடிவு மரங்கள் மற்றும் பின்னடைவு மாதிரிகள் ஆகியவை அடங்கும்.
எடுத்துக்காட்டாக, வீட்டின் விலைகளைக் கணிக்கும் நேரியல் பின்னடைவு மாதிரியைக் கருத்தில் கொள்வோம். ஒரு நேரியல் பின்னடைவு என்பது சில மதிப்பு x உடன், குறிப்பிட்ட நேரியல் சார்பு f ஐப் பயன்படுத்துவதன் மூலம் நமது இலக்கு மதிப்பை y கணிக்க முடியும்.
வீட்டின் விலையை நிர்ணயம் செய்ய, எங்கள் மாடல் லாட் சைஸை முக்கிய உள்ளீடாக பயன்படுத்துகிறது என்று வைத்துக்கொள்வோம். நேரியல் பின்னடைவைப் பயன்படுத்தி, y = 5000 * x செயல்பாட்டைக் கொண்டு வர முடிந்தது, இதில் x என்பது சதுர அடி அல்லது நிறைய அளவு.
இந்த மாதிரி மனிதர்கள் படிக்கக்கூடியது மற்றும் முற்றிலும் வெளிப்படையானது.
பிந்தைய தற்காலிக விளக்கங்கள்
பிந்தைய கால விளக்கங்கள் மற்ற அல்காரிதங்களுக்கு விளக்கத்தை சேர்க்க பயன்படும் வழிமுறைகள் மற்றும் நுட்பங்களின் குழுவாகும்.
பெரும்பாலான பிந்தைய தற்காலிக விளக்க நுட்பங்கள் அல்காரிதம் எவ்வாறு செயல்படுகிறது என்பதைப் புரிந்து கொள்ள வேண்டிய அவசியமில்லை. இலக்கு அல்காரிதத்தின் உள்ளீடு மற்றும் அதன் விளைவாக வரும் வெளியீட்டை மட்டுமே பயனர் குறிப்பிட வேண்டும்.
இந்த விளக்கங்கள் மேலும் இரண்டு வகைகளாகப் பிரிக்கப்படுகின்றன: உள்ளூர் விளக்கங்கள் மற்றும் உலகளாவிய விளக்கங்கள்.
உள்ளூர் விளக்கங்கள் உள்ளீடுகளின் துணைக்குழுவை விளக்குவதை நோக்கமாகக் கொண்டுள்ளன. எடுத்துக்காட்டாக, ஒரு குறிப்பிட்ட வெளியீடு கொடுக்கப்பட்டால், அந்த முடிவை எடுப்பதற்கு எந்த அளவுருக்கள் பங்களித்தன என்பதை ஒரு உள்ளூர் விளக்கத்தால் சுட்டிக்காட்ட முடியும்.
உலகளாவிய விளக்கங்கள் முழு அல்காரிதம் பற்றிய பிந்தைய தற்காலிக விளக்கங்களை உருவாக்குவதை நோக்கமாகக் கொண்டுள்ளன. இந்த வகையான விளக்கம் பொதுவாக மிகவும் கடினமாக உள்ளது. அல்காரிதம்கள் சிக்கலானவை மற்றும் இறுதி முடிவை அடைவதில் குறிப்பிடத்தக்க எண்ணற்ற அளவுருக்கள் இருக்கலாம்.
உள்ளூர் விளக்க அல்காரிதம்களின் எடுத்துக்காட்டுகள்
XAI ஐ அடைவதற்குப் பயன்படுத்தப்படும் பல நுட்பங்களில், உள்ளூர் விளக்கங்களுக்குப் பயன்படுத்தப்படும் அல்காரிதம்களில் பெரும்பாலான ஆராய்ச்சியாளர்கள் கவனம் செலுத்துகின்றனர்.
இந்தப் பிரிவில், சில பிரபலமான உள்ளூர் விளக்க வழிமுறைகள் மற்றும் அவை ஒவ்வொன்றும் எவ்வாறு செயல்படுகின்றன என்பதைப் பார்ப்போம்.
சுண்ணாம்பு
LIME (உள்ளூர் விளக்கமளிக்கும் மாதிரி-அஞ்ஞான விளக்குபவர்) எந்த இயந்திர கற்றல் அல்காரிதத்தின் கணிப்புகளையும் விளக்கக்கூடிய ஒரு அல்காரிதம்.
பெயர் குறிப்பிடுவது போல, LIME என்பது மாதிரி-அஞ்ஞானம். இதன் பொருள் LIME எந்த மாதிரி மாதிரிக்கும் வேலை செய்யும். மாதிரியானது உள்நாட்டிலும் விளக்கக்கூடியது, அதாவது முழு மாதிரியையும் விளக்குவதற்குப் பதிலாக உள்ளூர் முடிவுகளைப் பயன்படுத்தி மாதிரியை விளக்கலாம்.
விளக்கப்படும் மாதிரி கருப்புப் பெட்டியாக இருந்தாலும், LIME ஆனது ஒரு குறிப்பிட்ட நிலைக்கு அருகிலுள்ள புள்ளிகளைச் சுற்றி உள்ளூர் நேரியல் மாதிரியை உருவாக்குகிறது.
LIMe ஒரு நேர்கோட்டு மாதிரியை வழங்குகிறது, இது ஒரு கணிப்புக்கு அருகில் உள்ள மாதிரியை தோராயமாக மதிப்பிடுகிறது, ஆனால் உலகளவில் அவசியமில்லை.
இந்த திறந்த மூல களஞ்சியத்தைப் பார்வையிடுவதன் மூலம் இந்த அல்காரிதம் பற்றி மேலும் அறியலாம்.
SHAP
ஷாப்லி சேர்க்கை விளக்கங்கள் (SHAP) தனிப்பட்ட கணிப்புகளை விளக்குவதற்கான ஒரு முறையாகும். SHAP எவ்வாறு செயல்படுகிறது என்பதைப் புரிந்து கொள்ள, Shapley மதிப்புகள் என்ன என்பதை நாம் விளக்க வேண்டும்.
ஷாப்லி மதிப்பு என்பது விளையாட்டுக் கோட்பாட்டில் உள்ள ஒரு கருத்தாகும், இது விளையாட்டில் ஒவ்வொரு வீரருக்கும் ஒரு "மதிப்பை" ஒதுக்குவதை உள்ளடக்கியது. ஒவ்வொரு வீரருக்கும் ஒதுக்கப்படும் மதிப்பு, விளையாட்டில் விளையாடுபவர்களின் பங்களிப்பின் அடிப்படையில் அமையும் வகையில் இது விநியோகிக்கப்படுகிறது.
நாங்கள் எவ்வாறு விண்ணப்பிக்கிறோம் இயந்திர கற்றலுக்கு விளையாட்டுக் கோட்பாடு மாதிரிகள்?
எங்கள் மாதிரியில் உள்ள ஒவ்வொரு அம்சமும் ஒரு "பிளேயர்" என்றும், "கேம்" என்பது கணிப்பை வெளியிடும் செயல்பாடு என்றும் வைத்துக்கொள்வோம்.
SHAP முறையானது எடையுள்ள நேரியல் மாதிரியை உருவாக்குகிறது, இது பல்வேறு அம்சங்களுக்கு Shapley மதிப்புகளை ஒதுக்குகிறது. அதிக ஷேப்லி மதிப்புகளைக் கொண்ட அம்சங்கள் மாதிரியின் விளைவுகளில் அதிக செல்வாக்கு செலுத்துகின்றன, அதே சமயம் குறைந்த ஷேப்லி மதிப்புகளைக் கொண்ட அம்சங்கள் குறைவான தாக்கத்தைக் கொண்டுள்ளன.
தீர்மானம்
AI அமைப்புகளின் நேர்மை மற்றும் பொறுப்புணர்வை உறுதிசெய்வதற்கு மட்டுமல்ல, பொதுவாக AI தொழில்நுட்பத்தில் நம்பிக்கையை வளர்ப்பதற்கும் AI விளக்கத்தன்மை முக்கியமானது.
AI விளக்கமளிக்கும் பகுதியில் இன்னும் நிறைய ஆராய்ச்சிகள் செய்யப்பட உள்ளன, ஆனால் இன்று ஏற்கனவே பரவலாகப் பயன்படுத்தப்படும் சிக்கலான கருப்பு பெட்டி AI அமைப்புகளைப் புரிந்துகொள்ள உதவும் சில நம்பிக்கைக்குரிய அணுகுமுறைகள் உள்ளன.
மேலும் ஆராய்ச்சி மற்றும் மேம்பாட்டின் மூலம், AI அமைப்புகளை உருவாக்க முடியும் என்று நம்புகிறோம், அவை மிகவும் வெளிப்படையான மற்றும் புரிந்துகொள்ள எளிதானவை. இதற்கிடையில், வணிகங்கள் மற்றும் சுகாதாரப் பாதுகாப்பு போன்ற துறைகளில் வல்லுநர்கள் AI விளக்கத்தின் வரம்புகளைப் பற்றி அறிந்திருக்க வேண்டும்.
ஒரு பதில் விடவும்