کی میز کے مندرجات[چھپائیں][دکھائیں]
AI کے پاس کاروبار اور صحت کی دیکھ بھال جیسے مختلف شعبوں میں کارکردگی کو بہتر بنانے کی طاقت ہے۔ تاہم، وضاحتی صلاحیت کی کمی فیصلہ سازی کے لیے اسے استعمال کرنے پر ہمارے انحصار میں رکاوٹ ہے۔
کیا ہمیں الگورتھم کے فیصلے پر بھروسہ کرنا چاہئے؟
کسی بھی صنعت میں فیصلہ سازوں کے لیے اس کی حدود اور ممکنہ تعصبات کو سمجھنا ضروری ہے۔ مشین سیکھنے کے ماڈل. اس بات کو یقینی بنانے کے لیے کہ یہ ماڈل حسب منشا برتاؤ کر رہے ہیں، کسی بھی AI سسٹم کا آؤٹ پٹ انسان کے لیے قابل وضاحت ہونا چاہیے۔
اس مضمون میں، ہم AI میں وضاحت کی اہمیت پر جائیں گے۔ ہم مشین لرننگ ماڈلز سے وضاحت حاصل کرنے کے لیے استعمال کیے جانے والے طریقوں کی اقسام کا ایک مختصر جائزہ فراہم کریں گے۔
قابل وضاحت AI کیا ہے؟
قابل وضاحت مصنوعی ذہانت یا XAI سے مراد وہ تکنیک اور طریقے ہیں جن کا استعمال انسانوں کو یہ سمجھنے کی اجازت دیتا ہے کہ مشین لرننگ ماڈل کس طرح ایک مخصوص آؤٹ پٹ پر پہنچتے ہیں۔
بہت سے مشہور مشین لرننگ الگورتھم اس طرح کام کریں جیسے یہ ایک "بلیک باکس" ہو۔ مشین لرننگ میں، بلیک باکس الگورتھم ایم ایل ماڈلز کا حوالہ دیں جہاں یہ تصدیق کرنا ناممکن ہے کہ ایک مخصوص ان پٹ کسی خاص آؤٹ پٹ کی طرف کیسے جاتا ہے۔ یہاں تک کہ AI کا ڈویلپر بھی پوری طرح وضاحت نہیں کر سکے گا کہ الگورتھم کیسے کام کرتا ہے۔
مثال کے طور پر، گہری سیکھنے کے الگورتھم استعمال کرتے ہیں۔ نیند نیٹ ورک ایک ٹن ڈیٹا سے پیٹرن کی شناخت کرنے کے لیے۔ اگرچہ AI کے محققین اور ڈویلپرز یہ سمجھتے ہیں کہ نیورل نیٹ ورک تکنیکی نقطہ نظر سے کیسے کام کرتے ہیں، یہاں تک کہ وہ پوری طرح سے اس بات کی وضاحت نہیں کر سکتے کہ نیورل نیٹ ورک کس طرح ایک خاص نتیجہ کے ساتھ آیا۔
کچھ نیورل نیٹ ورکس لاکھوں پیرامیٹرز کو سنبھالتے ہیں جو حتمی نتیجہ واپس کرنے کے لیے سب مل کر کام کرتے ہیں۔
ایسے حالات میں جہاں فیصلوں کی اہمیت ہوتی ہے، وضاحت کی کمی مسئلہ بن سکتی ہے۔
وضاحت سے فرق کیوں پڑتا ہے۔
وضاحت کی صلاحیت ماڈلز فیصلے کرنے کے طریقے کے بارے میں بصیرت فراہم کرتا ہے۔ وہ کاروبار جو فیصلے کرنے کے لیے AI کو ڈھالنے کا ارادہ رکھتے ہیں انہیں یہ طے کرنا ہوگا کہ آیا AI نے بہترین فیصلے پر پہنچنے کے لیے صحیح ان پٹ کا استعمال کیا ہے۔
ماڈلز جو ناقابل وضاحت ہیں کئی صنعتوں میں ایک مسئلہ ہیں۔ مثال کے طور پر، اگر کوئی کمپنی ملازمت کے فیصلے کرنے کے لیے الگورتھم کا استعمال کرتی ہے، تو یہ سب کے بہترین مفاد میں ہوگا کہ اس میں شفافیت ہو کہ الگورتھم درخواست دہندہ کو مسترد کرنے کا فیصلہ کیسے کرتا ہے۔
ایک اور میدان جہاں گہری سیکھنے صحت کی دیکھ بھال میں الگورتھم زیادہ کثرت سے استعمال ہو رہے ہیں۔ ایسے معاملات میں جہاں الگورتھم کینسر کی ممکنہ علامات کا پتہ لگانے کی کوشش کرتے ہیں، ڈاکٹروں کے لیے یہ سمجھنا ضروری ہے کہ ماڈل کسی خاص تشخیص پر کیسے پہنچا۔ ماہرین کو AI کا پورا فائدہ اٹھانے اور آنکھیں بند کرکے اس کی پیروی نہ کرنے کے لیے کچھ سطح کی وضاحت کی ضرورت ہے۔
قابل وضاحت AI الگورتھم کا جائزہ
قابل وضاحت AI الگورتھم دو وسیع زمروں میں آتے ہیں: خود تشریحی ماڈلز اور پوسٹ ہاک وضاحتیں۔
خود تشریحی ماڈل
خود تشریحی ماڈل الگورتھم ہیں جنہیں انسان براہ راست پڑھ اور تشریح کر سکتا ہے۔ اس صورت میں، ماڈل خود وضاحت ہے.
کچھ سب سے عام خود کی تشریح کرنے والے ماڈلز میں فیصلے کے درخت اور ریگریشن ماڈل شامل ہیں۔
مثال کے طور پر، آئیے ایک لکیری ریگریشن ماڈل پر غور کریں جو مکان کی قیمتوں کی پیش گوئی کرتا ہے۔ ایک لکیری رجعت کا مطلب ہے کہ کچھ قدر x کے ساتھ، ہم ایک مخصوص لکیری فنکشن f کو لاگو کرکے اپنی ہدف کی قیمت y کی پیشن گوئی کر سکیں گے۔
فرض کریں کہ ہمارا ماڈل گھر کی قیمت کا تعین کرنے کے لیے بنیادی ان پٹ کے طور پر لاٹ سائز کا استعمال کرتا ہے۔ لکیری رجعت کا استعمال کرتے ہوئے، ہم فنکشن y = 5000 * x کے ساتھ آنے کے قابل تھے جہاں x مربع فٹ یا لاٹ سائز کی مقدار ہے۔
یہ ماڈل انسانی پڑھنے کے قابل ہے اور مکمل طور پر شفاف ہے۔
پوسٹ ہاک وضاحتیں۔
پوسٹ ہاک وضاحتیں۔ الگورتھم اور تکنیکوں کا ایک گروپ ہے جو دوسرے الگورتھم میں وضاحتی صلاحیت کو شامل کرنے کے لیے استعمال کیا جا سکتا ہے۔
زیادہ تر پوسٹ ہاک وضاحتی تکنیکوں کو یہ سمجھنے کی ضرورت نہیں ہے کہ الگورتھم کیسے کام کرتا ہے۔ صارف کو صرف ان پٹ اور ٹارگٹ الگورتھم کا نتیجہ اخذ کرنے کی ضرورت ہے۔
ان وضاحتوں کو مزید دو قسموں میں تقسیم کیا گیا ہے: مقامی وضاحتیں اور عالمی وضاحتیں۔
مقامی وضاحتوں کا مقصد آدانوں کے ذیلی سیٹ کی وضاحت کرنا ہے۔ مثال کے طور پر، کسی خاص آؤٹ پٹ کو دیکھتے ہوئے، ایک مقامی وضاحت اس بات کی نشاندہی کرنے کے قابل ہو گی کہ کون سے پیرامیٹرز نے یہ فیصلہ کرنے میں تعاون کیا۔
عالمی وضاحتوں کا مقصد پورے الگورتھم کی پوسٹ ہاک وضاحتیں تیار کرنا ہے۔ اس قسم کی وضاحت عام طور پر کرنا زیادہ مشکل ہے۔ الگورتھم پیچیدہ ہیں اور ان گنت پیرامیٹرز ہوسکتے ہیں جو حتمی نتیجہ حاصل کرنے میں اہم ہیں۔
مقامی وضاحتی الگورتھم کی مثالیں۔
XAI حاصل کرنے کے لیے استعمال ہونے والی بہت سی تکنیکوں میں سے، مقامی وضاحتوں کے لیے استعمال کیے جانے والے الگورتھم وہ ہیں جن پر زیادہ تر محققین توجہ مرکوز کرتے ہیں۔
اس سیکشن میں، ہم کچھ مشہور مقامی وضاحتی الگورتھم پر ایک نظر ڈالیں گے اور ان میں سے ہر ایک کیسے کام کرتا ہے۔
لائم
LIME (مقامی تشریحی ماڈل-ایگنوسٹک وضاحت کنندہ) ایک الگورتھم ہے جو کسی بھی مشین لرننگ الگورتھم کی پیشین گوئیوں کی وضاحت کر سکتا ہے۔
جیسا کہ نام سے ظاہر ہوتا ہے، LIME ماڈل ایگنوسٹک ہے۔ اس کا مطلب ہے کہ LIME کسی بھی قسم کے ماڈل کے لیے کام کر سکتا ہے۔ ماڈل مقامی طور پر بھی قابل تشریح ہے، یعنی ہم پورے ماڈل کی وضاحت کرنے کے بجائے مقامی نتائج کا استعمال کرتے ہوئے ماڈل کی وضاحت کر سکتے ہیں۔
یہاں تک کہ اگر جس ماڈل کی وضاحت کی جا رہی ہے وہ بلیک باکس ہے، LIME کسی مخصوص پوزیشن کے قریب پوائنٹس کے ارد گرد ایک مقامی لکیری ماڈل بناتا ہے۔
LIME ایک لکیری ماڈل فراہم کرتا ہے جو پیشین گوئی کے آس پاس کے ماڈل کا تخمینہ لگاتا ہے لیکن ضروری نہیں کہ عالمی سطح پر ہو۔
آپ اس الگورتھم کے بارے میں اس اوپن سورس ریپوزٹری پر جا کر مزید جان سکتے ہیں۔
شاپ
شیپلی اضافی وضاحتیں (SHAP) انفرادی پیشین گوئیوں کی وضاحت کرنے کا ایک طریقہ ہے۔ یہ سمجھنے کے لیے کہ SHAP کیسے کام کرتا ہے، ہمیں یہ بتانا ہو گا کہ Shapley کی اقدار کیا ہیں۔
شیپلی ویلیو گیم تھیوری میں ایک تصور ہے جس میں گیم میں ہر کھلاڑی کو ایک "قدر" تفویض کرنا شامل ہے۔ اس کو اس طرح تقسیم کیا جاتا ہے کہ ہر کھلاڑی کو تفویض کردہ قدر کھیل میں کھلاڑی کے تعاون پر مبنی ہوتی ہے۔
ہم کس طرح درخواست دے سکتے ہیں گیم تھیوری سے مشین لرننگ ماڈلز؟
فرض کریں کہ ہمارے ماڈل میں ہر ایک خصوصیت ایک "کھلاڑی" ہے اور یہ کہ "گیم" وہ فنکشن ہے جو پیشین گوئی کو پورا کرتا ہے۔
SHAP طریقہ ایک وزنی لکیری ماڈل بناتا ہے جو مختلف خصوصیات کے لیے Shapley اقدار کو تفویض کرتا ہے۔ اعلیٰ Shapley قدروں والی خصوصیات ماڈل کے نتائج پر زیادہ اثر انداز ہوتی ہیں جبکہ کم Shapley اقدار والی خصوصیات کا اثر کم ہوتا ہے۔
نتیجہ
AI کی وضاحت نہ صرف AI سسٹمز کی منصفانہ اور جوابدہی کو یقینی بنانے کے لیے بلکہ عمومی طور پر AI ٹیکنالوجی پر اعتماد پیدا کرنے کے لیے بھی اہم ہے۔
AI کی وضاحت کے شعبے میں ابھی بھی کافی تحقیق کرنا باقی ہے، لیکن کچھ امید افزا طریقے ہیں جو ہمیں پیچیدہ بلیک باکس AI سسٹمز کو سمجھنے میں مدد کر سکتے ہیں جو آج کل پہلے سے بڑے پیمانے پر استعمال ہو رہے ہیں۔
مزید تحقیق اور ترقی کے ساتھ، ہم ایسے AI سسٹم بنانے کی امید کر سکتے ہیں جو زیادہ شفاف اور سمجھنے میں آسان ہوں۔ اس دوران، کاروبار اور صحت کی دیکھ بھال جیسے شعبوں کے ماہرین کو AI کی وضاحت کی حدود سے آگاہ ہونا چاہیے۔
جواب دیجئے