چونکہ زیادہ صنعتیں آپریشنز کو خودکار بنانے اور انتخاب کرنے کے لیے الگورتھم کی طاقت کا استعمال کرتی ہیں، مشین لرننگ اس بات کا ایک اہم جز بنتا جا رہا ہے کہ عصری دنیا کیسے چلتی ہے۔
مشین لرننگ میں تعصب کے مسئلے کو ذہن میں رکھنا بہت ضروری ہے جب مشین لرننگ ماڈل مختلف تنظیموں کے فیصلہ سازی کے عمل میں ضم ہوجاتے ہیں۔
اس بات کی ضمانت دینا کہ الگورتھم کے ذریعہ تیار کردہ انتخاب غیر جانبدارانہ اور تعصب سے خالی ہیں کسی بھی ایسی تنظیم کا مقصد ہونا چاہئے جو مشین لرننگ ماڈل استعمال کرتی ہے۔ اس بات کو یقینی بنانے کے لیے کہ ماڈل آؤٹ پٹس پر بھروسہ کیا جا سکتا ہے اور اسے منصفانہ طور پر دیکھا جا سکتا ہے، اس کو پہچاننا اور حل کرنا بہت ضروری ہے۔ مشین لرننگ تعصب
اس کا تعلق ماڈل کی وضاحت کے سوالات سے ہے، یا کسی شخص کے لیے یہ سمجھنا کتنا آسان ہے کہ مشین لرننگ ماڈل کسی نتیجے پر کیسے پہنچا۔ مشین لرننگ ماڈلز جن رجحانات اور نمونوں کا نقشہ بناتے اور سیکھتے ہیں وہ براہ راست انسانی ترقی کے بجائے ڈیٹا سے ہی آتے ہیں۔
مشین لرننگ میں تعصب مختلف وجوہات کی بناء پر ابھر سکتا ہے اگر اسے کنٹرول اور چیک نہ کیا جائے۔ جب ایک ماڈل تعینات کیا جاتا ہے، تو اسے اکثر ایسے حالات کا سامنا کرنا پڑتا ہے جو تربیتی اعداد و شمار کے نمونے میں واضح طور پر ظاہر نہیں ہوتے ہیں۔
اعداد و شمار کے اس غیر نمائندہ تربیتی سیٹ کے لیے ماڈل اوور فٹنگ ہو سکتا تھا۔ تربیتی ڈیٹا کے بہترین معیار کے باوجود، ماڈل اب بھی وسیع تر ثقافتی اثرات کے نتیجے میں تاریخی تعصب سے متاثر ہو سکتا ہے۔
ایک بار لاگو ہونے کے بعد، ایک متعصب ماڈل بعض گروپوں کی حمایت کر سکتا ہے یا مخصوص ڈیٹا سب سیٹس کے ساتھ درستگی کھو سکتا ہے۔ اس کے نتیجے میں ایسے فیصلے ہو سکتے ہیں جو افراد کے ایک مخصوص گروہ کو غیر منصفانہ طور پر سزا دیتے ہیں، جس کے حقیقی دنیا پر منفی اثرات مرتب ہو سکتے ہیں۔
یہ مضمون مشین لرننگ کے تعصب پر بحث کرتا ہے، بشمول یہ کیا ہے، اسے کیسے پہچانا جائے، اس سے لاحق خطرات اور بہت کچھ۔
تو، مشین لرننگ تعصب کیا ہے؟
مشین لرننگ کے عمل کے دوران کیے گئے غلط مفروضوں کے نتیجے میں منظم طریقے سے متعصب آؤٹ پٹ تیار کرنے والا الگورتھم مشین لرننگ بائیس کہلاتا ہے، جسے الگورتھم تعصب بھی کہا جاتا ہے یا AI تعصب کے نام سے جانا جاتا ہے۔
مشین لرننگ کا تعصب کسی ماڈل کا ڈیٹا کے کسی خاص سیٹ یا ڈیٹا کے ذیلی سیٹ کو پسند کرنے کا رجحان ہے۔ اسے اکثر غیر نمائندہ تربیتی ڈیٹاسیٹس کے ذریعے لایا جاتا ہے۔ ڈیٹا کے ایک مخصوص مجموعہ کے ساتھ، ایک متعصب ماڈل کم کارکردگی کا مظاہرہ کرے گا، جس سے اس کی درستگی کو نقصان پہنچے گا۔
حقیقی دنیا کی ترتیب میں، اس کا مطلب یہ ہو سکتا ہے کہ متعصب تربیتی اعداد و شمار کے نتیجے میں ماڈل کی پیداوار کسی خاص نسل، آبادیاتی، یا جنس کی حمایت کرتی ہے۔
نتیجے کے طور پر، مشین لرننگ کے نتائج غیر منصفانہ یا امتیازی ہوسکتے ہیں۔ غیر نمائندہ تربیت ڈیٹاسیٹس تعصب میں حصہ ڈال سکتے ہیں۔ مشین لرننگ میں
اگر تربیتی ڈیٹا کی کمی ہے یا کسی خاص ڈیٹا گروپنگ کا حد سے زیادہ نمائندہ ہے تو نتیجہ خیز ماڈل دیگر، کم پیش کردہ زمروں کی طرف متعصب ہو سکتا ہے۔ ایسا ہو سکتا ہے اگر تربیتی ڈیٹا کا نمونہ حقیقی دنیا کی تعیناتی کے ماحول سے بالکل مماثل نہ ہو۔
صحت کی دیکھ بھال کی صنعت میں مشین لرننگ، جس کا استعمال معلوم بیماریوں یا بیماریوں کے خلاف مریضوں کے ڈیٹا کو چیک کرنے کے لیے کیا جا سکتا ہے، ایک بہترین مثال ہے۔ ماڈلز طبی پریکٹیشنرز کی مداخلتوں کو تیز کر سکتے ہیں جب ان کا مناسب استعمال کیا جائے۔
تاہم، تعصب ممکن ہے. جب کسی بڑی عمر کے مریض میں ممکنہ بیماری کی پیش گوئی کرنے کے لیے کہا جاتا ہے، تو ایک ماڈل اچھی کارکردگی کا مظاہرہ نہیں کر سکتا اگر اس کی تعمیر کے لیے استعمال ہونے والا تربیتی ڈیٹا زیادہ تر مریض کے اعداد و شمار پر مشتمل ہوتا ہے جو کہ چھوٹی عمر کے ہیں۔
مزید برآں، تاریخی اعدادوشمار کو متزلزل کیا جا سکتا ہے۔ مثال کے طور پر، چونکہ تاریخی طور پر، ملازمین کی اکثریت مرد تھی، اس لیے ملازمت کے امیدواروں کو فلٹر کرنے کے لیے تربیت یافتہ ماڈل مرد درخواست دہندگان کی حمایت کرے گا۔
مشین لرننگ کا تعصب دونوں منظرناموں میں ماڈل کی درستگی پر اثر ڈالے گا، اور بدترین حالات میں، اس کا نتیجہ امتیازی اور غیر منصفانہ نتائج پر بھی نکل سکتا ہے۔
فیصلوں کا بغور جائزہ لیا جانا چاہیے تاکہ یہ یقینی بنایا جا سکے کہ کوئی تعصب نہیں ہے۔ مشین سیکھنے کے ماڈل زیادہ سے زیادہ دستی آپریشن کو تبدیل کریں. نتیجے کے طور پر، کسی بھی تنظیم میں ماڈل گورننس کے طریقوں میں مشین لرننگ کے تعصب کی نگرانی شامل ہونی چاہیے۔
بہت سی مختلف صنعتوں میں مختلف قسم کی ملازمتیں مشین لرننگ ماڈلز کے ذریعے مکمل کی جا رہی ہیں۔ آج، ماڈلز کو تیزی سے مشکل عمل کو خودکار بنانے اور تجاویز تیار کرنے کے لیے استعمال کیا جاتا ہے۔ فیصلہ سازی کے اس عمل میں، تعصب کا مطلب یہ ہے کہ ایک ماڈل سیکھے ہوئے تعصب کی بنیاد پر ایک مخصوص گروہ کو دوسرے پر ترجیح دے سکتا ہے۔
جب حقیقی نتائج کے ساتھ غیر محفوظ فیصلے کرنے کے لیے استعمال کیا جائے تو اس کے شدید اثرات ہو سکتے ہیں۔ جب قرض کی درخواستوں کو خود بخود منظور کرنے کے لیے استعمال کیا جاتا ہے، مثال کے طور پر، ایک متعصب ماڈل ایک مخصوص آبادی کے لیے تعصب کر سکتا ہے۔ ریگولیٹڈ کاروباروں میں جہاں کسی بھی کارروائی کا معائنہ کیا جا سکتا ہے یا اس کی جانچ پڑتال کی جا سکتی ہے، یہ خاص طور پر ایک اہم عنصر ہے جس کو مدنظر رکھا جائے۔
مشین لرننگ تعصب کی اقسام
- الگورتھم تعصب - ایسا اس وقت ہوتا ہے جب الگورتھم میں کوئی ایسا بگ ہوتا ہے جو حساب کتاب کرتا ہے جو مشین لرننگ کمپیوٹیشن کو چلاتا ہے۔
- نمونہ تعصب - جب ڈیٹا استعمال ہوتا تھا۔ مشین لرننگ کو تربیت دیں۔ ماڈل میں ایک مسئلہ ہے، ایسا ہوتا ہے۔ اس قسم کے تعصب کی صورتوں میں، نظام کو تربیت دینے کے لیے استعمال کیے گئے ڈیٹا کی مقدار یا معیار ناکافی ہے۔ الگورتھم کو اس بات پر یقین کرنے کی تربیت دی جائے گی کہ تمام اساتذہ خواتین ہیں اگر، مثال کے طور پر، تربیتی ڈیٹا مکمل طور پر خواتین اساتذہ پر مشتمل ہو۔
- اخراج کا تعصب - یہ اس وقت ہوتا ہے جب استعمال کیے جانے والے ڈیٹا کے سیٹ سے ایک اہم ڈیٹا پوائنٹ غائب ہو، جو اس صورت میں ہو سکتا ہے جب ماڈلرز گمشدہ ڈیٹا پوائنٹ کی اہمیت کو سمجھنے میں ناکام رہتے ہیں۔
- متعصبانہ تعصب - اس مثال میں، مشین لرننگ خود متعصب ہے کیونکہ نظام کو تربیت دینے کے لیے استعمال ہونے والا ڈیٹا حقیقی دنیا کے تعصبات جیسے تعصب، دقیانوسی تصورات، اور غلط سماجی مفروضوں کی عکاسی کرتا ہے۔ مثال کے طور پر، اگر طبی پیشہ ور افراد کے ڈیٹا کو کمپیوٹر سسٹم میں شامل کیا جائے جس میں صرف مرد ڈاکٹر اور خواتین نرسیں شامل ہوں، تو صحت کی دیکھ بھال کرنے والے کارکنوں کے بارے میں ایک حقیقی دنیا کی صنفی دقیانوسی تصور کو برقرار رکھا جائے گا۔
- پیمائش کا تعصب - جیسا کہ نام سے ظاہر ہوتا ہے، یہ تعصب ڈیٹا کے معیار اور اسے جمع کرنے یا جانچنے کے لیے استعمال کیے جانے والے طریقوں سے متعلق بنیادی مسائل سے ہوتا ہے۔ وزن کا درست اندازہ لگانے کے لیے تربیت یافتہ نظام متعصب ہو گا اگر تربیتی اعداد و شمار میں موجود وزنوں کو مستقل طور پر جمع کیا جائے، اور کام کی جگہ کے ماحول کا اندازہ لگانے کے لیے کسی نظام کو تربیت دینے کے لیے مطمئن ملازمین کی تصاویر کا استعمال متعصب ہو سکتا ہے اگر تصویروں میں موجود ملازمین کو معلوم ہو۔ وہ خوشی کے لئے ماپا جا رہا تھا.
کون سے عوامل مشین لرننگ میں تعصب کا باعث بنتے ہیں؟
اگرچہ مشین لرننگ کے تعصب کی بہت سی وجوہات ہیں، لیکن یہ اکثر تربیت کے ڈیٹا میں تعصب سے پیدا ہوتا ہے۔ تربیتی ڈیٹا میں تعصب کی کئی ممکنہ بنیادی وجوہات ہیں۔
سب سے واضح مثال تربیتی ڈیٹا ہے، جو کہ ایک تعینات نظام میں دیکھے جانے والے حالات کا سب سیٹ ہے جو عام نہیں ہے۔ یہ تربیتی ڈیٹا ہو سکتا ہے جس میں ایک زمرے کی کم نمائندگی ہو یا دوسرے کی غیر متناسب مقدار ہو۔
یہ نمونہ تعصب کے طور پر جانا جاتا ہے، اور یہ غیر ترتیب شدہ تربیتی ڈیٹا اکٹھا کرنے کے نتیجے میں ہو سکتا ہے۔ ڈیٹا کو جمع کرنے، تجزیہ کرنے یا درجہ بندی کرنے کے لیے استعمال کیے گئے طریقے، نیز ڈیٹا کی تاریخی جڑیں، سبھی ڈیٹا میں ہی تعصب کا باعث بن سکتے ہیں۔
معلومات تاریخی طور پر اس بڑی ثقافت میں بھی متعصب ہوسکتی ہیں جہاں اسے جمع کیا گیا تھا۔
مشین لرننگ کا تعصب زیادہ تر اس کی وجہ سے ہوتا ہے:
- تاریخی اعداد و شمار میں انسانوں یا معاشرے کی وجہ سے تعصبات کو الگورتھم کی تربیت کے لیے استعمال کیا جاتا ہے۔
- تربیتی ڈیٹا جو حقیقی دنیا کے حالات کی عکاسی نہیں کرتا ہے۔
- زیر نگرانی مشین لرننگ کے لیے ڈیٹا لیبل لگاتے یا تیار کرتے وقت تعصب۔
مثال کے طور پر، تربیتی اعداد و شمار میں تنوع کی کمی نمائندگی کے تعصب کا سبب بن سکتی ہے۔ مشین لرننگ ماڈلز کی درستگی وسیع تر ثقافت میں تاریخی تعصب سے اکثر متاثر ہوتی ہے۔
اسے بعض اوقات سماجی یا انسانی تعصب بھی کہا جاتا ہے۔ اعداد و شمار کے وسیع ذخیرے کو تلاش کرنا جو معاشرتی تعصب کا شکار نہیں ہیں مشکل ہوسکتا ہے۔ مشین لرننگ لائف سائیکل کا ڈیٹا پروسیسنگ مرحلہ انسانی تعصب کے لیے اتنا ہی حساس ہے۔
وہ ڈیٹا جس پر ڈیٹا سائنسدان یا دوسرے ماہر کے ذریعہ لیبل لگایا گیا ہو اور اس پر کارروائی کی گئی ہو، نگرانی شدہ مشین لرننگ کے لیے ضروری ہے۔ چاہے یہ مختلف قسم کے ڈیٹا سے پیدا ہوتا ہے جسے صاف کیا جاتا ہے، ڈیٹا پوائنٹس کا لیبل لگانے کا طریقہ، یا خصوصیات کا انتخاب، لیبلنگ کے اس عمل میں تعصب مشین لرننگ میں تعصب کا باعث بن سکتا ہے۔
مشین لرننگ تعصب کے خطرات
چونکہ ماڈلز ڈیٹا پر مبنی فیصلہ سازی کے اوزار ہیں، یہ فرض کیا جاتا ہے کہ وہ غیر جانبدارانہ فیصلے فراہم کرتے ہیں۔ مشین لرننگ ماڈلز میں اکثر تعصب ہوتا ہے، جو نتائج کو متاثر کر سکتا ہے۔
زیادہ سے زیادہ صنعتیں فرسودہ سافٹ ویئر اور طریقہ کار کی جگہ مشین لرننگ کو نافذ کر رہی ہیں۔ متعصب ماڈلز کے حقیقی دنیا میں منفی اثرات مرتب ہو سکتے ہیں جب ماڈلز کا استعمال کرتے ہوئے زیادہ پیچیدہ ملازمتیں خودکار ہوتی ہیں۔
مشین لرننگ دیگر فیصلہ سازی کے عمل سے مختلف نہیں ہے جس میں تنظیمیں اور افراد اس کے شفاف اور مساوی ہونے کی توقع کرتے ہیں۔ چونکہ مشین لرننگ ایک خودکار عمل ہے، اس لیے اس کا استعمال کرتے ہوئے کیے گئے فیصلوں کا کبھی کبھار اور بھی باریک بینی سے جائزہ لیا جاتا ہے۔
یہ بہت ضروری ہے کہ تنظیمیں خطرات سے نمٹنے کے لیے متحرک رہیں کیونکہ مشین لرننگ میں تعصب اکثر کچھ آبادیوں پر امتیازی یا منفی اثرات مرتب کر سکتا ہے۔ ریگولیٹڈ سیاق و سباق کے لیے، خاص طور پر، مشین لرننگ میں تعصب کے امکان کو دھیان میں رکھنا چاہیے۔
مثال کے طور پر، بینکنگ میں مشین لرننگ کو ابتدائی اسکریننگ کے بعد رہن کے درخواست دہندگان کو خود بخود قبول یا مسترد کرنے کے لیے استعمال کیا جا سکتا ہے۔ ایک ماڈل جو امیدواروں کے ایک مخصوص گروپ کی طرف متعصب ہے اس کے امیدوار اور تنظیم دونوں پر نقصان دہ اثرات مرتب ہو سکتے ہیں۔
تعیناتی کے ماحول میں پایا جانے والا کوئی بھی تعصب جہاں کارروائیوں کی جانچ پڑتال کی جا سکتی ہے وہ بڑے مسائل کا باعث بن سکتی ہے۔ ہو سکتا ہے کہ ماڈل کام نہ کرے اور، بدترین حالات میں، جان بوجھ کر امتیازی بھی نکلے۔
تعصب کا احتیاط سے جائزہ لیا جانا چاہیے اور اس کے لیے تیار ہونا چاہیے کیونکہ اس کے نتیجے میں ماڈل کو مکمل طور پر تعیناتی سے ہٹا دیا جا سکتا ہے۔ ماڈل کے فیصلوں میں اعتماد حاصل کرنے کے لیے مشین لرننگ کے تعصب کو سمجھنے اور اس سے نمٹنے کی ضرورت ہوتی ہے۔
تنظیم کے اندر اور بیرونی خدمات کے صارفین کے درمیان اعتماد کی سطح ماڈل فیصلہ سازی میں سمجھے جانے والے تعصب سے متاثر ہو سکتی ہے۔ اگر ماڈلز پر بھروسہ نہیں کیا جاتا ہے، خاص طور پر اعلی خطرے والے انتخاب کی رہنمائی کرتے وقت، وہ کسی تنظیم کے اندر اپنی پوری صلاحیت کے ساتھ استعمال نہیں ہوں گے۔
ماڈل کی وضاحتی صلاحیت کا جائزہ لیتے وقت، تعصب کا حساب کتاب ایک عنصر ہونا چاہیے جس کو مدنظر رکھا جائے۔ ماڈل کے انتخاب کی درستگی اور درستگی کو غیر چیک شدہ مشین لرننگ تعصب سے سنجیدگی سے متاثر کیا جا سکتا ہے۔
اس کے نتیجے میں کبھی کبھار امتیازی کارروائیاں ہو سکتی ہیں جو خاص لوگوں یا گروہوں کو متاثر کر سکتی ہیں۔ مشین لرننگ ماڈل کی مختلف اقسام کے لیے متعدد ایپلی کیشنز موجود ہیں، اور ہر ایک کسی حد تک مشین لرننگ تعصب کا شکار ہے۔
مشین لرننگ تعصب کی مثال اس طرح ہے:
- تربیتی ڈیٹا میں تنوع کی عدم موجودگی کی وجہ سے، چہرے کی شناخت کے الگورتھم کچھ نسلی گروہوں کے لیے کم درست ہو سکتے ہیں۔
- پروگرام انسانی یا تاریخی تعصب کی وجہ سے ڈیٹا میں نسلی اور صنفی تعصب کا پتہ لگا سکتا ہے۔
- ایک مخصوص بولی یا لہجے کے ساتھ، قدرتی زبان کی پروسیسنگ زیادہ درست ہو سکتی ہے، اور ہو سکتا ہے کہ یہ ایسے لہجے پر کارروائی نہ کر سکے جس کی تربیت کے ڈیٹا میں کم نمائندگی کی گئی ہو۔
مشین لرننگ میں تعصب کو حل کرنا
جب تعصب پایا جاتا ہے تو ماڈل کی نگرانی اور دوبارہ تربیت مشین لرننگ تعصب کو دور کرنے کے دو طریقے ہیں۔ زیادہ تر معاملات میں، ماڈل کا تعصب تربیتی ڈیٹا میں تعصب کا اشارہ ہے، یا کم از کم تعصب کا تعلق مشین لرننگ لائف سائیکل کے تربیتی مرحلے سے ہو سکتا ہے۔
ماڈل لائف سائیکل کے ہر مرحلے میں تعصب یا ماڈل ڈرفٹ کو پکڑنے کے لیے طریقہ کار ہونا چاہیے۔ تعیناتی کے بعد مشین لرننگ کی نگرانی کے عمل بھی شامل ہیں۔ تعصب کے لیے ماڈل اور ڈیٹا سیٹس کو کثرت سے چیک کرنا ضروری ہے۔
اس میں تربیتی ڈیٹاسیٹ کی جانچ کرنا شامل ہو سکتا ہے تاکہ یہ دیکھا جا سکے کہ گروپس کو وہاں کیسے تقسیم اور نمائندگی کی جاتی ہے۔ ان ڈیٹاسیٹس میں ترمیم اور/یا بہتری ممکن ہے جو مکمل طور پر نمائندہ نہیں ہیں۔
مزید برآں، ماڈل کی کارکردگی کا جائزہ لیتے وقت تعصب پر غور کیا جانا چاہیے۔ ڈیٹا کے مختلف ذیلی سیٹوں پر ماڈل کی کارکردگی کو جانچنے سے یہ ظاہر ہو سکتا ہے کہ آیا یہ کسی مخصوص گروپ کے سلسلے میں متعصب ہے یا زیادہ فٹ ہے۔
کراس توثیق کی تکنیکوں کا استعمال کرکے بعض ڈیٹا سب سیٹس پر مشین لرننگ ماڈل کی کارکردگی کا جائزہ لینا ممکن ہے۔ طریقہ کار میں ڈیٹا کو الگ الگ ٹریننگ اور ٹیسٹنگ ڈیٹا سیٹس میں تقسیم کرنا شامل ہے۔
آپ مشین لرننگ میں تعصب کو ختم کر سکتے ہیں:
- جب ضروری ہو، بڑے، زیادہ نمائندہ تربیتی سیٹوں کا استعمال کرتے ہوئے ماڈل کو دوبارہ تربیت دیں۔
- متعصب نتائج اور غیر معمولی فیصلوں کو فعال طور پر دیکھنے کے لیے ایک طریقہ کار کا قیام۔
- خصوصیات کو دوبارہ وزن دینا اور ضرورت کے مطابق ہائپر پیرامیٹر کو ایڈجسٹ کرنا تعصب کا حساب کتاب کرنے میں مدد کرسکتا ہے۔
- پتہ لگانے اور اصلاح کے مسلسل چکر کے ذریعے دریافت شدہ تعصب کے حل کی حوصلہ افزائی کرنا۔
نتیجہ
یہ یقین کرنا پرکشش ہے کہ ایک بار تربیت حاصل کرنے کے بعد، مشین لرننگ ماڈل خود مختار طور پر کام کرے گا۔ درحقیقت، ماڈل کا آپریشنل ماحول ہمیشہ بدلتا رہتا ہے، اور مینیجرز کو مستقل بنیادوں پر تازہ ڈیٹا سیٹس کا استعمال کرتے ہوئے ماڈلز کو دوبارہ تربیت دینا چاہیے۔
مشین لرننگ فی الحال حقیقی دنیا کے معاشی فوائد کے ساتھ سب سے زیادہ دلچسپ تکنیکی صلاحیتوں میں سے ایک ہے۔ مشین لرننگ، جب بڑی ڈیٹا ٹیکنالوجیز اور عوامی کلاؤڈ کے ذریعے دستیاب بے پناہ کمپیوٹیشنل طاقت کے ساتھ جوڑا بنایا جاتا ہے، اس میں یہ صلاحیت ہوتی ہے کہ لوگ ٹیکنالوجی اور شاید پوری صنعتوں کے ساتھ کس طرح تعامل کرتے ہیں۔
تاہم، مشین لرننگ ٹیکنالوجی جتنی امید افزا ہے، اسے غیر ارادی تعصبات سے بچنے کے لیے احتیاط سے منصوبہ بندی کرنی چاہیے۔ مشینوں کے ذریعے کیے گئے فیصلوں کی تاثیر پر تعصب سے شدید اثر پڑ سکتا ہے، جو کہ مشین لرننگ ماڈل کے ڈویلپرز کو دھیان میں رکھنا چاہیے۔
جواب دیجئے