तीन वर्षांपूर्वी, मी एका ऐवजी मनोरंजक कला प्रदर्शनास भेट दिली. रेफिक ॲनाडोलच्या "मशीन मेमोइर्स" ने सुरुवातीपासूनच माझी आवड निर्माण केली.
कला आणि AI च्या छेदनबिंदूमध्ये स्वारस्य असलेल्यांमध्ये ते एक लोकप्रिय नाव आहे. पण काळजी करू नका, हा ब्लॉग कलेबद्दल नाही. आम्ही AI च्या सखोल "धारणा" चा अभ्यास करू.
या प्रदर्शनात अनाडोलचा प्रयोग होता नासाची अंतराळ संशोधन प्रतिमा. टेलीस्कोप त्यांच्या व्हिज्युअल संग्रहणांचा वापर करून वस्तुस्थिती आणि कल्पनेतील अडथळे दूर करून “स्वप्न” पाहू शकतात या कल्पनेने हे प्रदर्शन प्रेरित होते.
वैश्विक स्तरावर डेटा, स्मृती आणि इतिहास यांच्यातील संबंधांची तपासणी करून, ॲनाडॉल आम्हाला संभाव्यतेचा विचार करण्यास सांगत होता. कृत्रिम बुद्धिमत्ता आपल्या सभोवतालच्या जगाचे निरीक्षण आणि आकलन करण्यासाठी. आणि AI ची स्वतःची स्वप्ने पाहण्यासाठी…
तर, हे आमच्यासाठी का प्रासंगिक आहे?
याचा विचार करा: ॲनाडॉलने त्यांच्या डेटावरून स्वप्न पाहणाऱ्या दुर्बिणीच्या संकल्पनेचा तपास केला, AI सिस्टीम्सना त्यांच्या डिजिटल मेमरी बँक्समध्ये त्यांचे स्वत:चे स्वप्न-किंवा त्याऐवजी, भ्रम आहेत.
अनाडोलच्या प्रदर्शनातील व्हिज्युअलायझेशनप्रमाणे हे भ्रम, डेटा, एआय आणि त्यांच्या मर्यादांबद्दल अधिक जाणून घेण्यास मदत करू शकतात.
एआय हेलुसिनेशन म्हणजे नेमके काय?
जेव्हा एखादे मोठे भाषा मॉडेल, जसे की जनरेटिव्ह एआय चॅटबॉट, मानवी निरीक्षकांना एकतर अस्तित्वात नसलेले किंवा अदृश्य नसलेल्या नमुन्यांसह आउटपुट तयार करतात, तेव्हा आम्ही त्यांना "AI भ्रम."
हे आउटपुट, जे AI ला दिलेल्या इनपुटवर आधारित अपेक्षित उत्तरापेक्षा वेगळे आहेत, ते पूर्णपणे चुकीचे किंवा निरर्थक असू शकतात.
संगणकाच्या संदर्भात, "विभ्रम" हा शब्द असामान्य वाटू शकतो, परंतु तो या चुकीच्या आउटपुटच्या विचित्र वर्णाचे अचूक वर्णन करतो. ओव्हरफिटिंग, प्रशिक्षण डेटामधील पूर्वाग्रह आणि एआय मॉडेलची जटिलता यासह विविध व्हेरिएबल्समुळे AI भ्रम होतो.
अधिक चांगल्या प्रकारे समजून घेण्यासाठी, हे संकल्पनात्मकदृष्ट्या मानवांना ढगांमध्ये किंवा चंद्रावरचे चेहरे कसे दिसतात यासारखेच आहे.
एक उदाहरणः
या उदाहरणात, मी एक अतिशय सोपा प्रश्न विचारला चॅटजीपीटी. मला असे उत्तर मिळायचे होते, "ड्यून पुस्तक मालिकेचे लेखक फ्रँक हर्बर्ट आहेत."
हे का होते?
सुसंगत आणि प्रवाही सामग्री लिहिण्यासाठी तयार केलेली असूनही, मोठ्या भाषेचे मॉडेल प्रत्यक्षात ते काय बोलत आहेत हे समजण्यास अक्षम आहेत. AI-व्युत्पन्न सामग्रीची विश्वासार्हता निश्चित करण्यासाठी हे खूप महत्वाचे आहे.
हे मॉडेल मानवी वर्तनाची नक्कल करणाऱ्या प्रतिक्रिया निर्माण करू शकतात, त्यांच्याकडे संदर्भात्मक जागरूकता आणि गंभीर विचार कौशल्यांचा अभाव आहे जे वास्तविक बुद्धिमत्तेला आधार देते.
परिणामी, AI-व्युत्पन्न केलेले आउटपुट दिशाभूल करणारे किंवा चुकीचे असण्याचा धोका चालवतात कारण ते तथ्यात्मक अचूकतेपेक्षा जुळणारे नमुने पसंत करतात.
भ्रमाची आणखी काही प्रकरणे कोणती असू शकतात?
धोकादायक चुकीची माहिती: समजा जनरेटिव्ह AI चॅटबॉट एखाद्या सार्वजनिक व्यक्तीवर गुन्हेगारी वर्तनाचा खोटा आरोप करण्यासाठी पुरावे आणि पुरावे तयार करतो. या दिशाभूल करणाऱ्या माहितीमध्ये व्यक्तीच्या प्रतिष्ठेला हानी पोहोचण्याची आणि अन्यायकारक बदला घेण्याची क्षमता आहे.
विचित्र किंवा भितीदायक उत्तरे: एक विनोदी उदाहरण देण्यासाठी, चॅटबॉट वापरकर्त्याला हवामानाचा प्रश्न देत आहे आणि मांजरी आणि कुत्र्यांसारखे दिसणाऱ्या पावसाच्या थेंबांच्या चित्रांसह मांजरी आणि कुत्र्यांचा पाऊस पडेल अशा अंदाजासह उत्तर देतो. जरी ते मजेदार असले तरी, तरीही हे "विभ्रम" असेल.
तथ्यात्मक अयोग्यता: गृहीत धरा भाषा मॉडेल-आधारित चॅटबॉट खोटे सांगते की चीनची ग्रेट वॉल केवळ विशिष्ट परिस्थितीतच दृश्यमान आहे हे स्पष्ट न करता अंतराळातून पाहिले जाऊ शकते. ही टिप्पणी काहींना प्रशंसनीय वाटू शकते, परंतु ती चुकीची आहे आणि अंतराळातून भिंतीच्या दृश्याबद्दल लोकांची दिशाभूल करू शकते.
एक वापरकर्ता म्हणून तुम्ही एआय हेलुसिनेशन कसे टाळता?
स्पष्ट सूचना करा
तुम्हाला एआय मॉडेल्सशी स्पष्टपणे संवाद साधण्याची आवश्यकता आहे.
लिहिण्यापूर्वी तुमच्या उद्दिष्टांचा विचार करा आणि तुमच्या सूचनांची रचना करा.
उदाहरणार्थ, “इंटरनेट बद्दल मला सांगा” अशी सामान्य चौकशी करण्याऐवजी “इंटरनेट कसे कार्य करते ते स्पष्ट करा आणि आधुनिक समाजात त्याचे महत्त्व याबद्दल परिच्छेद लिहा” यासारख्या विशिष्ट सूचना द्या.
स्पष्टता AI मॉडेलला तुमचा हेतू स्पष्ट करण्यात मदत करते.
उदाहरण: AI ला यासारखे प्रश्न विचारा:
"क्लाउड कॉम्प्युटिंग म्हणजे काय आणि ते कसे कार्य करते?"
"मॉडेलच्या कामगिरीवर डेटा ड्रिफ्टचा प्रभाव स्पष्ट करा."
"IT व्यवसायावर VR तंत्रज्ञानाचा प्रभाव आणि संभाव्य भविष्यावर चर्चा करा."
उदाहरणाची शक्ती स्वीकारा
तुमच्या प्रॉम्प्टमध्ये उदाहरणे देण्याने AI मॉडेलना संदर्भ समजण्यात आणि तंतोतंत प्रत्युत्तरे जनरेट करण्यात मदत होते. तुम्ही ऐतिहासिक अंतर्दृष्टी किंवा तांत्रिक स्पष्टीकरण शोधत असाल तरीही, उदाहरणे प्रदान केल्याने AI-व्युत्पन्न सामग्रीची अचूकता वाढविण्यात मदत होऊ शकते.
उदाहरणार्थ, तुम्ही म्हणू शकता, "हॅरी पॉटरसारख्या काल्पनिक कादंबऱ्यांचा उल्लेख करा."
जटिल कार्ये खंडित करा
कॉम्प्लेक्स एआय अल्गोरिदम ओव्हरलोड करण्यास सूचित करते आणि ते असंबद्ध परिणामांना कारणीभूत ठरू शकतात. हे टाळण्यासाठी, जटिल क्रियाकलापांना लहान, अधिक व्यवस्थापित करण्यायोग्य तुकड्यांमध्ये विभाजित करा. तुमचे प्रॉम्प्ट्स क्रमशः आयोजित करून, तुम्ही AI ला प्रत्येक घटकावर स्वतंत्रपणे लक्ष केंद्रित करण्यास अनुमती देता, परिणामी अधिक तार्किक उत्तरे मिळतात.
उदाहरणार्थ, एआयला “ए तयार करण्याच्या प्रक्रियेचे स्पष्टीकरण देण्यास सांगण्याऐवजी मज्जासंस्थेसंबंधीचा नेटवर्क" एकाच क्वेरीमध्ये, असाइनमेंट वेगळ्या टप्प्यांमध्ये मोडून टाका जसे की समस्या व्याख्या आणि डेटा संकलन.
आउटपुट सत्यापित करा आणि अभिप्राय द्या
AI मॉडेल्सद्वारे उत्पादित केलेले परिणाम नेहमी दोनदा तपासा, विशेषतः तथ्य-आधारित किंवा महत्त्वपूर्ण क्रियाकलापांसाठी. प्रत्युत्तरांची विश्वसनीय स्त्रोतांशी तुलना करा आणि कोणतेही फरक किंवा त्रुटी लक्षात घ्या.
भविष्यातील कार्यप्रदर्शन वाढविण्यासाठी आणि भ्रम कमी करण्यासाठी AI प्रणालीला इनपुट प्रदान करा.
एआय हेलुसिनेशन टाळण्यासाठी विकासकांसाठी धोरणे
पुनर्प्राप्ती-संवर्धित जनरेशन (RAG) लागू करा.
विश्वासार्ह डेटाबेसेसमधील वस्तुस्थितींवर आधारित प्रत्युत्तर देण्यासाठी AI सिस्टीममध्ये पुनर्प्राप्ती-संवर्धित जनरेशन तंत्र समाकलित करा.
Retrieval-Augmented Generation (RAG) मानक नैसर्गिक भाषेच्या निर्मितीला मोठ्या ज्ञानाच्या आधारे संबंधित माहिती मिळविण्याच्या आणि अंतर्भूत करण्याच्या क्षमतेसह एकत्रित करते, परिणामी अधिक संदर्भानुसार समृद्ध उत्पादन मिळते.
AI-व्युत्पन्न सामग्री प्रमाणित डेटा स्रोतांसह विलीन करून, तुम्ही AI परिणामांची विश्वासार्हता आणि विश्वासार्हता सुधारू शकता.
सतत AI आउटपुट प्रमाणित आणि मॉनिटर करा
रिअल-टाइममध्ये AI आउटपुटची शुद्धता आणि सातत्य सत्यापित करण्यासाठी कठोर प्रमाणीकरण प्रक्रिया सेट करा. AI कार्यप्रदर्शनाचे लक्षपूर्वक निरीक्षण करा, संभाव्य भ्रम किंवा चुका पहा आणि कालांतराने विश्वासार्हता वाढवण्यासाठी मॉडेल प्रशिक्षण आणि त्वरित ऑप्टिमायझेशनवर पुनरावृत्ती करा.
उदाहरणार्थ, वास्तविक अचूकतेसाठी AI-व्युत्पन्न सामग्री तपासण्यासाठी स्वयंचलित प्रमाणीकरण दिनचर्या वापरा आणि मॅन्युअल मूल्यांकनासाठी संभाव्य भ्रमाची उदाहरणे हायलाइट करा.
डेटा ड्रिफ्टसाठी तपासा
डेटा ड्रिफ्ट ही एक घटना आहे ज्यामध्ये एआय मॉडेलला प्रशिक्षण देण्यासाठी वापरल्या जाणाऱ्या डेटाची सांख्यिकीय वैशिष्ट्ये वेळेनुसार बदलतात. जर एआय मॉडेल अनुमानादरम्यान त्याच्या प्रशिक्षण डेटापेक्षा लक्षणीय भिन्न डेटा पूर्ण करतो, तर ते चुकीचे किंवा अतार्किक परिणाम देऊ शकते, परिणामी भ्रम निर्माण होतो.
उदाहरणार्थ, जर AI मॉडेलला पूर्वीच्या डेटावर प्रशिक्षित केले गेले जे यापुढे संबंधित किंवा वर्तमान वातावरणाचे सूचक नसेल, तर ते चुकीचे निष्कर्ष किंवा अंदाज लावू शकते.
परिणामी, एआय सिस्टमची कार्यक्षमता आणि विश्वासार्हता सुनिश्चित करण्यासाठी आणि भ्रमाची शक्यता कमी करण्यासाठी डेटा ड्रिफ्ट्सचे निरीक्षण आणि निराकरण करणे महत्वाचे आहे.
निष्कर्ष
IBM डेटा नुसार, AI मॉडेल्सच्या सुमारे 3% ते 10% उत्तरांमध्ये AI भ्रम होतो.
म्हणून, एक किंवा दुसर्या मार्गाने, आपण कदाचित त्यांचे देखील निरीक्षण कराल. माझा विश्वास आहे की हा एक आश्चर्यकारकपणे मनोरंजक विषय आहे कारण हा AI च्या क्षमता वाढवण्याच्या सततच्या रस्त्याची एक आकर्षक आठवण आहे.
आम्हाला AI ची विश्वासार्हता, डेटा प्रोसेसिंगची गुंतागुंत आणि मानवी-AI परस्परसंवादाचे निरीक्षण आणि प्रयोग करायला मिळतात.
प्रत्युत्तर द्या