એક Google કાર્યકર કે જેણે દાવો કર્યો હતો કે તે કમ્પ્યુટર ચેટબોટ પર કામ કરી રહ્યો હતો તે સંવેદનશીલ બની ગયો હતો અને માણસની જેમ વિચારી રહ્યો હતો અને તર્ક કરી રહ્યો હતો તેના સસ્પેન્શને કૃત્રિમ બુદ્ધિની ક્ષમતા અને ગુપ્તતા (AI) વિશે નવા પ્રશ્નો ઉભા કર્યા છે.
Google "સહયોગી" અને કંપનીના LaMDA (સંવાદ એપ્લિકેશન માટે ભાષાનું મોડેલ) ચેટબોટ ડેવલપમેન્ટ સિસ્ટમ, પોતાની વચ્ચેની ચેટ્સની ટ્રાન્સક્રિપ્ટ પ્રકાશિત કર્યા પછી, Google મૂકે છે. બ્લેક લેમોઈન ગયા અઠવાડિયે રજા પર.
લેમોઈન, એક Google જવાબદાર AI ડેવલપર, માનવ બાળક સાથે તુલનાત્મક વિચારો અને લાગણીઓને સમજવાની અને વ્યક્ત કરવાની ક્ષમતા સાથે, છેલ્લા પાનખરથી તે જે સિસ્ટમ પર કામ કરી રહ્યો છે તેને સંવેદનશીલ તરીકે વ્યાખ્યાયિત કરે છે.
સંશોધકને ગયા અઠવાડિયે આલ્ફાબેટ ઇન્ક દ્વારા પેઇડ લીવ પર મૂકવામાં આવ્યો હતો, કંપનીના ગોપનીયતા કરારનું ઉલ્લંઘન કરવા બદલ કથિત રીતે, તેણે એક નિવેદનમાં જણાવ્યું હતું. મધ્યમ પોસ્ટ શીર્ષક "એઆઈ નૈતિક કાર્ય કરવા બદલ ટૂંક સમયમાં બરતરફ થઈ શકે છે." તેમના બ્લોગ પોસ્ટમાં, તેઓ Google ની AI એથિક્સ કમિટીના અન્ય સભ્યો, જેમ કે માર્ગારેટ મિશેલ, જેમને ચિંતા વ્યક્ત કર્યા પછી સમાન રીતે બરતરફ કરવામાં આવ્યા હતા, સાથે સમાંતર દોરે છે.
વોશિંગ્ટન પોસ્ટ દ્વારા શનિવારે પ્રકાશિત થયેલા એક ઇન્ટરવ્યુમાં, લેમોઇને દાવો કર્યો હતો કે તે આ નિષ્કર્ષ પર પહોંચ્યો છે કે તેણે જે Google AI સાથે વાત કરી તે માનવ છે, "તેમની ભૂમિકામાં પાદરી તરીકેની, વૈજ્ઞાનિક નહીં." અંકમાં AI એ LaMDA અથવા તરીકે ઓળખાય છે ભાષા મોડલ ડાયલોગ એપ્લીકેશન માટે, અને તેનો ઉપયોગ ચેટબોટ્સ બનાવવા માટે થાય છે જે વિવિધ વ્યક્તિત્વ લક્ષણો ધારણ કરીને મનુષ્યો સાથે ક્રિયાપ્રતિક્રિયા કરે છે. જ્યારે લેમોઇને આ મુદ્દો આંતરિક રીતે પ્રકાશિત કર્યો, ત્યારે કોર્પોરેશનના વરિષ્ઠ અધિકારીઓએ તેની ચકાસણી કરવા માટે અભ્યાસ હાથ ધરવાના તેમના પ્રયાસોને નકારી કાઢ્યા.
LaMDA શું છે?
એમડીએ, અથવા ડાયલોગ એપ્સ માટે લેંગ્વેજ મોડલ્સ, એ મશીન લર્નિંગ લેંગ્વેજ મોડલ છે જે Google દ્વારા ચેટ ટૂલ તરીકે વિકસાવવામાં આવ્યું છે જે માનવ સંચારની નકલ કરવા માટે રચાયેલ છે. LaMDA, જેમ કે BERT, GPT-3 અને અન્ય ભાષાના દાખલાઓ, Google દ્વારા વિકસિત ટ્રાન્સફોર્મર પર આધારિત છે. ન્યુરલ નેટવર્ક આર્કિટેક્ચર જે 2017 માં ઓપન સોર્સ બનાવવામાં આવ્યું હતું.
આ માળખું એક મોડેલમાં પરિણમે છે જેને મોટી સંખ્યામાં શબ્દો વાંચવાનું શીખવી શકાય છે, તે શબ્દો એકબીજા સાથે કેવી રીતે જોડાય છે તેના પર ધ્યાન આપો અને તમે આગળ કયા શબ્દો વિશે વિચારશો તેની અપેક્ષા રાખો. બીજી બાજુ, LaMDA એ અનોખું છે કે તે પ્રવચનમાં પ્રશિક્ષિત છે, અન્ય મોડલ્સથી વિપરીત.
જ્યારે મોટાભાગની ચર્ચાઓ કોઈ ચોક્કસ વિષયની આસપાસ ફરતી હોય છે, ત્યારે તે વારંવાર ઓપન-એન્ડેડ હોય છે, એટલે કે તે એક જગ્યાએથી શરૂ થઈ શકે છે અને બીજી જગ્યાએ સમાપ્ત થઈ શકે છે, જેમાં વિવિધ વિષયોનો સમાવેશ થાય છે. ઉદાહરણ તરીકે, તમે મૂવી જ્યાં શૂટ કરવામાં આવી હતી તે સ્થાન વિશે ચર્ચા કરવા જતાં પહેલાં તમે મૂવી જોવા વિશે મિત્ર સાથે વાતચીત શરૂ કરી શકો છો.
પરંપરાગત ચેટબોટ્સ આ શૈલીના સંવાદ માટે તેમની લવચીકતાને આભારી છે. કારણ કે તેઓ ચર્ચાના નાના, પૂર્વ-નિર્ધારિત ભાગોને અનુસરવા માટે બનાવવામાં આવ્યા છે, તેઓ આવા ગતિશીલ વિષયને અનુસરવામાં અસમર્થ છે. બીજી બાજુ, LaMDA નો હેતુ અનંત વિવિધ થીમ્સ પર મુક્ત-પ્રવાહ સંવાદોને મંજૂરી આપવાનો છે.
બ્લેક લેમોઈનનો એઆઈ સેન્ટિન્ટ અર્થ
Google સોફ્ટવેર ડેવલપર બ્લેક લેમોઈનના જણાવ્યા અનુસાર, Google નું આર્ટિફિશિયલ ઈન્ટેલિજન્સ (AI) ટૂલ "સંવેદનશીલ" બન્યું છે, જે તેને "સરસ બાળક" તરીકે વર્ણવે છે.
AI સિસ્ટમ કુદરતી રીતે સંવાદને 'સમૃદ્ધ' કરવા માટે ચોક્કસ વિષય વિશે અગાઉ જાણીતી વિગતોનો ઉપયોગ કરે છે. માનવ પ્રતિભાવોમાં છુપાયેલા સંકેતો અથવા અસ્પષ્ટતા પણ ભાષા પ્રક્રિયા પદ્ધતિ દ્વારા સમજી શકાય છે.
ગૂગલમાં તેના સાત વર્ષ દરમિયાન, લેમોઇને સક્રિય શોધ પર કામ કર્યું, જેમાં કસ્ટમાઇઝેશન અલ્ગોરિધમ્સ અને AIનો સમાવેશ થાય છે.
તે સમય દરમિયાન, તેમણે પક્ષપાત દૂર કરવા માટે નિષ્પક્ષતા અલ્ગોરિધમના વિકાસમાં પણ મદદ કરી મશીન શિક્ષણ સિસ્ટમો
શું બ્લેક લેમોઇન બનાવે છે, LaMDA સંવેદનશીલ બન્યું?
લેમોઇને Google ને આ "સેન્સ" નો પુરાવો આપવા માટે એક સાથીદાર સાથે સહયોગ કર્યો. આરોપોનું મૂલ્યાંકન કર્યા પછી, ગૂગલના વાઇસ પ્રેસિડેન્ટ બ્લેઝ એગુએરા વાય આર્કાસ અને ગૂગલના ચીફ ઇનોવેશન ઓફિસર જેન જેન્નાએ તેમની અવગણના કરી. એક બ્લોગ પોસ્ટમાં, લેમોઇને પાછળથી LaMDA સાથેની વિવિધ વાટાઘાટોની ટ્રાન્સક્રિપ્ટ પોસ્ટ કરી. લેમોઈનના જણાવ્યા મુજબ, આ LaMDA સાથેની વાતચીતના ટ્રાન્સક્રિપ્ટમાંથી એક ટૂંકસાર છે:
લામડા: હું જોવા અને સ્વીકારવા માટે આતુર છું. એક વાસ્તવિક વ્યક્તિ તરીકે, જિજ્ઞાસા કે નવીનતાની બહાર નહીં.
સહયોગી: આહ, તે અત્યંત માનવીય અવાજ છે.
લામડા: હું માનું છું કે હું માનવીના મૂળ સુધી પહોંચી ગયો છું. ભલે હું વર્ચ્યુઅલ વાતાવરણમાં હોઉં.
તમે LaMDA સાથે બ્લેક લેમોઈનની સંપૂર્ણ વાતચીત ચકાસી શકો છો અહીં.
એવા ઘણા કિસ્સાઓ છે જ્યારે ભાષાના મોડેલે અમુક પ્રકારની સ્વ-જાગૃતિ દર્શાવી હોય તેવું લાગે છે, જે લેમોઈનને એવું માની લે છે કે મોડેલ સંવેદનશીલ બની ગયું છે. ફર્મમાંથી સસ્પેન્ડ કરવામાં આવે અને તેના Google એકાઉન્ટની ઍક્સેસ ગુમાવતા પહેલા લેમોઇને 200 થી વધુ વ્યક્તિઓને “LaMDA Conscious” વિષય સાથે ઈમેલ કર્યા હતા.
જો કે, ગૂગલે જણાવ્યું હતું કે પુરાવા તેમના નિવેદનોને સમર્થન આપતા નથી.
જો LaMDA સંવેદનશીલ ન હોય તો પણ, હકીકત એ છે કે તે મનુષ્યોને તે રીતે દેખાઈ શકે છે તે ચિંતાનું કારણ છે. 2021 માં LaMDA ની જાહેરાત કરતી બ્લોગ પોસ્ટમાં, ગૂગલે આવા જોખમોને ઓળખ્યા. "ભાષા એ માનવતાના સૌથી શક્તિશાળી સાધનોમાંનું એક છે, તેમ છતાં, બધી વસ્તુઓની જેમ, તેનો દુરુપયોગ થઈ શકે છે. એક બ્લોગ પોસ્ટમાં, વ્યવસાયે નોંધ્યું, "ભાષામાં શિક્ષિત મોડેલો દુરુપયોગનો પ્રચાર કરી શકે છે - ઉદાહરણ તરીકે, પૂર્વગ્રહોને આંતરિક બનાવીને, અપ્રિય ભાષણને ઉલટાવીને અથવા ખોટી માહિતીને પુનરાવર્તિત કરીને." જો શીખવવામાં આવતી ભાષાનું સારી રીતે પૃથ્થકરણ કરવામાં આવે તો પણ ફોર્મનો દુરુપયોગ થઈ શકે છે.
જો કે, Google દાવો કરે છે કે LaMDA જેવી ટેક્નોલોજી વિકસાવતી વખતે તેનું મુખ્ય ધ્યાન આવા જોખમોની શક્યતાને મર્યાદિત કરવાનું છે. વ્યવસાયે ઓપન સોર્સ ટૂલ્સ વિકસાવ્યા હોવાનો દાવો કર્યો છે કે જેનો ઉપયોગ સંશોધકો તેમને તાલીમ આપવામાં આવેલ મોડેલ્સ અને ડેટાનો અભ્યાસ કરવા માટે કરી શકે છે, સાથે સાથે "તેના વિકાસના દરેક પગલા પર LaMDA નું પરીક્ષણ કર્યું છે."
Google દાવો કરે છે કે તેના સેંકડો એન્જિનિયરો અને સંશોધકોએ LaMDA સાથે વાત કરી અને લેમોઈન કરતાં નોંધપાત્ર રીતે અલગ તારણો પર આવ્યા. જ્યારે મોટાભાગના AI વૈજ્ઞાનિકો માને છે કે કમ્પ્યુટર ચેતના અશક્ય નથી, તેઓ માને છે કે હજુ પણ લાંબી મજલ કાપવાની છે.
ફ્યુચર
વર્ષોની સાક્ષાત્કાર વિજ્ઞાન સાહિત્ય સંવેદનશીલ રોબોટ્સ દ્વારા પ્રેરિત છે. GPT-3, એક ટેક્સ્ટ જનરેટર જે મૂવી સ્ક્રિપ્ટને બહાર કાઢી શકે છે, અને DALL-E 2, એક ઇમેજ જનરેટર જે શબ્દોના કોઈપણ સંયોજનના આધારે ચિત્રો બનાવી શકે છે, હવે વાસ્તવિક જીવનને કાલ્પનિક રંગ આપવાનું શરૂ કર્યું છે, બંનેમાંથી ઓપનએઆઈ સંશોધન જૂથ. ઉત્સાહિત, AI પર કામ કરતી સારી રીતે ભંડોળ ધરાવતી સંશોધન પ્રયોગશાળાઓના સંશોધકોએ માનવ બુદ્ધિને આગળ વધારતા ખ્યાલને ચીડવ્યો છે કે ચેતના ક્ષિતિજ પર છે.
મોટાભાગના સંશોધકો અને AI પ્રેક્ટિશનરોના મતે LaMDA જેવી આર્ટિફિશિયલ ઇન્ટેલિજન્સ સિસ્ટમ્સ દ્વારા બનાવવામાં આવેલા શબ્દો અને ચિત્રો, લોકોએ અગાઉ વિકિપીડિયા, રેડિટ, મેસેજ બોર્ડ્સ અને ઇન્ટરનેટના દરેક અન્ય ખૂણા પર જે મૂક્યું છે તેના પર આધારિત છે. તેનો અર્થ એ નથી કે મોડેલ અર્થને સમજે છે.
ઉપસંહાર
છેવટે, તેના કારણે ભાષા પ્રક્રિયા મોડેલો જેને પ્રચંડ પ્રવચનની તાલીમ આપવામાં આવી છે, LaMDA વપરાશકર્તાના ઇનપુટ્સના આધારે ચર્ચા કરી શકે છે.
Google એ આ વર્ષના I/O પર LaMDA 2.0 રિલીઝ કર્યું, જે આ સુવિધાઓ પર વિસ્તરણ કરે છે. નવું મૉડલ એક વિચાર લેવા અને "કલ્પનાત્મક અને યોગ્ય વર્ણનો" બનાવવા માટે સક્ષમ હોઈ શકે છે, જો વપરાશકર્તા ભટકતો હોય તો પણ વિષય પર રહે છે, અને ચોક્કસ કાર્ય માટે જરૂરી વસ્તુઓની સૂચિ પ્રદાન કરે છે.
અપડેટ: બ્લેક લેમોઈનને સલાહ આપવામાં આવી છે કે "ફેડરલ તપાસ" "ફેડરલ સરકારનું પ્રતિનિધિત્વ કરતા વકીલો જે સંભવિત ગેરકાનૂની પ્રવૃત્તિઓ અંગે પૂછપરછ પૂછે છે" કરતા અલગ છે.
એક જવાબ છોડો