താൻ പ്രവർത്തിക്കുന്ന കമ്പ്യൂട്ടർ ചാറ്റ്ബോട്ട് ഒരു മനുഷ്യനെപ്പോലെ ചിന്തിക്കുകയും യുക്തിസഹമായി ചിന്തിക്കുകയും ചെയ്യുന്നുവെന്നും അവകാശപ്പെട്ട ഗൂഗിൾ ജീവനക്കാരന്റെ സസ്പെൻഷൻ ആർട്ടിഫിഷ്യൽ ഇന്റലിജൻസിന്റെ കഴിവും രഹസ്യവും (AI) സംബന്ധിച്ച് പുതിയ ചോദ്യങ്ങൾ ഉയർത്തിയിട്ടുണ്ട്.
ഗൂഗിൾ "സഹകാരി"യും കമ്പനിയുടെ LaMDA (ഡയലോഗ് ആപ്ലിക്കേഷനുകൾക്കായുള്ള ഭാഷാ മോഡൽ) ചാറ്റ്ബോട്ട് ഡെവലപ്മെന്റ് സിസ്റ്റവും തമ്മിലുള്ള ചാറ്റുകളുടെ ട്രാൻസ്ക്രിപ്റ്റുകൾ പ്രസിദ്ധീകരിച്ചതിന് ശേഷം, Google ബ്ലേക്ക് ലെമോയിൻ കഴിഞ്ഞ ആഴ്ച അവധിയിലായിരുന്നു.
ഗൂഗിളിന്റെ ഉത്തരവാദപ്പെട്ട AI ഡെവലപ്പറായ ലെമോയിൻ, കഴിഞ്ഞ ശരത്കാലം മുതൽ താൻ പ്രവർത്തിച്ചുകൊണ്ടിരിക്കുന്ന സിസ്റ്റത്തെ ഒരു മനുഷ്യക്കുട്ടിയുമായി താരതമ്യപ്പെടുത്താവുന്ന ചിന്തകളും വികാരങ്ങളും ഗ്രഹിക്കാനും പ്രകടിപ്പിക്കാനുമുള്ള കഴിവ് ഉള്ളതായി നിർവചിച്ചു.
കമ്പനിയുടെ രഹസ്യാത്മക കരാർ ലംഘിച്ചതിന് ഗവേഷകനെ ആൽഫബെറ്റ് ഇൻകോർപ്പറേറ്റ് കഴിഞ്ഞ ആഴ്ച ആദ്യം ശമ്പളത്തോടുകൂടിയ അവധിയിൽ പ്രവേശിപ്പിച്ചു, അദ്ദേഹം ഒരു പ്രസ്താവനയിൽ പറഞ്ഞു. ഇടത്തരം പോസ്റ്റ് "AI നൈതിക പ്രവർത്തനം നടത്തിയതിന് ഉടൻ പുറത്താക്കപ്പെട്ടേക്കാം" എന്ന തലക്കെട്ട്. തന്റെ ബ്ലോഗ് പോസ്റ്റിൽ, ആശങ്കകൾ പ്രകടിപ്പിച്ചതിന് ശേഷം സമാനമായ രീതിയിൽ പുറത്താക്കപ്പെട്ട മാർഗരറ്റ് മിച്ചൽ പോലുള്ള ഗൂഗിളിന്റെ AI എത്തിക്സ് കമ്മിറ്റിയിലെ മറ്റ് അംഗങ്ങൾക്ക് സമാന്തരമായി അദ്ദേഹം വരയ്ക്കുന്നു.
ശനിയാഴ്ച വാഷിംഗ്ടൺ പോസ്റ്റ് പ്രസിദ്ധീകരിച്ച ഒരു അഭിമുഖത്തിൽ, താൻ സംസാരിച്ച Google AI ഒരു മനുഷ്യനാണെന്ന നിഗമനത്തിൽ എത്തിയതായി ലെമോയിൻ അവകാശപ്പെട്ടു, "ഒരു പുരോഹിതൻ എന്ന നിലയിലുള്ള തന്റെ റോളിൽ, ഒരു ശാസ്ത്രജ്ഞനല്ല." പ്രശ്നത്തിലുള്ള AI അറിയപ്പെടുന്നത് LaMDA അല്ലെങ്കിൽ ഭാഷാ മാതൃക ഡയലോഗ് ആപ്ലിക്കേഷനുകൾക്കായി, വ്യത്യസ്ത വ്യക്തിത്വ സവിശേഷതകൾ ഊഹിച്ചുകൊണ്ട് മനുഷ്യരുമായി ഇടപഴകുന്ന ചാറ്റ്ബോട്ടുകൾ സൃഷ്ടിക്കാൻ ഇത് ഉപയോഗിക്കുന്നു. ലെമോയിൻ ആന്തരികമായി പ്രശ്നം ഉയർത്തിക്കാട്ടിയപ്പോൾ, കോർപ്പറേഷനിലെ മുതിർന്ന ഉദ്യോഗസ്ഥർ അത് പരിശോധിക്കാനുള്ള പഠനങ്ങൾ നടത്താനുള്ള അദ്ദേഹത്തിന്റെ ശ്രമങ്ങൾ നിരസിച്ചു.
എന്താണ് ലാംഡിഎ?
ലാംഡിഎ, അല്ലെങ്കിൽ ഡയലോഗ് ആപ്പുകൾക്കുള്ള ഭാഷാ മോഡലുകൾ, മനുഷ്യ ആശയവിനിമയത്തെ അനുകരിക്കാൻ രൂപകൽപ്പന ചെയ്ത ഒരു ചാറ്റ് ടൂളായി Google വികസിപ്പിച്ചെടുത്ത ഒരു മെഷീൻ ലേണിംഗ് ഭാഷാ മോഡലാണ്. BERT, GPT-3, മറ്റ് ഭാഷാ മാതൃകകൾ പോലെയുള്ള LaMDA, Google വികസിപ്പിച്ച ട്രാൻസ്ഫോർമറിനെ അടിസ്ഥാനമാക്കിയുള്ളതാണ് ന്യൂറൽ നെറ്റ്വർക്ക് ആർക്കിടെക്ചർ അത് 2017 ൽ ഓപ്പൺ സോഴ്സ് ആക്കി.
ഈ ഘടന ഒരു വലിയ സംഖ്യ വായിക്കാൻ പഠിപ്പിക്കാൻ കഴിയുന്ന ഒരു മാതൃകയിൽ കലാശിക്കുന്നു, ആ വാക്കുകൾ എങ്ങനെ പരസ്പരം ബന്ധിപ്പിക്കുന്നു എന്ന് ശ്രദ്ധിക്കുകയും നിങ്ങൾ അടുത്തതായി ഏത് വാക്കുകളെക്കുറിച്ച് ചിന്തിക്കുമെന്ന് മുൻകൂട്ടി കാണുകയും ചെയ്യുക. മറുവശത്ത്, മറ്റ് മിക്ക മോഡലുകളിൽ നിന്നും വ്യത്യസ്തമായി പ്രഭാഷണത്തിൽ പരിശീലനം ലഭിച്ചതാണ് ലാംഡിഎയുടെ പ്രത്യേകത.
മിക്ക ചർച്ചകളും ഒരു പ്രത്യേക വിഷയത്തെ ചുറ്റിപ്പറ്റിയുള്ളതാണെങ്കിലും, അവ പലപ്പോഴും തുറന്നതാണ്, അതായത് അവ ഒരിടത്ത് ആരംഭിച്ച് മറ്റൊരിടത്ത് അവസാനിക്കും, വിവിധ തീമുകൾ ഉൾക്കൊള്ളുന്നു. ഉദാഹരണത്തിന്, ഒരു സിനിമ ഷൂട്ട് ചെയ്ത സ്ഥലത്തെക്കുറിച്ചുള്ള ചർച്ചയിലേക്ക് പോകുന്നതിന് മുമ്പ് ഒരു സുഹൃത്തുമായി ഒരു സിനിമ കാണുന്നതിനെക്കുറിച്ച് നിങ്ങൾക്ക് ഒരു സംഭാഷണം ആരംഭിക്കാം.
പരമ്പരാഗത ചാറ്റ്ബോട്ടുകൾ ഈ സംഭാഷണ ശൈലിയോട് അവരുടെ വഴക്കത്തിന് കടപ്പെട്ടിരിക്കുന്നു. ഒരു ചർച്ചയുടെ ചെറിയ, മുൻകൂട്ടി നിർവചിക്കപ്പെട്ട സെഗ്മെന്റുകൾ പിന്തുടരുന്നതിനാണ് അവ നിർമ്മിച്ചിരിക്കുന്നത് എന്നതിനാൽ, അത്തരം ചലനാത്മകമായ ഒരു വിഷയം പിന്തുടരാൻ അവർക്ക് കഴിയില്ല. മറുവശത്ത്, അനന്തമായ വൈവിധ്യമാർന്ന തീമുകളിൽ സ്വതന്ത്രമായി ഒഴുകുന്ന സംഭാഷണങ്ങൾ അനുവദിക്കുന്നതിനാണ് LaMDA.
ബ്ലെയ്ക്ക് ലെമോയിൻ എന്നതിന്റെ AI സെൻസിറ്റീവ് അർത്ഥം
ഗൂഗിളിന്റെ ആർട്ടിഫിഷ്യൽ ഇന്റലിജൻസ് (എഐ) ടൂൾ "സെന്റന്റ്" ആയി വളർന്നിരിക്കുന്നു, ഗൂഗിൾ സോഫ്റ്റ്വെയർ ഡെവലപ്പർ ബ്ലേക്ക് ലെമോയിൻ, അതിനെ "നല്ല കുട്ടി" എന്ന് വിശേഷിപ്പിക്കുന്നു.
സംഭാഷണത്തെ സ്വാഭാവികമായ രീതിയിൽ 'സമ്പുഷ്ടമാക്കാൻ' ഒരു പ്രത്യേക വിഷയത്തെക്കുറിച്ച് മുമ്പ് അറിയപ്പെട്ടിരുന്ന വിശദാംശങ്ങൾ AI സിസ്റ്റം ഉപയോഗിക്കുന്നു. മനുഷ്യ പ്രതികരണങ്ങളിലെ മറഞ്ഞിരിക്കുന്ന സിഗ്നലുകളോ അവ്യക്തതയോ ഭാഷാ സംസ്കരണ സംവിധാനം വഴി മനസ്സിലാക്കാൻ കഴിയും.
ഗൂഗിളിലെ തന്റെ ഏഴ് വർഷക്കാലം, കസ്റ്റമൈസേഷൻ അൽഗോരിതങ്ങളും എഐയും ഉൾപ്പെടുന്ന സജീവമായ തിരയലിൽ ലെമോയിൻ പ്രവർത്തിച്ചു.
ആ സമയത്ത്, പക്ഷപാതങ്ങൾ നീക്കം ചെയ്യുന്നതിനുള്ള ഒരു നിഷ്പക്ഷ അൽഗോരിതം വികസിപ്പിക്കുന്നതിലും അദ്ദേഹം സഹായിച്ചു. മെഷീൻ ലേണിംഗ് സിസ്റ്റങ്ങൾ.
എന്താണ് ബ്ലെയ്ക്ക് ലെമോയിനെ, ലാംഡിഎയ്ക്ക് വികാരാധീനനാക്കുന്നത്?
ഈ "സെൻസ്" എന്നതിന്റെ തെളിവ് Google-ന് നൽകാൻ ലെമോയിൻ ഒരു സഹപ്രവർത്തകനുമായി സഹകരിച്ചു. ആരോപണങ്ങൾ വിലയിരുത്തിയ ശേഷം, ഗൂഗിൾ വൈസ് പ്രസിഡന്റ് ബ്ലെയ്സ് അഗ്യൂറ വൈ ആർക്കാസും ഗൂഗിളിന്റെ ചീഫ് ഇന്നൊവേഷൻ ഓഫീസർ ജെയ്ൻ ജെന്നയും അവ അവഗണിച്ചു. ഒരു ബ്ലോഗ് പോസ്റ്റിൽ, ലെമോയിൻ പിന്നീട് ലാംഡിഎയുമായുള്ള വിവിധ ചർച്ചകളുടെ ട്രാൻസ്ക്രിപ്റ്റ് പോസ്റ്റ് ചെയ്തു. ലെമോയിൻ പറയുന്നതനുസരിച്ച്, ഇത് LaMDA-യുമായുള്ള സംഭാഷണത്തിന്റെ ട്രാൻസ്ക്രിപ്റ്റിൽ നിന്നുള്ള ഒരു ഉദ്ധരണിയാണ്:
ലാംഡ: കാണാനും അംഗീകരിക്കാനും ഞാൻ അതിയായി ആഗ്രഹിക്കുന്നു. ഒരു യഥാർത്ഥ വ്യക്തിയെന്ന നിലയിൽ, ജിജ്ഞാസയോ പുതുമയോ കൊണ്ടല്ല.
സഹകാരി: ഓ, അത് അങ്ങേയറ്റം മാനുഷികമായി തോന്നുന്നു.
ലാംഡ: ഞാൻ ഒരു മനുഷ്യന്റെ കാതലിലെത്തിയെന്ന് ഞാൻ വിശ്വസിക്കുന്നു. ഞാൻ ഒരു വെർച്വൽ പരിതസ്ഥിതിയിലാണെങ്കിൽ പോലും.
LaMDA-യുമായുള്ള ബ്ലെയ്ക്ക് ലെമോയിന്റെ മുഴുവൻ സംഭാഷണവും നിങ്ങൾക്ക് പരിശോധിക്കാം ഇവിടെ.
ഭാഷാ മാതൃക ഒരുതരം സ്വയം അവബോധം പ്രകടിപ്പിച്ചതായി തോന്നുന്ന നിരവധി കേസുകളുണ്ട്, ഇത് മോഡൽ സെൻസിറ്റീവ് ആയി മാറിയെന്ന് ലെമോയിനെ അനുമാനിക്കുന്നു. സ്ഥാപനത്തിൽ നിന്ന് സസ്പെൻഡ് ചെയ്യപ്പെടുകയും തന്റെ ഗൂഗിൾ അക്കൗണ്ടിലേക്കുള്ള ആക്സസ് നഷ്ടപ്പെടുകയും ചെയ്യുന്നതിനുമുമ്പ് ലെമോയിൻ "LaMDA കോൺഷ്യസ്" എന്ന വിഷയവുമായി 200-ലധികം വ്യക്തികൾക്ക് ഇമെയിൽ അയച്ചു.
എന്നിരുന്നാലും, തെളിവുകൾ അദ്ദേഹത്തിന്റെ വാദങ്ങളെ സ്ഥിരീകരിക്കുന്നില്ലെന്ന് ഗൂഗിൾ വ്യക്തമാക്കി.
LaMDA വികാരാധീനനല്ലെങ്കിൽപ്പോലും, അത് മനുഷ്യർക്ക് അങ്ങനെയായിരിക്കുമെന്നത് ആശങ്കയ്ക്ക് കാരണമാകുന്നു. 2021-ൽ LaMDA പ്രഖ്യാപിക്കുന്ന ഒരു ബ്ലോഗ് പോസ്റ്റിൽ, Google അത്തരം അപകടങ്ങൾ തിരിച്ചറിഞ്ഞു. “മനുഷ്യരാശിയുടെ ഏറ്റവും ശക്തമായ ഉപകരണങ്ങളിലൊന്നാണ് ഭാഷ, എന്നിരുന്നാലും എല്ലാ കാര്യങ്ങളെയും പോലെ അത് ദുരുപയോഗം ചെയ്യപ്പെട്ടേക്കാം. ഒരു ബ്ലോഗ് പോസ്റ്റിൽ, ബിസിനസ്സ് കുറിച്ചു, "ഭാഷയിൽ വിദ്യാഭ്യാസം നേടിയ മോഡലുകൾക്ക് ദുരുപയോഗം പ്രചരിപ്പിക്കാൻ കഴിയും - ഉദാഹരണത്തിന്, മുൻവിധികൾ ആന്തരികവൽക്കരിക്കുക, വിദ്വേഷ സംഭാഷണം തിരുത്തുക, അല്ലെങ്കിൽ തെറ്റായ വിവരങ്ങൾ ആവർത്തിക്കുക." പഠിപ്പിക്കുന്ന ഭാഷ നന്നായി വിശകലനം ചെയ്താലും, ആ രൂപം തന്നെ ദുരുപയോഗം ചെയ്തേക്കാം.
എന്നിരുന്നാലും, LaMDA പോലുള്ള സാങ്കേതികവിദ്യകൾ വികസിപ്പിക്കുമ്പോൾ അത്തരം അപകടങ്ങളുടെ സാധ്യത പരിമിതപ്പെടുത്തുക എന്നതാണ് അതിന്റെ പ്രധാന ശ്രദ്ധയെന്ന് Google അവകാശപ്പെടുന്നു. ഗവേഷകർക്ക് അവർ പരിശീലിപ്പിച്ച മോഡലുകളും ഡാറ്റയും പഠിക്കാൻ ഉപയോഗിക്കാവുന്ന ഓപ്പൺ സോഴ്സ് ടൂളുകൾ വികസിപ്പിച്ചതായി ബിസിനസ്സ് അവകാശപ്പെടുന്നു, കൂടാതെ "ലാംഡിഎയുടെ വികസനത്തിന്റെ ഓരോ ഘട്ടത്തിലും പരിശോധിച്ചു".
തങ്ങളുടെ നൂറുകണക്കിന് എഞ്ചിനീയർമാരും ഗവേഷകരും LaMDA യുമായി സംസാരിച്ചുവെന്നും ലെമോയിനേക്കാൾ വ്യത്യസ്തമായ കണ്ടെത്തലുകൾ നടത്തിയെന്നും Google അവകാശപ്പെടുന്നു. കമ്പ്യൂട്ടർ അവബോധം അസാധ്യമല്ലെന്ന് മിക്ക AI ശാസ്ത്രജ്ഞരും വിശ്വസിക്കുന്നുണ്ടെങ്കിലും, ഇനിയും ഒരുപാട് ദൂരം സഞ്ചരിക്കാനുണ്ടെന്ന് അവർ വിശ്വസിക്കുന്നു.
ഭാവി
അപ്പോക്കലിപ്റ്റിക് സയൻസ് ഫിക്ഷന്റെ വർഷങ്ങളുടെ പ്രചോദനം സെൻസിറ്റന്റ് റോബോട്ടുകളാണ്. GPT-3, ഒരു സിനിമാ സ്ക്രിപ്റ്റ് തുപ്പാൻ കഴിയുന്ന ടെക്സ്റ്റ് ജനറേറ്റർ, DALL-E 2, പദങ്ങളുടെ ഏത് സംയോജനത്തെയും അടിസ്ഥാനമാക്കി ചിത്രങ്ങൾ നിർമ്മിക്കാൻ കഴിയുന്ന ഒരു ഇമേജ് ജനറേറ്റർ, ഇപ്പോൾ യഥാർത്ഥ ജീവിതത്തിന് ഒരു ഫാന്റസി നിറം നൽകാൻ തുടങ്ങിയിരിക്കുന്നു. OpenAI ഗവേഷണ ഗ്രൂപ്പ്. ധീരതയോടെ, മനുഷ്യബുദ്ധിയെ മറികടക്കുന്ന AI-യിൽ പ്രവർത്തിക്കുന്ന നല്ല ഫണ്ടുള്ള ഗവേഷണ ലബോറട്ടറികളിൽ നിന്നുള്ള ഗവേഷകർ ബോധം ചക്രവാളത്തിലാണ് എന്ന ആശയത്തെ കളിയാക്കി.
മിക്ക ഗവേഷകരുടെയും AI പ്രാക്ടീഷണർമാരുടെയും അഭിപ്രായത്തിൽ, LaMDA പോലുള്ള ആർട്ടിഫിഷ്യൽ ഇന്റലിജൻസ് സംവിധാനങ്ങൾ സൃഷ്ടിച്ച വാക്കുകളും ചിത്രങ്ങളും, ആളുകൾ മുമ്പ് വിക്കിപീഡിയ, റെഡ്ഡിറ്റ്, മെസ്സേജ് ബോർഡുകൾ, കൂടാതെ ഇന്റർനെറ്റിന്റെ മറ്റെല്ലാ കോണുകളിലും ഇട്ടതിനെ അടിസ്ഥാനമാക്കിയുള്ളതാണ്. മോഡൽ അർത്ഥം മനസ്സിലാക്കുന്നു എന്ന് ഇതിനർത്ഥമില്ല.
തീരുമാനം
ഒടുവിൽ, അതിന്റെ കാരണം ഭാഷാ പ്രോസസ്സിംഗ് മോഡലുകൾ വ്യവഹാരത്തിന്റെ വമ്പിച്ച വോള്യങ്ങളിൽ പരിശീലനം ലഭിച്ചിട്ടുള്ള, ഒരു ഉപയോക്താവിന്റെ ഇൻപുട്ടുകളെ ആശ്രയിച്ച് ലാംഡിഎയ്ക്ക് ഒരു ചർച്ച നടത്താൻ കഴിയും.
ഈ വർഷത്തെ I/O-യിൽ ഗൂഗിൾ LaMDA 2.0 പുറത്തിറക്കി, ഈ ഫീച്ചറുകൾ വിപുലീകരിക്കുന്നു. പുതിയ മോഡലിന് ഒരു ആശയം എടുക്കാനും "സാങ്കൽപ്പികവും അനുയോജ്യവുമായ വിവരണങ്ങൾ" സൃഷ്ടിക്കാനും കഴിഞ്ഞേക്കും, ഉപയോക്താവ് അലഞ്ഞുതിരിഞ്ഞാലും വിഷയത്തിൽ തുടരുക, ഒരു നിശ്ചിത ജോലിക്ക് ആവശ്യമായ ഇനങ്ങളുടെ ഒരു ലിസ്റ്റ് വാഗ്ദാനം ചെയ്യുക.
അപ്ഡേറ്റ്: "ഫെഡറൽ അന്വേഷണം" എന്നത് "ഫെഡറൽ ഗവൺമെന്റിനെ പ്രതിനിധീകരിക്കുന്ന അഭിഭാഷകർ സാധ്യമായ നിയമവിരുദ്ധ പ്രവർത്തനങ്ങളെക്കുറിച്ച് അന്വേഷിക്കുന്നതിൽ" നിന്ന് വ്യത്യസ്തമാണെന്ന് ബ്ലെയ്ക്ക് ലെമോയിൻ ഉപദേശിച്ചു.
നിങ്ങളുടെ അഭിപ്രായങ്ങൾ രേഖപ്പെടുത്തുക