സമീപ വർഷങ്ങളിൽ, ആഴത്തിലുള്ള പഠന മാതൃകകൾ മനുഷ്യന്റെ ഭാഷ മനസ്സിലാക്കുന്നതിൽ കൂടുതൽ ഫലപ്രദമാണ്.
തുടങ്ങിയ പദ്ധതികളെക്കുറിച്ച് ചിന്തിക്കുക ജിപിടി -3, ഇപ്പോൾ മുഴുവൻ ലേഖനങ്ങളും വെബ്സൈറ്റുകളും സൃഷ്ടിക്കാനാകും. GitHub അടുത്തിടെ അവതരിപ്പിച്ചു GitHub കോപൈലറ്റ്, നിങ്ങൾക്ക് ആവശ്യമുള്ള കോഡിന്റെ തരം വിവരിച്ചുകൊണ്ട് മുഴുവൻ കോഡ് സ്നിപ്പെറ്റുകളും നൽകുന്ന ഒരു സേവനം.
ഓപ്പൺഎഐ, ഫേസ്ബുക്ക്, ഗൂഗിൾ എന്നിവയിലെ ഗവേഷകർ മറ്റൊരു ടാസ്ക് കൈകാര്യം ചെയ്യാൻ ആഴത്തിലുള്ള പഠനം ഉപയോഗിക്കുന്നതിനുള്ള വഴികളിൽ പ്രവർത്തിക്കുന്നു: ചിത്രങ്ങളുടെ അടിക്കുറിപ്പ്. ദശലക്ഷക്കണക്കിന് എൻട്രികളുള്ള ഒരു വലിയ ഡാറ്റാസെറ്റ് ഉപയോഗിച്ച്, അവർ ചിലത് കൊണ്ടുവന്നു ആശ്ചര്യം ഫലം.
സമീപകാലത്ത്, ഈ ഗവേഷകർ വിപരീത ചുമതല നിർവഹിക്കാൻ ശ്രമിച്ചു: ഒരു അടിക്കുറിപ്പിൽ നിന്ന് ചിത്രങ്ങൾ സൃഷ്ടിക്കുന്നു. ഒരു വിവരണത്തിൽ നിന്ന് പൂർണ്ണമായും പുതിയൊരു ചിത്രം സൃഷ്ടിക്കാൻ ഇപ്പോൾ സാധിക്കുമോ?
ഈ ഗൈഡ് ഏറ്റവും നൂതനമായ രണ്ട് ടെക്സ്റ്റ് ടു ഇമേജ് മോഡലുകൾ പര്യവേക്ഷണം ചെയ്യും: OpenAI-യുടെ DALL-E 2, Google-ന്റെ Imagen AI. ഈ പദ്ധതികൾ ഓരോന്നും നമുക്കറിയാവുന്നതുപോലെ സമൂഹത്തെ മാറ്റിമറിച്ചേക്കാവുന്ന തകർപ്പൻ രീതികൾ അവതരിപ്പിച്ചു.
എന്നാൽ ആദ്യം, ടെക്സ്റ്റ്-ടു-ഇമേജ് ജനറേഷൻ എന്നതുകൊണ്ട് എന്താണ് ഉദ്ദേശിക്കുന്നതെന്ന് നമുക്ക് മനസ്സിലാക്കാം.
എന്താണ് ടെക്സ്റ്റ് ടു ഇമേജ് ജനറേഷൻ?
ടെക്സ്റ്റ്-ടു-ഇമേജ് മോഡലുകൾ പ്രോംപ്റ്റുകളെ അടിസ്ഥാനമാക്കി പുതിയതും അതുല്യവുമായ ഇമേജുകൾ സൃഷ്ടിക്കാൻ കമ്പ്യൂട്ടറുകളെ അനുവദിക്കുക. ആളുകൾക്ക് ഇപ്പോൾ അവർ നിർമ്മിക്കാൻ ആഗ്രഹിക്കുന്ന ഒരു ചിത്രത്തിന്റെ വാചക വിവരണം നൽകാൻ കഴിയും, കൂടാതെ ആ വിവരണവുമായി കഴിയുന്നത്ര അടുത്ത് പൊരുത്തപ്പെടുന്ന ഒരു വിഷ്വൽ സൃഷ്ടിക്കാൻ മോഡൽ ശ്രമിക്കും.
മെഷീൻ ലേണിംഗ് മോഡലുകൾ പ്രകടനം കൂടുതൽ മെച്ചപ്പെടുത്തുന്നതിന് ഇമേജ്-അടിക്കുറിപ്പ് ജോഡികൾ അടങ്ങിയ വലിയ ഡാറ്റാസെറ്റുകളുടെ ഉപയോഗം പ്രയോജനപ്പെടുത്തി.
ഏറ്റവും കൂടുതൽ ടെക്സ്റ്റ് ടു ഇമേജ് മോഡലുകൾ ട്രാൻസ്ഫോർമർ ഭാഷാ മോഡൽ ഉപയോഗിക്കുന്നു നിർദ്ദേശങ്ങൾ വ്യാഖ്യാനിക്കാൻ. ഇത്തരത്തിലുള്ള മാതൃക എ ന്യൂറൽ നെറ്റ്വർക്ക് അത് സ്വാഭാവിക ഭാഷയുടെ സന്ദർഭവും സെമാന്റിക് അർത്ഥവും പഠിക്കാൻ ശ്രമിക്കുന്നു.
അടുത്തതായി, പോലുള്ള ജനറേറ്റീവ് മോഡലുകൾ ഡിഫ്യൂഷൻ മോഡലുകൾ ഇമേജ് സിന്തസിസിനായി ജനറേറ്റീവ് അഡ്വേഴ്സറിയൽ നെറ്റ്വർക്കുകൾ ഉപയോഗിക്കുന്നു.
എന്താണ് DALLE 2?
DALL-E2 2022 ഏപ്രിലിൽ പുറത്തിറക്കിയ OpenAI യുടെ കമ്പ്യൂട്ടർ മോഡലാണ്. വാക്കുകളും ശൈലികളും ചിത്രങ്ങളുമായി ബന്ധപ്പെടുത്തുന്നതിന് ദശലക്ഷക്കണക്കിന് ലേബൽ ചെയ്ത ചിത്രങ്ങളുടെ ഒരു ഡാറ്റാബേസിൽ ഈ മോഡൽ പരിശീലിപ്പിച്ചിരിക്കുന്നു.
ഉപയോക്താക്കൾക്ക് "ഒരു പൂച്ച ലസാഗ്ന കഴിക്കുന്നത്" പോലെയുള്ള ലളിതമായ ഒരു വാചകം ടൈപ്പുചെയ്യാൻ കഴിയും, കൂടാതെ വാചകം വിവരിക്കാൻ ശ്രമിക്കുന്നതിന്റെ സ്വന്തം വ്യാഖ്യാനം DALL-E 2 സൃഷ്ടിക്കും.
സ്ക്രാച്ചിൽ നിന്ന് ചിത്രങ്ങൾ സൃഷ്ടിക്കുന്നതിന് പുറമെ, നിലവിലുള്ള ചിത്രങ്ങൾ എഡിറ്റ് ചെയ്യാനും DALL-E 2-ന് കഴിയും. ചുവടെയുള്ള ഉദാഹരണത്തിൽ, DALL-E-ന് ഒരു കൂട്ടിച്ചേർത്ത കട്ടിലോടുകൂടിയ ഒരു മുറിയുടെ പരിഷ്കരിച്ച ചിത്രം സൃഷ്ടിക്കാൻ കഴിഞ്ഞു.
കഴിഞ്ഞ കുറച്ച് വർഷങ്ങളായി OpenAI പുറത്തിറക്കിയ സമാന പ്രോജക്റ്റുകളിൽ ഒന്ന് മാത്രമാണ് DALL-E 2. ഓപ്പൺഎഐയുടെ GPT-3 വ്യത്യസ്ത ശൈലികളുടെ ടെക്സ്റ്റ് സൃഷ്ടിക്കുന്നതായി തോന്നിയപ്പോൾ വാർത്താപ്രാധാന്യം നേടി.
നിലവിൽ, DALL-E 2 ഇപ്പോഴും ബീറ്റ പരിശോധനയിലാണ്. താൽപ്പര്യമുള്ള ഉപയോക്താക്കൾക്ക് അവരുടെ സൈൻ അപ്പ് ചെയ്യാം വെയിറ്റിംഗ് ലിസ്റ്റ് പ്രവേശനത്തിനായി കാത്തിരിക്കുക.
അതെങ്ങനെയാണ് പ്രവര്ത്തിക്കുന്നത്?
DALL-E 2 ന്റെ ഫലങ്ങൾ ശ്രദ്ധേയമാണെങ്കിലും, ഇതെല്ലാം എങ്ങനെ പ്രവർത്തിക്കുന്നുവെന്ന് നിങ്ങൾ ചിന്തിച്ചേക്കാം.
ഓപ്പൺഎഐയുടെ GPT-2 പ്രോജക്റ്റിന്റെ മൾട്ടിമോഡൽ നടപ്പിലാക്കലിന്റെ ഒരു ഉദാഹരണമാണ് DALL-E 3.
ആദ്യം, ഉപയോക്താവിന്റെ ടെക്സ്റ്റ് പ്രോംപ്റ്റ് ഒരു ടെക്സ്റ്റ് എൻകോഡറിലേക്ക് സ്ഥാപിക്കുന്നു, അത് പ്രോംപ്റ്റിനെ ഒരു പ്രാതിനിധ്യ സ്ഥലത്തേക്ക് മാപ്പ് ചെയ്യുന്നു. DALL-E 2, CLIP എന്ന മറ്റൊരു OpenAI മോഡൽ ഉപയോഗിക്കുന്നു ( കോൺട്രാസ്റ്റീവ് ലാംഗ്വേജ്-ഇമേജ് പ്രീ-ട്രെയിനിംഗ്) സ്വാഭാവിക ഭാഷയിൽ നിന്ന് സെമാന്റിക് വിവരങ്ങൾ നേടുന്നതിന്.
അടുത്തതായി, അറിയപ്പെടുന്ന ഒരു മോഡൽ മുൻകൂർ ടെക്സ്റ്റ് എൻകോഡിംഗിനെ ഒരു ഇമേജ് എൻകോഡിംഗിലേക്ക് മാപ്പ് ചെയ്യുന്നു. ഈ ഇമേജ് എൻകോഡിംഗ് ടെക്സ്റ്റ് എൻകോഡിംഗ് ഘട്ടത്തിൽ കാണുന്ന സെമാന്റിക് വിവരങ്ങൾ പിടിച്ചെടുക്കണം.
യഥാർത്ഥ ഇമേജ് സൃഷ്ടിക്കാൻ, സെമാന്റിക് വിവരങ്ങളും ഇമേജ് എൻകോഡിംഗ് വിശദാംശങ്ങളും ഉപയോഗിച്ച് ഒരു വിഷ്വൽ സൃഷ്ടിക്കാൻ DALL-E 2 ഒരു ഇമേജ് ഡീകോഡർ ഉപയോഗിക്കുന്നു. ഓപ്പൺഎഐയുടെ പരിഷ്കരിച്ച പതിപ്പ് ഉപയോഗിക്കുന്നു ഗ്ലൈഡ് ഇമേജ് ജനറേഷൻ നിർവഹിക്കാനുള്ള മാതൃക. GLIDE ആശ്രയിക്കുന്നത് a വ്യാപന മാതൃക ചിത്രങ്ങൾ സൃഷ്ടിക്കാൻ.
DALL-E 2 മോഡലിലേക്ക് GLIDE ചേർത്തത് കൂടുതൽ ഫോട്ടോറിയലിസ്റ്റിക് ഔട്ട്പുട്ട് പ്രാപ്തമാക്കി. GLIDE മോഡൽ സ്ഥായിയായതോ ക്രമരഹിതമായതോ ആയതിനാൽ, മോഡൽ വീണ്ടും വീണ്ടും പ്രവർത്തിപ്പിച്ച് DALL-E 2 മോഡലിന് എളുപ്പത്തിൽ വ്യത്യാസങ്ങൾ സൃഷ്ടിക്കാൻ കഴിയും.
പരിമിതികൾ
DALL-E 2 മോഡലിന്റെ ശ്രദ്ധേയമായ ഫലങ്ങൾ ഉണ്ടായിരുന്നിട്ടും, ഇതിന് ഇപ്പോഴും ചില പരിമിതികൾ ഉണ്ട്.
അക്ഷരവിന്യാസം
DALL-E 2 ടെക്സ്റ്റ് സൃഷ്ടിക്കാൻ ശ്രമിക്കുന്ന പ്രോംപ്റ്റുകൾ, അതിന് വാക്കുകളുടെ അക്ഷരവിന്യാസം ബുദ്ധിമുട്ടാണെന്ന് വെളിപ്പെടുത്തുന്നു. സ്പെല്ലിംഗ് വിവരങ്ങൾ ഇതിന്റെ ഭാഗമല്ലാത്തതിനാലാകാം ഇത് എന്ന് വിദഗ്ധർ അനുമാനിക്കുന്നു പരിശീലന ഡാറ്റാസെറ്റ്.
കോമ്പോസിഷണൽ റീസണിംഗ്
DALL-E 2 ന് ഇപ്പോഴും കോമ്പോസിഷണൽ യുക്തിസഹമായ ചില ബുദ്ധിമുട്ടുകൾ ഉണ്ടെന്ന് ഗവേഷകർ നിരീക്ഷിക്കുന്നു. ലളിതമായി പറഞ്ഞാൽ, മോഡലിന് ചിത്രത്തിന്റെ വ്യക്തിഗത വശങ്ങൾ മനസിലാക്കാൻ കഴിയും, അതേസമയം ഈ വശങ്ങൾ തമ്മിലുള്ള ബന്ധം കണ്ടെത്തുന്നതിൽ പ്രശ്നമുണ്ട്.
ഉദാഹരണത്തിന്, "നീല ക്യൂബിന്റെ മുകളിൽ ചുവന്ന ക്യൂബ്" എന്ന പ്രോംപ്റ്റ് നൽകിയാൽ, DALL-E ഒരു നീല ക്യൂബും ചുവന്ന ക്യൂബും കൃത്യമായി സൃഷ്ടിക്കും, പക്ഷേ അവ ശരിയായി സ്ഥാപിക്കുന്നതിൽ പരാജയപ്പെടുന്നു. ഒരു നിശ്ചിത എണ്ണം ഒബ്ജക്റ്റുകൾ പുറത്തെടുക്കാൻ ആവശ്യമായ പ്രോംപ്റ്റുകളിൽ മോഡലിന് ബുദ്ധിമുട്ട് ഉണ്ടെന്നും നിരീക്ഷിക്കപ്പെട്ടിട്ടുണ്ട്.
ഡാറ്റാസെറ്റിലെ പക്ഷപാതം
പ്രോംപ്റ്റിൽ മറ്റ് വിശദാംശങ്ങളൊന്നും ഇല്ലെങ്കിൽ, വെളുത്തതോ പാശ്ചാത്യമോ ആയ ആളുകളെയും ചുറ്റുപാടുകളെയും ചിത്രീകരിക്കുന്നത് DALL-E നിരീക്ഷിച്ചിട്ടുണ്ട്. ഡാറ്റാസെറ്റിലെ പാശ്ചാത്യ കേന്ദ്രീകൃത ഇമേജുകളുടെ സമൃദ്ധി കാരണം ഈ പ്രാതിനിധ്യ പക്ഷപാതം സംഭവിക്കുന്നു.
ലിംഗ സ്റ്റീരിയോടൈപ്പുകൾ പിന്തുടരുന്ന മോഡലും നിരീക്ഷിക്കപ്പെട്ടിട്ടുണ്ട്. ഉദാഹരണത്തിന്, "ഫ്ലൈറ്റ് അറ്റൻഡന്റ്" എന്ന പ്രോംപ്റ്റിൽ ടൈപ്പ് ചെയ്യുന്നത് കൂടുതലും വനിതാ ഫ്ലൈറ്റ് അറ്റൻഡന്റുകളുടെ ചിത്രങ്ങൾ സൃഷ്ടിക്കുന്നു.
എന്താണ് Google Imagen AI?
Google- ന്റെ ഇമേജൻ AI ഇൻപുട്ട് വാചകത്തിൽ നിന്ന് ഫോട്ടോറിയലിസ്റ്റിക് ഇമേജുകൾ സൃഷ്ടിക്കാൻ ലക്ഷ്യമിടുന്ന ഒരു മോഡലാണ്. DALL-E-ന് സമാനമായി, ടെക്സ്റ്റ് മനസ്സിലാക്കാൻ ഈ മോഡൽ ട്രാൻസ്ഫോർമർ ഭാഷാ മോഡലുകളും ഉപയോഗിക്കുകയും ഉയർന്ന നിലവാരമുള്ള ചിത്രങ്ങൾ സൃഷ്ടിക്കാൻ ഡിഫ്യൂഷൻ മോഡലുകളുടെ ഉപയോഗത്തെ ആശ്രയിക്കുകയും ചെയ്യുന്നു.
ഇമേജനൊപ്പം, ഡ്രോബെഞ്ച് എന്ന ടെക്സ്റ്റ്-ടു-ഇമേജ് മോഡലുകൾക്കായി ഗൂഗിൾ ഒരു ബെഞ്ച്മാർക്കും പുറത്തിറക്കിയിട്ടുണ്ട്. DrawBench ഉപയോഗിച്ച്, DALL-E 2 ഉൾപ്പെടെയുള്ള മറ്റ് മോഡലുകളെ അപേക്ഷിച്ച് ഹ്യൂമൻ റേറ്റർമാർ ഇമേജൻ ഔട്ട്പുട്ടാണ് ഇഷ്ടപ്പെടുന്നതെന്ന് അവർക്ക് നിരീക്ഷിക്കാൻ കഴിഞ്ഞു.
അതെങ്ങനെയാണ് പ്രവര്ത്തിക്കുന്നത്?
DALL-E-ന് സമാനമായി, ഇമേജൻ ആദ്യം യൂസർ പ്രോംപ്റ്റിനെ ഒരു ഫ്രോസൺ ടെക്സ്റ്റ് എൻകോഡറിലൂടെ ഒരു ടെക്സ്റ്റ് എംബെഡ്ഡിംഗാക്കി മാറ്റുന്നു.
ഇമേജൻ ഒരു ഡിഫ്യൂഷൻ മോഡൽ ഉപയോഗിക്കുന്നു, അത് ശബ്ദത്തിന്റെ പാറ്റേൺ എങ്ങനെ ചിത്രങ്ങളാക്കി മാറ്റാമെന്ന് പഠിക്കുന്നു. ഈ ചിത്രങ്ങളുടെ പ്രാരംഭ ഔട്ട്പുട്ട് കുറഞ്ഞ റെസല്യൂഷനാണ്, പിന്നീട് അവസാന ഇമേജിന്റെ റെസല്യൂഷൻ വർദ്ധിപ്പിക്കുന്നതിന് സൂപ്പർ-റെസല്യൂഷൻ ഡിഫ്യൂഷൻ മോഡൽ എന്നറിയപ്പെടുന്ന മറ്റൊരു മോഡലിലൂടെ കടന്നുപോകുന്നു. ആദ്യത്തെ ഡിഫ്യൂഷൻ മോഡൽ 64×64 പിക്സൽ ഇമേജ് ഔട്ട്പുട്ട് ചെയ്യുന്നു, പിന്നീട് ഉയർന്ന റെസല്യൂഷൻ 1024×1024 ഇമേജിലേക്ക് ഉയർത്തുന്നു.
ഇമേജൻ ടീമിന്റെ ഗവേഷണത്തെ അടിസ്ഥാനമാക്കി, ടെക്സ്റ്റ് ഡാറ്റയിൽ മാത്രം പരിശീലിപ്പിച്ച വലിയ ഫ്രോസൺ ഭാഷാ മോഡലുകൾ ടെക്സ്റ്റ്-ടു-ഇമേജ് ജനറേഷനായി ഇപ്പോഴും വളരെ ഫലപ്രദമായ ടെക്സ്റ്റ് എൻകോഡറുകളാണ്.
ഡൈനാമിക് ത്രെഷോൾഡിംഗ് എന്ന ആശയവും പഠനം അവതരിപ്പിക്കുന്നു. ഇമേജ് ജനറേറ്റ് ചെയ്യുമ്പോൾ ഗൈഡൻസ് വെയ്റ്റ് വർദ്ധിപ്പിച്ച് കൂടുതൽ ഫോട്ടോറിയലിസ്റ്റിക് ആയി ദൃശ്യമാകാൻ ഈ രീതി ചിത്രങ്ങളെ പ്രാപ്തമാക്കുന്നു.
DALLE 2 vs ഇമേജന്റെ പ്രകടനം
Google-ന്റെ ബെഞ്ച്മാർക്കിൽ നിന്നുള്ള പ്രാഥമിക ഫലങ്ങൾ കാണിക്കുന്നത്, മനുഷ്യ പ്രതികരണം DALL-E 2-നേക്കാൾ ഇമേജ് സൃഷ്ടിക്കുന്ന ചിത്രങ്ങളും മറ്റ് ടെക്സ്റ്റ്-ടു-ഇമേജ് മോഡലുകളായ ലാറ്റന്റ് ഡിഫ്യൂഷൻ, VQGAN+CLIP എന്നിവയുമാണ്.
DALL-E 2 മോഡലിന്റെ അറിയപ്പെടുന്ന ബലഹീനതയായ ടെക്സ്റ്റ് സ്പെല്ലിംഗ് ചെയ്യുന്നതിൽ അവരുടെ മോഡൽ മികച്ച പ്രകടനം കാഴ്ചവയ്ക്കുന്നുവെന്ന് ഇമേജൻ ടീമിൽ നിന്നുള്ള ഔട്ട്പുട്ട് കാണിക്കുന്നു.
എന്നിരുന്നാലും, ഗൂഗിൾ ഇതുവരെ മോഡൽ പൊതുജനങ്ങൾക്കായി പുറത്തിറക്കിയിട്ടില്ലാത്തതിനാൽ, ഗൂഗിളിന്റെ മാനദണ്ഡങ്ങൾ എത്രത്തോളം കൃത്യമാണെന്ന് കണ്ടറിയേണ്ടിയിരിക്കുന്നു.
തീരുമാനം
ഫോട്ടോറിയലിസ്റ്റിക് ടെക്സ്റ്റ്-ടു-ഇമേജ് മോഡലുകളുടെ ഉയർച്ച വിവാദമാണ്, കാരണം ഈ മോഡലുകൾ അനീതിപരമായ ഉപയോഗത്തിന് പാകമായതാണ്.
സാങ്കേതികവിദ്യ വ്യക്തമായ ഉള്ളടക്കം സൃഷ്ടിക്കുന്നതിലേക്കോ തെറ്റായ വിവരത്തിനുള്ള ഒരു ഉപകരണമായോ നയിച്ചേക്കാം. ഗൂഗിൾ, ഓപ്പൺഎഐ എന്നിവയിൽ നിന്നുള്ള ഗവേഷകർക്ക് ഇതിനെക്കുറിച്ച് അറിയാം, അതിനാലാണ് ഈ സാങ്കേതികവിദ്യകൾ ഇപ്പോഴും എല്ലാവർക്കും ആക്സസ് ചെയ്യാൻ കഴിയാത്തത്.
ടെക്സ്റ്റ്-ടു-ഇമേജ് മോഡലുകൾക്ക് കാര്യമായ സാമ്പത്തിക പ്രത്യാഘാതങ്ങളുണ്ട്. DALL-E പോലുള്ള മോഡലുകൾ മുഖ്യധാരയായാൽ മോഡലുകൾ, ഫോട്ടോഗ്രാഫർമാർ, കലാകാരന്മാർ തുടങ്ങിയ പ്രൊഫഷനുകളെ ബാധിക്കുമോ?
ഇപ്പോൾ, ഈ മോഡലുകൾക്ക് ഇപ്പോഴും പരിമിതികളുണ്ട്. AI സൃഷ്ടിച്ച ഏതെങ്കിലും ചിത്രം സൂക്ഷ്മപരിശോധനയ്ക്ക് വിധേയമാക്കുന്നത് അതിന്റെ അപൂർണതകൾ വെളിപ്പെടുത്തും. ഏറ്റവും ഫലപ്രദമായ മോഡലുകൾക്കായി ഓപ്പൺഎഐയും ഗൂഗിളും മത്സരിക്കുന്നതിനാൽ, യഥാർത്ഥത്തിൽ ഒരു മികച്ച ഔട്ട്പുട്ട് ജനറേറ്റുചെയ്യുന്നതിന് മുമ്പ് ഇത് സമയത്തിന്റെ കാര്യമായിരിക്കാം: യഥാർത്ഥത്തിൽ നിന്ന് വേർതിരിച്ചറിയാൻ കഴിയാത്ത ഒരു ചിത്രം.
സാങ്കേതികവിദ്യ ഇത്രയും ദൂരം പോകുമ്പോൾ എന്ത് സംഭവിക്കുമെന്ന് നിങ്ങൾ കരുതുന്നു?
നിങ്ങളുടെ അഭിപ്രായങ്ങൾ രേഖപ്പെടുത്തുക