የተፈጥሮ ቋንቋ ማቀነባበሪያ (NLP) ከማሽኖች ጋር እንዴት እንደምንሳተፍ ለውጦታል። አሁን የእኛ መተግበሪያዎች እና ሶፍትዌሮች የሰው ቋንቋን ማካሄድ እና መረዳት ይችላሉ።
እንደ አርቴፊሻል ኢንተለጀንስ ትምህርት፣ NLP በኮምፒዩተሮች እና በሰዎች መካከል ባለው የተፈጥሮ ቋንቋ መስተጋብር ላይ ያተኩራል።
ማሽኖች የሰውን ቋንቋ እንዲተነትኑ፣ እንዲገነዘቡ እና እንዲዋሃዱ ይረዳል፣ ይህም እንደ የንግግር ማወቂያ፣ የማሽን ትርጉም፣ የመሳሰሉ ብዙ አፕሊኬሽኖችን ይከፍታል። ስሜት ትንተና, እና chatbots.
ማሽኖቹ ቋንቋን እንዲረዱ ብቻ ሳይሆን በፈጠራ እና በአግባቡ እንዲጠቀሙበት በማድረግ ከቅርብ ዓመታት ወዲህ ትልቅ እድገት አድርጓል።
በዚህ ጽሑፍ ውስጥ የተለያዩ የ NLP ቋንቋ ሞዴሎችን እንመለከታለን. እንግዲያው፣ ተከታተሉት፣ እና ስለእነዚህ ሞዴሎች እንማር!
1. BERT
BERT (Bidirectional Encoder Representations from Transformers) እጅግ በጣም ጥሩ የተፈጥሮ ቋንቋ ማቀነባበሪያ (NLP) የቋንቋ ሞዴል ነው። በ 2018 በ g የተፈጠረ እና በ Transformer architecture ላይ የተመሰረተ ነው, ሀ የነርቭ ኔትወርክ ተከታታይ ግቤትን ለመተርጎም የተሰራ.
BERT አስቀድሞ የሰለጠነ የቋንቋ ሞዴል ነው፣ ይህ ማለት በተፈጥሮ የቋንቋ ዘይቤዎችን እና አወቃቀሮችን ለመለየት በትላልቅ የጽሁፍ መረጃዎች ላይ ሰልጥኗል።
BERT የሁለት አቅጣጫዊ ሞዴል ነው፣ ይህም ማለት የቃላቶችን አውድ እና ትርጉም እንደየቀደሙት እና በሚከተለው ሀረጎቻቸው ላይ በመለየት የተወሳሰቡ ዓረፍተ ነገሮችን ትርጉም በመረዳት ረገድ የበለጠ ስኬታማ ያደርገዋል።
እንዴት ነው የሚሰራው?
ክትትል የማይደረግበት ትምህርት BERTን በከፍተኛ መጠን የጽሑፍ መረጃ ለማሰልጠን ይጠቅማል። BERT በአረፍተ ነገር ውስጥ የጎደሉ ቃላትን የመለየት ችሎታ ወይም በስልጠና ወቅት ዓረፍተ ነገሮችን የመከፋፈል ችሎታ ያገኛል።
በዚህ ስልጠና በመታገዝ BERT ለተለያዩ የ NLP ተግባራት ማለትም ስሜትን ትንተና፣ የፅሁፍ ምድብ፣ የጥያቄ መልስ እና ሌሎችንም ጨምሮ ከፍተኛ ጥራት ያላቸውን መክተቻዎችን ማምረት ይችላል።
በተጨማሪም፣ BERT በዛ ተግባር ላይ ለማተኮር ትንሽ የውሂብ ስብስብን በመጠቀም በአንድ የተወሰነ ፕሮጀክት ላይ ሊሻሻል ይችላል።
ቤርት የት ጥቅም ላይ ይውላል?
BERT በብዙ ታዋቂ NLP መተግበሪያዎች ውስጥ በተደጋጋሚ ጥቅም ላይ ይውላል። ለምሳሌ ጎግል የፍለጋ ኢንጂን ውጤቶቹን ትክክለኛነት ለመጨመር ሲጠቀምበት ፌስቡክ ግን የምክር ስልተ ቀመሮቹን ለማሻሻል ተጠቅሞበታል።
BERT በቻትቦት ስሜት ትንተና፣ በማሽን መተርጎም እና በተፈጥሮ ቋንቋ መረዳት ላይም ጥቅም ላይ ውሏል።
በተጨማሪም, BERT በበርካታ ውስጥ ተቀጥሯል አካዴሚያዊ ምርምር በተለያዩ ስራዎች ላይ የ NLP ሞዴሎችን አፈፃፀም ለማሻሻል ወረቀቶች. በአጠቃላይ፣ BERT ለNLP አካዳሚዎች እና ባለሙያዎች አስፈላጊ መሳሪያ ሆኗል፣ እና በዲሲፕሊን ላይ ያለው ተጽእኖ የበለጠ እየጨመረ እንደሚሄድ ይገመታል።
2. ሮቤታ
ሮበርታ (በጠንካራ ሁኔታ የተሻሻለ BERT አቀራረብ) በ2019 በFacebook AI የተለቀቀ የተፈጥሮ ቋንቋን ለማቀናበር የቋንቋ ሞዴል ነው። የተሻሻለ የ BERT ስሪት ነው የተወሰኑትን የመጀመሪያውን የ BERT ሞዴል እንቅፋቶችን ለማሸነፍ ነው።
ሮበርታ የሰለጠነው ከ BERT ጋር በሚመሳሰል መልኩ ሲሆን ሮበርታ ብዙ የስልጠና መረጃዎችን ከመጠቀሙ እና ከፍተኛ አፈፃፀም ለማግኘት የስልጠና ሂደቱን ከማሻሻል በስተቀር።
ሮበርታ፣ ልክ እንደ BERT፣ በአንድ የተወሰነ ሥራ ላይ ከፍተኛ ትክክለኛነትን ለማግኘት በጥሩ ሁኔታ የተስተካከለ አስቀድሞ የሰለጠነ የቋንቋ ሞዴል ነው።
እንዴት ነው የሚሰራው?
ሮቤርታ ከፍተኛ መጠን ያለው የጽሑፍ መረጃን ለማሰልጠን ራስን የሚቆጣጠር የመማሪያ ስልት ይጠቀማል። በአረፍተ ነገር ውስጥ የጎደሉ ቃላትን መተንበይ እና ሐረጎችን በስልጠና ወቅት ወደ ተለያዩ ቡድኖች መከፋፈል ይማራል።
ሮበርታ የአምሳያው አቅም ወደ አዲስ መረጃ የማጠቃለል አቅም ለመጨመር እንደ ተለዋዋጭ ጭንብል ያሉ በርካታ የተራቀቁ የስልጠና አቀራረቦችን ይጠቀማል።
በተጨማሪም፣ ትክክለኛነትን ለመጨመር፣ RoBERTa ዊኪፔዲያ፣ ኮመን ክራውል እና ቡክስኮርፐስን ጨምሮ ከበርካታ ምንጮች የተገኘውን እጅግ በጣም ብዙ መረጃ ይጠቀማል።
RoBERTa የት መጠቀም እንችላለን?
ሮቤራታ በተለምዶ ለስሜታዊ ትንተና ፣ ለጽሑፍ ምደባ ፣ የተሰየመ አካል መለያ፣ የማሽን ትርጉም እና የጥያቄ መልስ።
እንደ ካልተዋቀረ የጽሑፍ ውሂብ ተገቢ ግንዛቤዎችን ለማውጣት ጥቅም ላይ ሊውል ይችላል። ማህበራዊ ሚዲያ፣ የሸማቾች ግምገማዎች ፣ የዜና መጣጥፎች እና ሌሎች ምንጮች።
ሮቤርታ ከተለምዷዊ የNLP ተግባራት በተጨማሪ እንደ ሰነድ ማጠቃለያ፣ ጽሑፍ መፍጠር እና የንግግር ማወቂያ ባሉ ይበልጥ ልዩ በሆኑ መተግበሪያዎች ውስጥ ጥቅም ላይ ውሏል። እንዲሁም ቻትቦቶችን፣ ምናባዊ ረዳቶችን እና ሌሎች የንግግር AI ስርዓቶችን ትክክለኛነት ለማሻሻል ጥቅም ላይ ውሏል።
3. OpenAI's GPT-3
GPT-3 (ጀነሬቲቭ ቅድመ-የሰለጠነ ትራንስፎርመር 3) ጥልቅ የመማሪያ ቴክኒኮችን በመጠቀም ሰው መሰል ፅሁፍ የሚያመነጭ የOpenAI ቋንቋ ሞዴል ነው። GPT-3 እስካሁን ከተገነቡት ትላልቅ የቋንቋ ሞዴሎች አንዱ ሲሆን 175 ቢሊዮን መለኪያዎች አሉት።
ሞዴሉ በተለያዩ የጽሁፍ መረጃዎች ላይ የሰለጠኑ ሲሆን መጽሃፎችን, ወረቀቶችን እና ድረ-ገጾችን ጨምሮ, እና አሁን በተለያዩ ጭብጦች ላይ ይዘት መፍጠር ይችላል.
እንዴት ነው የሚሰራው?
GPT-3 ክትትል የማይደረግበት የመማሪያ ዘዴን በመጠቀም ጽሑፍ ያመነጫል። ይህ የሚያመለክተው ሞዴሉ ሆን ተብሎ የተለየ ሥራ እንዲሠራ እንዳልተማረ ነው፣ ነገር ግን ይልቁንስ እጅግ በጣም ብዙ በሆነ የጽሑፍ ውሂብ ቅጦችን በመመልከት ጽሑፍ መፍጠርን ይማራል።
በትናንሽ፣ ተግባር-ተኮር የውሂብ ስብስቦች ላይ በማሰልጠን፣ ሞዴሉ እንደ ጽሑፍ ማጠናቀቅ ወይም ስሜት ትንተና ላሉት ለተወሰኑ ተግባራት በጥሩ ሁኔታ ሊስተካከል ይችላል።
የአጠቃቀም አካባቢዎች
GPT-3 በተፈጥሮ ቋንቋ ሂደት ውስጥ በርካታ አፕሊኬሽኖች አሉት። የጽሑፍ ማጠናቀቅ፣ የቋንቋ ትርጉም፣ ስሜት ትንተና እና ሌሎች መተግበሪያዎች በአምሳያው ይቻላል። GPT-3 ግጥሞችን፣ የዜና ታሪኮችን እና የኮምፒዩተር ኮድ ለመፍጠር ጥቅም ላይ ውሏል።
በጣም እምቅ GPT-3 አፕሊኬሽኖች አንዱ የቻትቦቶች እና ምናባዊ ረዳቶች መፍጠር ነው። ሞዴሉ ሰው የሚመስል ጽሑፍን ሊፈጥር ስለሚችል, ለንግግር አፕሊኬሽኖች በጣም ተስማሚ ነው.
GPT-3 ለድረ-ገጾች እና ለማህበራዊ ሚዲያ መድረኮች ብጁ ይዘትን ለማመንጨት እንዲሁም በመረጃ ትንተና እና ምርምር ላይ ለማገዝ ጥቅም ላይ ውሏል።
4.GPT-4
GPT-4 በOpenAI's GPT ተከታታይ ውስጥ በጣም የቅርብ እና የተራቀቀ የቋንቋ ሞዴል ነው። በአስደናቂው 10 ትሪሊየን መለኪያዎች፣ ከቀድሞው GPT-3 የላቀ እና የላቀ ውጤት እንደሚያስገኝ እና ከአለማችን በጣም ሀይለኛ የኤአይአይ ሞዴሎች አንዱ እንደሚሆን ተተንብዮአል።
እንዴት ነው የሚሰራው?
GPT-4 የተራቀቀን በመጠቀም የተፈጥሮ ቋንቋ ጽሑፍ ያመነጫል። ጥልቅ የመማር ስልተ ትምህርቶች. መጽሃፎችን፣ መጽሔቶችን እና ድረ-ገጾችን ባካተተ ሰፊ የጽሁፍ ዳታ ስብስብ የሰለጠኑ ሲሆን ይህም በተለያዩ ርዕሰ ጉዳዮች ላይ ይዘት እንዲፈጥር ያስችለዋል።
በተጨማሪም፣ በትናንሽ፣ ተግባር-ተኮር የውሂብ ስብስቦች ላይ በማሰልጠን፣ GPT-4 ለተወሰኑ ተግባራት እንደ ጥያቄ-መልስ ወይም ማጠቃለያ በጥሩ ሁኔታ ማስተካከል ይችላል።
የአጠቃቀም አካባቢዎች
በጣም ትልቅ መጠን እና የላቀ ችሎታዎች ስላሉት GPT-4 ብዙ አይነት አፕሊኬሽኖችን ያቀርባል።
በጣም ተስፋ ሰጭ ከሆኑት አጠቃቀሞች አንዱ በተፈጥሮ የቋንቋ ሂደት ነው፣ እሱም ጥቅም ላይ ሊውል ይችላል። chatbots ማዳበር, ምናባዊ ረዳቶች እና የቋንቋ ትርጉም ስርዓቶች በሰዎች ከተመረቱት ፈጽሞ ሊለዩ የማይችሉ የተፈጥሮ ቋንቋ ምላሾችን ማዘጋጀት ይችላሉ።
GPT-4 በትምህርት ላይም ጥቅም ላይ ሊውል ይችላል።
ጽንሰ-ሐሳቡ ከተማሪው የመማር ስልት ጋር መላመድ እና ግላዊ ግብረመልስ እና እገዛን መስጠት የሚችሉ ብልህ የማስተማሪያ ስርዓቶችን ለማዘጋጀት ጥቅም ላይ ሊውል ይችላል። ይህ የትምህርት ጥራትን ለማሻሻል እና መማርን ለሁሉም ሰው ተደራሽ ለማድረግ ይረዳል።
5. ኤክስኤልኔት
XLNet በ 2019 በካርኔጊ ሜሎን ዩኒቨርሲቲ እና በGoogle AI ተመራማሪዎች የተፈጠረ አዲስ የቋንቋ ሞዴል ነው። አርክቴክቱ የተመሰረተው በትራንስፎርመር አርክቴክቸር ነው፣ እሱም በBERT እና በሌሎች የቋንቋ ሞዴሎችም ጥቅም ላይ ይውላል።
XLNet በበኩሉ በተለያዩ የተፈጥሮ ቋንቋ ማቀነባበሪያ ስራዎች ላይ ከሌሎች ሞዴሎች የላቀ ለማድረግ የሚያስችለውን አብዮታዊ የቅድመ-ስልጠና ስልት ያቀርባል።
እንዴት ነው የሚሰራው?
XLNet የተፈጠረው በቀደሙት ቃላቶች ላይ በመመስረት የሚቀጥለውን ቃል በጽሑፍ ቅደም ተከተል መተንበይን የሚጨምር በራስ-ሰር የሚመልስ የቋንቋ ሞዴሊንግ ዘዴን በመጠቀም ነው።
በሌላ በኩል XLNet ከግራ ወደ ቀኝ ወይም ከቀኝ ወደ ግራ አቀራረብ ከሚጠቀሙ የቋንቋ ሞዴሎች በተቃራኒ በአንድ ሀረግ ውስጥ ያሉትን ሁሉንም የቃላት ለውጦች የሚገመግም የሁለት አቅጣጫዊ ዘዴን ይጠቀማል። ይህ የረጅም ጊዜ የቃላት ግንኙነቶችን እንዲይዝ እና የበለጠ ትክክለኛ ትንበያዎችን እንዲሰጥ ያስችለዋል።
ኤክስኤልኔት ከአብዮታዊ የቅድመ-ሥልጠና ስልቱ በተጨማሪ እንደ አንጻራዊ አቀማመጥ ኢንኮዲንግ እና የክፍል ደረጃ ተደጋጋሚነት ዘዴን የመሳሰሉ የተራቀቁ ቴክኒኮችን ያጣምራል።
እነዚህ ስልቶች ለአምሳያው አጠቃላይ አፈጻጸም አስተዋፅዖ ያደርጋሉ እና እንደ ቋንቋ ትርጉም፣ ስሜት ትንተና እና የተሰየመ አካል መለየትን የመሳሰሉ ሰፊ የተፈጥሮ ቋንቋዎችን የማቀናበር ስራዎችን እንዲሰራ ያስችለዋል።
ለXLNet የአጠቃቀም ቦታዎች
የ XLNet የተራቀቁ ባህሪያት እና መላመድ ለብዙ አይነት የተፈጥሮ ቋንቋ ማቀነባበሪያ አፕሊኬሽኖች፣ ቻትቦቶች እና ምናባዊ ረዳቶች፣ የቋንቋ ትርጉም እና ስሜት ትንተናን ጨምሮ ውጤታማ መሳሪያ ያደርገዋል።
ቀጣይነት ያለው ልማቱ እና ከሶፍትዌር እና አፕሊኬሽኖች ጋር መካተቱ በእርግጠኝነት ለወደፊቱ የበለጠ አስደናቂ የአጠቃቀም ጉዳዮችን ያስከትላል።
6. ኤሌክትሮ
ELECTRA በGoogle ተመራማሪዎች የተፈጠረ እጅግ በጣም ጥሩ የተፈጥሮ ቋንቋ ማቀናበሪያ ሞዴል ነው። እሱ የሚያመለክተው “የቶከን ምትክን በትክክል የሚመድብ ኢንኮደርን በብቃት መማር” እና በልዩ ትክክለኛነት እና ፍጥነት የታወቀ ነው።
እንዴት ነው የሚሰራው?
ELECTRA የሚሠራው የተወሰነውን የጽሑፍ ቅደም ተከተል ቶከኖች በተመረቱ ቶከኖች በመተካት ነው። የአምሳያው አላማ እያንዳንዱ ምትክ ማስመሰያ ህጋዊ ወይም ሐሰት መሆኑን በትክክል መተንበይ ነው። ELECTRA በውጤቱም የበለጠ በብቃት በቃላት መካከል ያሉ ግንኙነቶችን በፅሁፍ ቅደም ተከተል ማከማቸት ይማራል።
በተጨማሪም፣ ELECTRA ትክክለኛዎቹን ከመደበቅ ይልቅ የውሸት ምልክቶችን ስለሚፈጥር፣ መደበኛ ጭንብል የያዙ የቋንቋ ሞዴሎች እንደሚያደርጉት ተመሳሳይ የተጋነኑ ስጋቶች ሳያገኙ በጣም ትልቅ የስልጠና ስብስቦችን እና የስልጠና ጊዜዎችን ሊጠቀም ይችላል።
የአጠቃቀም ቦታዎች
ELECTRA ለስሜታዊ ትንታኔም ሊያገለግል ይችላል፣ ይህም የፅሁፍን ስሜታዊ ቃና መለየትን ይጨምራል።
ከሁለቱም ጭንብል ከተሸፈነው እና ካልተሸፈነው ጽሑፍ የመማር አቅሙ፣ ELECTRA የቋንቋ ስውር ነገሮችን በተሻለ ለመረዳት እና የበለጠ ትርጉም ያለው ግንዛቤዎችን የሚያቀርቡ ይበልጥ ትክክለኛ የስሜት ትንተና ሞዴሎችን ለመፍጠር ጥቅም ላይ ሊውል ይችላል።
7. ቲ 5
T5፣ ወይም ከጽሁፍ ወደ ጽሑፍ ማስተላለፊያ፣ በGoogle AI ቋንቋ ትራንስፎርመር ላይ የተመሰረተ የቋንቋ ሞዴል ነው። የግቤት ጽሁፍን በተለዋዋጭ ወደ ውፅዓት በመተርጎም የተለያዩ የተፈጥሮ ቋንቋን የማቀናበር ስራዎችን ለመስራት የታሰበ ነው።
እንዴት ነው የሚሰራው?
T5 የተገነባው በትራንስፎርመር አርክቴክቸር ላይ ነው እና ከፍተኛ መጠን ባለው የጽሑፍ መረጃ ላይ ቁጥጥር ያልተደረገበትን ትምህርት በመጠቀም የሰለጠነ ነው። T5፣ ከቀደምት የቋንቋ ሞዴሎች በተለየ፣ የቋንቋ መረዳትን፣ የጥያቄ መልስን፣ ማጠቃለያ እና ትርጉምን ጨምሮ በተለያዩ ተግባራት ላይ የሰለጠኑ ናቸው።
ይህ T5 ሞዴሉን ባነሰ ተግባር-ተኮር ግብአት ላይ በማስተካከል ብዙ ስራዎችን እንዲሰራ ያስችለዋል።
T5 የት ነው የሚጠቀመው?
T5 በተፈጥሮ ቋንቋ ሂደት ውስጥ በርካታ ሊሆኑ የሚችሉ መተግበሪያዎች አሉት። ለተፈጥሮ ቋንቋ ግብአት መረዳት እና ምላሽ መስጠት የሚችሉ ቻትቦቶችን፣ ምናባዊ ረዳቶችን እና ሌሎች የንግግር AI ስርዓቶችን ለመፍጠር ጥቅም ላይ ሊውል ይችላል። T5 እንደ ቋንቋ ትርጉም፣ ማጠቃለያ እና ጽሑፍ ማጠናቀቅ ላሉ ተግባራትም ሊያገለግል ይችላል።
T5 በGoogle የክፍት ምንጭ የቀረበ ሲሆን በNLP ማህበረሰብ ዘንድ እንደ የጽሁፍ ምድብ፣ የጥያቄ መልስ እና የማሽን ትርጉም ላሉ የተለያዩ መተግበሪያዎች በሰፊው ተቀባይነት አግኝቷል።
8. ፓልም
PaLM (Pathways Language Model) በGoogle AI ቋንቋ የተፈጠረ የላቀ የቋንቋ ሞዴል ነው። እየጨመረ የመጣውን የተወሳሰቡ የቋንቋ ስራዎችን ፍላጎት ለማሟላት የተፈጥሮ ቋንቋ ማቀነባበሪያ ሞዴሎችን አፈፃፀም ለማሻሻል የታሰበ ነው።
እንዴት ነው የሚሰራው?
እንደ BERT እና GPT ካሉ ሌሎች በጣም ተወዳጅ የቋንቋ ሞዴሎች ጋር ተመሳሳይ፣ ፓልኤም በትራንስፎርመር ላይ የተመሰረተ ሞዴል ነው። ይሁን እንጂ የዲዛይን እና የስልጠና ዘዴው ከሌሎች ሞዴሎች የተለየ ያደርገዋል.
አፈጻጸምን እና አጠቃላይ ችሎታን ለማሻሻል፣ PaLM ሞዴሉን ከበርካታ ተግዳሮቶች ለመማር የሚያስችል ባለብዙ ተግባር መማሪያ ዘዴን በመጠቀም የሰለጠነ ነው።
PaLM የት ነው የምንጠቀመው?
ፓልም ለተለያዩ የኤንኤልፒ ስራዎች፣ በተለይም የተፈጥሮ ቋንቋን ጥልቅ መረዳት ለሚፈልጉ ሊያገለግል ይችላል። ለስሜት ትንተና፣ ለጥያቄዎች መልስ፣ ለቋንቋ ሞዴልነት፣ ለማሽን ትርጉም እና ለሌሎች በርካታ ነገሮች ጠቃሚ ነው።
እንደ ቻትቦቶች፣ ቨርቹዋል ረዳቶች እና የድምጽ ማወቂያ ስርዓቶች ያሉ የተለያዩ ፕሮግራሞችን እና መሳሪያዎችን የቋንቋ አቀነባበር ችሎታን ለማሻሻል በውስጡም ሊጨመር ይችላል።
በአጠቃላይ፣ ፓኤልኤም የቋንቋን የማቀናበር አቅሙን ለማሳደግ ባለው አቅም ምክንያት ሰፊ ሊሆኑ የሚችሉ መተግበሪያዎች ያለው ተስፋ ሰጪ ቴክኖሎጂ ነው።
መደምደሚያ
በመጨረሻም፣ የተፈጥሮ ቋንቋን ማቀነባበር (NLP) ከቴክኖሎጂ ጋር የምንገናኝበትን መንገድ ቀይሮታል፣ ከማሽኖች ጋር የበለጠ ሰው በሚመስል መልኩ እንድንናገር አስችሎናል።
በቅርብ ጊዜ በተደረጉ ግኝቶች ምክንያት NLP ከመቼውም ጊዜ በበለጠ ትክክለኛ እና ቀልጣፋ አድጓል። የማሽን መማርበተለይም እንደ GPT-4፣ RoBERTa፣ XLNet፣ ELECTRA እና PaLM ያሉ መጠነ ሰፊ የቋንቋ ሞዴሎችን በመገንባት ላይ።
NLP እየገፋ ሲሄድ፣ ከቴክኖሎጂ ጋር እንዴት እንደምንገናኝ፣ እርስ በርሳችን እንደምንግባባ እና የሰውን ቋንቋ ውስብስብነት የመረዳት አቅም ያለው ከጊዜ ወደ ጊዜ ይበልጥ ኃይለኛ እና የተራቀቁ የቋንቋ ሞዴሎች እንደሚታዩ እንጠብቅ ይሆናል።
መልስ ይስጡ