Enhavtabelo[Kaŝi][Montri]
- 1. Kio ĝuste estas Profunda Lernado?
- 2. Kio distingas Profundan Lernadon de Maŝina Lernado?
- 3. Kiaj estas viaj nunaj komprenoj pri neŭralaj retoj?
- 4. Kio ekzakte estas perceptrono?
- 5. Kio ĝuste estas profunda neŭrala reto?
- 6. Kio Ĝuste Estas Plurtavola Perceptrono (MLP)?
- 7. Kian celon ludas aktivigaj funkcioj en neŭrala reto?
- 8. Kio Ĝuste Estas Gradienta Deveno?
- 9. Kio Ĝuste Estas la Kosta Funkcio?
- 10. Kiel profundaj retoj povas superi malprofundajn?
- 11. Priskribu antaŭen disvastigon.
- 12. Kio estas malantaŭa propagado?
- 13. En la kunteksto de profunda lernado, kiel vi komprenas gradienta tondado?
- 14. Kio Estas la Funkcioj Softmax kaj ReLU?
- 15. Ĉu modelo de neŭrala reto povas esti trejnita kun ĉiuj pezoj fiksitaj al 0?
- 16. Kio distingas epokon de aro kaj ripeto?
- 17. Kio Estas Bata Normaligo kaj Forigo?
- 18. Kio Apartigas Stokastikan Gradientan Devenon de Batch Gradienta Deveno?
- 19. Kial estas grave inkluzivi ne-linearecojn en neŭralaj retoj?
- 20. Kio estas tensoro en profunda lernado?
- 21. Kiel vi elektus la aktivigan funkcion por profunda lernado-modelo?
- 22. Kion vi volas diri per CNN?
- 23. Kio estas la multaj tavoloj de CNN?
- 24. Kiuj estas la efikoj de tro- kaj malsufiĉo, kaj kiel vi povas eviti ilin?
- 25. En profunda lernado, kio estas RNN?
- 26. Priskribu la Adam Optimizer
- 27. Profundaj aŭtokodiloj: kio ili estas?
- 28. Kion signifas Tensoro en Tensorflow?
- 29. Klarigo de komputila grafeo
- 30. Generativaj kontraŭaj retoj (GANoj): kio ili estas?
- 31. Kiel vi elektos la nombron da neŭronoj kaj kaŝitaj tavoloj por inkluzivi en la neŭrala reto dum vi desegnas la arkitekturon?
- 32. Kiuj specoj de neŭralaj retoj estas uzataj per profunda plifortiga lernado?
- konkludo
Profunda lernado ne estas tute nova ideo. Artefaritaj neŭralaj retoj funkcias kiel la nura fundamento de la maŝinlernada subaro konata kiel profunda lernado.
Profunda lernado estas imitaĵo de homa cerbo, same kiel neŭralaj retoj, ĉar ili estis kreitaj por imiti la homan cerbon.
Estas ĉi tio dum kelka tempo. Nuntempe, ĉiuj parolas pri ĝi ĉar ni ne havas preskaŭ tiom da pretigpovo aŭ datumoj kiel nun.
Dum la pasintaj 20 jaroj, profunda lernado kaj maŝinlernado aperis kiel rezulto de la drama pliiĝo de pretigkapablo.
Por helpi vin prepari por iuj demandoj, kiujn vi povus alfronti serĉante vian revan laboron, ĉi tiu afiŝo gvidos vin tra kelkaj profundaj lernaj intervjuaj demandoj, de simpla ĝis komplika.
1. Kio ĝuste estas Profunda Lernado?
Se vi ĉeestas a profunda lernado intervjuo, vi sendube komprenas, kio estas profunda lernado. La intervjuanto, tamen, antaŭvidas, ke vi donu detalan respondon kune kun ilustraĵo responde al ĉi tiu demando.
Por trejni Neŭraj retoj por profunda lernado, signifaj kvantoj de organizitaj aŭ nestrukturitaj datumoj devas esti uzataj. Por trovi kaŝitajn ŝablonojn kaj karakterizaĵojn, ĝi faras komplikajn procedurojn (ekzemple, distingi la bildon de kato de tiu de hundo).
2. Kio distingas Profundan Lernadon de Maŝina Lernado?
Kiel branĉo de artefarita inteligenteco konata kiel maŝinlernado, ni trejnas komputilojn uzante datumojn kaj statistikajn kaj algoritmajn teknikojn por ke ili pliboniĝu kun la tempo.
Kiel aspekto de maŝinlernado, profunda lernado imitas la neŭralan retan arkitekturon viditan en la homa cerbo.
3. Kiaj estas viaj nunaj komprenoj pri neŭralaj retoj?
Artefaritaj sistemoj konataj kiel neŭralaj retoj similas tre proksime al la organikaj neŭralaj retoj trovitaj en la homa korpo.
Uzante teknikon kiu similas kiel la homa cerbo funkcioj, neŭrala reto estas kolekto de algoritmoj, kiu celas identigi subestajn korelaciojn en datumo.
Tiuj sistemoj akiras taskospecifan scion eksponante sin al gamo da datenserioj kaj ekzemploj, prefere ol sekvante iujn ajn taskospecifajn regulojn.
La ideo estas ke anstataŭ havi antaŭ-programitan komprenon de ĉi tiuj datumaroj, la sistemo lernas distingitajn trajtojn de la datenoj kiujn ĝi estas provizita.
La tri retotavoloj kiuj estas plej ofte uzitaj en Neŭralaj retoj estas kiel sekvas:
- Eniga tavolo
- Kaŝita tavolo
- Eliga tavolo
4. Kio ekzakte estas perceptrono?
La biologia neŭrono trovita en la homa cerbo estas komparebla al perceptrono. Multoblaj enigaĵoj estas ricevitaj per la perceptrono, kiu tiam elfaras multajn transformojn kaj funkciojn kaj produktas produktaĵon.
Linia modelo nomita perceptrono estas utiligita en binara klasifiko. Ĝi simulas neŭronon kun diversaj enigaĵoj, ĉiu kun malsama pezo.
La neŭrono kalkulas funkcion uzante tiujn pezbalancitajn enigaĵojn kaj eligas la rezultojn.
5. Kio ĝuste estas profunda neŭrala reto?
Profunda neŭrala reto estas artefarita neŭrala reto (ANN) kun pluraj tavoloj inter la eniga kaj eligotavoloj (DNN).
Profundaj neŭralaj retoj estas profundaj arkitekturaj neŭralaj retoj. La vorto "profunda" rilatas al funkcioj kun multaj niveloj kaj unuoj en ununura tavolo. Pli precizaj modeloj povas esti kreitaj aldonante pli kaj pli grandajn tavolojn por kapti pli grandajn nivelojn de ŝablonoj.
6. Kio Ĝuste Estas Plurtavola Perceptrono (MLP)?
Enigo, kaŝa, kaj eligotavoloj ĉeestas en MLPoj, tre kiel en neŭralaj retoj. Ĝi estas konstruita simile al unutavola perceptrono kun unu aŭ pluraj kaŝitaj tavoloj.
La binara produktado de ununura tavola perceptrono povas nur klasifiki liniajn apartigeblajn klasojn (0,1), dum MLP povas klasifiki neliniajn klasojn.
7. Kian celon ludas aktivigaj funkcioj en neŭrala reto?
Aktiviga funkcio determinas ĉu aŭ ne neŭrono devus aktivigi ĉe la plej fundamenta nivelo. Ĉiu aktiviga funkcio povas akcepti la pezbalancitan sumon de la enigaĵoj kaj plie biaso kiel enigaĵon. Aktivigaj funkcioj inkludas la paŝofunkcion, la Sigmoid, la ReLU, la Tanh, kaj la Softmax.
8. Kio Ĝuste Estas Gradienta Deveno?
La plej bona aliro por minimumigi kostfunkcion aŭ eraron estas gradienta deveno. Trovi la lok-tutmondajn minimumojn de funkcio estas la celo. Ĉi tio precizigas la vojon, kiun la modelo devus sekvi por minimumigi eraron.
9. Kio Ĝuste Estas la Kosta Funkcio?
La kostfunkcio estas metriko por taksi kiom bone funkcias via modelo; ĝi foje estas konata kiel "perdo" aŭ "eraro". Dum malantaŭa disvastigo, ĝi estas uzata por kalkuli la eraron de la produktaĵtavolo.
Ni ekspluatas tiun malprecizecon por antaŭenigi la trejnajn procezojn de la neŭrala reto repuŝante ĝin tra la neŭrala reto.
10. Kiel profundaj retoj povas superi malprofundajn?
Kaŝitaj tavoloj estas aldonitaj al neŭralaj retoj aldone al eniga kaj eligotavoloj. Inter la eniga kaj produktaĵtavoloj, malprofundaj neŭralaj retoj utiligas ununuran kaŝan tavolon, dum profundaj neŭralaj retoj uzas multajn nivelojn.
Malprofunda reto postulas plurajn parametrojn por povi konveni en ajnan funkcion. Profundaj retoj povas pli bone konveni funkciojn eĉ kun malgranda nombro da parametroj ĉar ili inkluzivas plurajn tavolojn.
Profundaj retoj nun estas preferitaj pro sia ĉiuflankeco labori kun ajna speco de datummodelado, ĉu ĝi estu por parolo aŭ bildrekono.
11. Priskribu antaŭen disvastigon.
Enigaĵoj estas elsenditaj kune kun pezoj al la entombigita tavolo en procezo konata kiel plusenda disvastigo.
La produktado de la aktiviga funkcio estas komputita en ĉiu entombigita tavolo antaŭ ol prilaborado povas daŭriĝi al la sekva tavolo.
La procezo komenciĝas ĉe la enirtavolo kaj progresas al la finfina produktaĵtavolo, tiel la nomo antaŭen disvastigo.
12. Kio estas malantaŭa propagado?
Kiam pezoj kaj biasoj estas alĝustigitaj en la neŭrala reto, dorsdisvastigo kutimas redukti la kostfunkcion unue observante kiel la valorŝanĝoj.
Kompreni la gradienton ĉe ĉiu kaŝita tavolo faciligas kalkuli ĉi tiun ŝanĝon.
La procezo, konata kiel malantaŭa disvastigo, komenciĝas ĉe la produktaĵtavolo kaj moviĝas malantaŭen al la enirtavoloj.
13. En la kunteksto de profunda lernado, kiel vi komprenas gradienta tondado?
Gradienta Tondado estas metodo por solvi la temon de eksplodaj gradientoj kiuj ekestas dum malantaŭa disvastigo (kondiĉo en kiu signifaj malĝustaj gradientoj akumuliĝas dum tempo, kondukante al signifaj alĝustigoj al neŭralaj modelpezoj dum trejnado).
Eksplodado de gradientoj estas problemo, kiu aperas kiam la gradientoj fariĝas tro grandaj dum trejnado, igante la modelon malstabila. Se la gradiento transiris la atendatan intervalon, la gradientvaloroj estas puŝitaj elemento-post-elemento al antaŭdifinita minimuma aŭ maksimuma valoro.
Gradientotondado plibonigas la nombran stabilecon de neŭrala reto dum trejnado, sed ĝi havas minimuman efikon al la agado de la modelo.
14. Kio Estas la Funkcioj Softmax kaj ReLU?
Aktiviga funkcio nomata Softmax produktas produktaĵon en la intervalo inter 0 kaj 1. Ĉiu produktaĵo estas dividita tiel ke la sumo de ĉiuj produktaĵoj estas unu. Por produktaĵtavoloj, Softmax estas ofte utiligita.
Rectified Linear Unit, foje konata kiel ReLU, estas la plej uzita aktiviga funkcio. Se X estas pozitiva, ĝi eligas X, alie ĝi eligas nulojn. ReLU estas regule aplikata al entombigitaj tavoloj.
15. Ĉu modelo de neŭrala reto povas esti trejnita kun ĉiuj pezoj fiksitaj al 0?
La neŭrala reto neniam lernos plenumi antaŭfiksitan taskon, tial ne eblas trejni modelon pravalorigante ĉiujn pezojn al 0.
La derivaĵoj restos la samaj por ĉiu pezo en W [1] se ĉiuj pezoj estas pravigitaj al nul, kio rezultigos neŭronojn lernajn la samajn ecojn ripete.
Ne simple pravigi la pezojn al 0, sed al iu ajn formo de konstanto rezultigos verŝajne subpara rezulto.
16. Kio distingas epokon de aro kaj ripeto?
Malsamaj formoj de prilaborado de datumaroj kaj gradientdevenaj teknikoj inkluzivas aron, ripeton kaj epokon. Epoko implikas unufoje tra neŭralan reton kun plena datumaro, ambaŭ antaŭen kaj malantaŭen.
Por provizi fidindajn rezultojn, la datumaro estas ofte preterpasita plurajn fojojn ĉar ĝi estas tro granda por pasi en unu provo.
Ĉi tiu praktiko de plurfoje prizorgi malgrandan kvanton da datenoj tra neŭrala reto estas referita kiel ripeto. Por garantii ke la datumaro sukcese trairas la neŭralaj retoj, ĝi povas esti dividita en kelkajn arojn aŭ subarojn, kio estas konata kiel batching.
Depende de la datumkolekta grandeco, ĉiuj tri metodoj - epoko, ripeto kaj aro - estas esence manieroj uzi la algoritmo de malsupreniro de gradienta.
17. Kio Estas Bata Normaligo kaj Forigo?
Forigo malhelpas datumojn troadaptite hazarde forigante ambaŭ videblajn kaj kaŝitajn retunuojn (tipe faligante 20 procentojn de la nodoj). Ĝi duobligas la nombron da ripetoj necesaj por ke la reto konverĝu.
Normaligante la enigaĵojn en ĉiu tavolo por havi averaĝan produktaĵaktivigon de nulo kaj norman devion de unu, grupnormaligo estas strategio por plibonigi la efikecon kaj stabilecon de neŭralaj retoj.
18. Kio Apartigas Stokastikan Gradientan Devenon de Batch Gradienta Deveno?
Loka Gradienta Deveno:
- La kompleta datumaro estas uzata por konstrui la gradienton por la bata gradiento.
- La grandega kvanto da datumoj kaj la malrapide ĝisdatiĝantaj pezoj malfaciligas la konverĝon.
Stokasta Gradienta Deveno:
- La stokasta gradiento uzas ununuran provaĵon por komputi la gradienton.
- Pro la pli oftaj pezŝanĝoj, ĝi konverĝas signife pli rapide ol la grupa gradiento.
19. Kial estas grave inkluzivi ne-linearecojn en neŭralaj retoj?
Ne grave kiom da tavoloj ekzistas, neŭrala reto kondutos kiel perceptron en foresto de ne-linearecoj, igante la produktaĵon linie dependa de la enigaĵo.
Por diri ĝin alimaniere, neŭrala reto kun n tavoloj kaj m kaŝitaj unuoj kaj liniaj aktivigaj funkcioj estas ekvivalenta al linia neŭrala reto sen kaŝitaj tavoloj kaj kun la kapablo detekti liniajn apartlimojn sole.
Sen ne-linearecoj, neŭrala reto estas nekapabla solvi komplikajn problemojn kaj precize kategoriigi la enigaĵon.
20. Kio estas tensoro en profunda lernado?
Plurdimensia tabelo konata kiel tensoro funkcias kiel ĝeneraligo de matricoj kaj vektoroj. Ĝi estas decida datumstrukturo por profunda lernado. N-dimensiaj tabeloj de fundamentaj datumtipoj estas uzataj por reprezenti tensorojn.
Ĉiu komponento de la tensoro havas la saman datumtipon, kaj ĉi tiu datumtipo ĉiam estas konata. Eblas, ke nur peco de la formo—nome, kiom da dimensioj estas kaj kiom granda ĉiu estas—estas konata.
En situacioj kiam la enigaĵoj ankaŭ estas tute konataj, la plimulto de operacioj produktas plene konatajn tensorojn; en aliaj kazoj, la formo de tensoro povas nur esti establita dum grafeekzekuto.
21. Kiel vi elektus la aktivigan funkcion por profunda lernado-modelo?
- Estas senco utiligi linearan aktivigan funkcion se la rezulto, kiu devas esti antaŭvidita, estas reala.
- Sigmoida funkcio devus esti utiligita se la produktaĵo kiu devas esti prognozita estas binara klasprobablo.
- Tanh-funkcio povas esti utiligita se la projekciita produktaĵo enhavas du klasifikojn.
- Pro ĝia facileco de komputado, la ReLU-funkcio estas uzebla en larĝa gamo de situacioj.
22. Kion vi volas diri per CNN?
Profundaj neŭralaj retoj, kiuj specialiĝas pri taksado de vidaj bildoj, inkluzivas konvoluciajn neŭralajn retojn (CNN aŭ ConvNet). Ĉi tie, prefere ol en neŭralaj retoj kie vektoro reprezentas la enigaĵon, la enigaĵo estas plurkanaligita bildo.
Plurtavolaj perceptronoj estas uzitaj laŭ speciala maniero fare de CNN-oj kiu postulas tre malmulte da antaŭpretigo.
23. Kio estas la multaj tavoloj de CNN?
Konvolucia Tavolo: La ĉefa tavolo estas la konvolucia tavolo, kiu havas diversajn lerneblajn filtrilojn kaj akcepteman kampon. Ĉi tiu komenca tavolo prenas la enigajn datumojn kaj ĉerpas ĝiajn karakterizaĵojn.
ReLU-Tavolo: Farante la retojn ne-liniaj, ĉi tiu tavolo igas negativajn pikselojn nul.
Kungrupa tavolo: Minimumigante prilaboradon kaj retajn agordojn, la kunigtavolo iom post iom minimumigas la spacan grandecon de la reprezentado. Maksimuma kunigo estas la plej uzata metodo de kunigo.
24. Kiuj estas la efikoj de tro- kaj malsufiĉo, kaj kiel vi povas eviti ilin?
Ĉi tio estas konata kiel trofitting kiam modelo lernas la komplikaĵojn kaj bruon en la trejnaddatenoj al la punkto kie ĝi negative influas la uzon de la modelo de freŝaj datenoj.
Estas pli verŝajne okazi kun neliniaj modeloj kiuj estas pli adapteblaj dum lernado de celfunkcio. Modelo povas esti trejnita por detekti aŭtojn kaj kamionojn, sed ĝi eble nur povas identigi veturilojn kun aparta kestoformo.
Konsiderante ke ĝi estis nur trejnita sur unu speco de kamiono, ĝi eble ne povas detekti platkamionon. Pri trejnaj datumoj, la modelo funkcias bone, sed ne en la reala mondo.
Nesufiĉe taŭga modelo rilatas al unu kiu ne estas sufiĉe trejnita pri datenoj aŭ kapabla ĝeneraligi al novaj informoj. Ĉi tio ofte okazas kiam modelo estas trejnita kun nesufiĉaj aŭ malprecizaj datumoj.
Precizeco kaj rendimento estas ambaŭ kompromititaj pro nesufiĉa ĝustigas.
Resampling la datenoj por taksi modelprecizecon (K-obla kruc-validado) kaj uzi validuman datumaron por taksi la modelon estas du manieroj eviti trofitting kaj underfitting.
25. En profunda lernado, kio estas RNN?
Ripetantaj neŭralaj retoj (RNNoj), ofta gamo da artefaritaj neŭralaj retoj, sekvas la mallongigon RNN. Ili estas utiligitaj por prilabori genarojn, manskribon, tekston, kaj datensekvencojn, inter aliaj aĵoj. Por la necesa trejnado, RNNoj utiligas malantaŭan disvastigon.
26. Priskribu la Adam Optimizer
Adam-optimumigilo, ankaŭ konata kiel adapta impeto, estas optimumiga tekniko evoluigita por pritrakti bruajn situaciojn kun malabundaj gradientoj.
Aldone al disponigado de po-parametraj ĝisdatigoj por pli rapida konverĝo, la Adam-optimumiganto plibonigas konverĝon per impeto, certigante ke modelo ne fariĝas kaptita en la sela punkto.
27. Profundaj aŭtokodiloj: kio ili estas?
Profunda aŭtokodilo estas la kolektiva nomo por du simetriaj profundaj kredretoj kiuj ĝenerale inkludas kvar aŭ kvin malprofundajn tavolojn por la kodiga duono de la reto kaj alian aron de kvar aŭ kvin tavoloj por la malkodiga duono.
Tiuj tavoloj formas la fundamenton de profundaj kredretoj kaj estas limigitaj per Boltzmann-maŝinoj. Post ĉiu RBM, profunda aŭtokodilo aplikas binarajn ŝanĝojn al la datumaro MNIST.
Ili ankaŭ povas esti uzitaj en aliaj datenserioj kie Gaŭsaj ĝustigitaj transformoj estus preferitaj super RBM.
28. Kion signifas Tensoro en Tensorflow?
Ĉi tio estas alia profunda lerna intervjua demando, kiu estas regule demandita. Tensoro estas matematika koncepto kiu estas bildigita kiel pli alt-dimensiaj tabeloj.
Tensoroj estas ĉi tiuj datumaj tabeloj, kiuj estas provizitaj kiel enigaĵo al la neŭrala reto kaj havas diversajn grandecojn kaj rangotabelojn.
29. Klarigo de komputila grafeo
La fundamento de TensorFlow estas la konstruado de komputila grafeo. Ĉiu nodo funkcias en reto de nodoj, kie nodoj signifas matematikajn operaciojn kaj randojn por tensoro.
Ĝi foje estas referita kiel "DataFlow Graph" ĉar datumoj fluas en formo de grafeo.
30. Generativaj kontraŭaj retoj (GANoj): kio ili estas?
En Profunda Lernado, genera modeligado estas plenumita uzante generajn kontraŭajn retojn. Ĝi estas nekontrolita laboro, kie la rezulto estas produktita per identigado de ŝablonoj en la enirdatenoj.
La diskriminanto kutimas kategoriigi la kazojn produktitajn per la generatoro, dum la generatoro kutimas produkti novajn ekzemplojn.
31. Kiel vi elektos la nombron da neŭronoj kaj kaŝitaj tavoloj por inkluzivi en la neŭrala reto dum vi desegnas la arkitekturon?
Konsiderante komercan defion, la preciza nombro da neŭronoj kaj kaŝitaj tavoloj necesaj por konstrui neŭralan retan arkitekturon ne povas esti determinita per iuj malmolaj kaj rapidaj reguloj.
En neŭrala reto, la grandeco de la kaŝita tavolo devus fali ie en la mezo de la grandeco de la eniga kaj eligotavoloj.
Antaŭenigo dum kreado de neŭrala reto-dezajno povas esti atingita per kelkaj simplaj metodoj, tamen:
Komenci kun iuj bazaj sistemaj testadoj por vidi kio agados plej bone por iu specifa datumaro bazita sur antaŭa sperto kun neŭralaj retoj en similaj realaj agordoj estas la plej bona maniero trakti ĉiun unikan realmondan prognozan modeligan defion.
La retkonfiguracio povas esti elektita surbaze de onies scio pri la temodomajno kaj antaŭa neŭrala reto sperto. Kiam oni taksas la aranĝon de neŭrala reto, la nombro da tavoloj kaj neŭronoj uzataj pri rilataj problemoj estas bona loko por komenci.
La komplekseco de la neŭrala reto devus esti iom post iom pliigita surbaze de projekciita produktaĵo kaj precizeco, komencante kun simpla neŭrala retodezajno.
32. Kiuj specoj de neŭralaj retoj estas uzataj per profunda plifortiga lernado?
- En maŝinlernadparadigmo nomita plifortiga lernado, la modelo agas por maksimumigi la ideon de akumula rekompenco, same kiel vivaĵoj faras.
- Ludoj kaj memveturaj veturiloj estas ambaŭ priskribitaj kiel problemoj implikantaj plifortiga lernado.
- La ekrano estas uzata kiel enigo se la problemo por esti reprezentita estas ludo. Por produkti produktaĵon por la venontaj fazoj, la algoritmo prenas la pikselojn kiel enigaĵon kaj prilaboras ilin per multaj tavoloj de konvoluciaj neŭralaj retoj.
- La rezultoj de la agoj de la modelo, aŭ favoraj aŭ malbonaj, funkcias kiel plifortikigo.
konkludo
Deep Learning pliiĝis en populareco tra la jaroj, kun aplikoj en preskaŭ ĉiu industria areo.
Firmaoj ĉiam pli serĉas kompetentajn spertulojn, kiuj povas desegni modelojn, kiuj reproduktas homan konduton per profunda lernado kaj maŝinlernado aliroj.
Kandidatoj, kiuj pliigas sian kapablon kaj konservas sian scion pri ĉi tiuj avangardaj teknologioj, povas trovi ampleksan gamon de laborŝancoj kun alloga rekompenco.
Vi povas komenci per la intervjuoj nun, ke vi havas fortan komprenon pri kiel respondi al iuj el la plej ofte petitaj profunde lerni intervjudemandoj. Faru la sekvan paŝon laŭ viaj celoj.
Vizitu Hashdork's Intervjua Serio prepari por intervjuoj.
Lasi Respondon