Table of Contents[Ferstopje][Toanje]
In ramt foar djip learen bestiet út in kombinaasje fan ynterfaces, bibleteken en ark om Machine Learning-modellen fluch en sekuer te definiearjen en te trenen.
Om't djippe learen in grutte hoemannichte unstrukturearre, net-tekstuele gegevens brûkt, hawwe jo in ramt nedich dat de ynteraksje tusken de "lagen" kontrolearret en modelûntwikkeling fluch makket troch te learen fan 'e ynfiergegevens en autonome besluten te meitsjen.
As jo ynteressearre binne yn learen oer djip learen yn 2021, beskôgje dan it brûken fan ien fan 'e hjirûnder oanjûne kaders. Unthâld om ien te kiezen dy't jo sil helpe om jo doelen en fyzje te berikken.
1. TensorFlow
As it oer djip learen praat, TensorFlow is faak it earste ramt neamd. Heech populêr, dit ramt wurdt net allinich brûkt troch Google - it bedriuw dat ferantwurdlik is foar har skepping - mar ek troch oare bedriuwen lykas Dropbox, eBay, Airbnb, Nvidia, en safolle oaren.
TensorFlow kin brûkt wurde om API's op hege en leech nivo te ûntwikkeljen, wêrtroch jo applikaasjes kinne útfiere op hast elke soart apparaat. Hoewol Python de primêre taal is, kin de ynterface fan Tensoflow tagonklik en kontroleare wurde mei oare programmeartalen lykas C++, Java, Julia en JavaScript.
As iepen boarne, kinne TensorFlow jo ferskate yntegraasjes meitsje mei oare API's en rappe stipe en updates krije fan 'e mienskip. It fertrouwen op "statyske grafiken" foar berekkening lit jo direkte berekkeningen meitsje of operaasjes bewarje foar tagong op in oar momint. Dizze redenen, tafoege oan de mooglikheid dat jo de ûntwikkeling fan jo neurale netwurk kinne "besjoch" fia TensorBoard, meitsje TensorFlow it populêrste ramt foar djip learen.
Key Features
- Iepen Boarne
- fleksibiliteit
- Snelle debuggen
2. PyTorch
PyTorch is in ramt ûntwikkele troch Facebook om de wurking fan har tsjinsten te stypjen. Sûnt it iepen-boarne waard, is dit ramt brûkt troch oare bedriuwen dan Facebook, lykas Salesforce en Udacity.
Dit ramt wurket dynamysk bywurke grafiken, wêrtroch jo wizigingen kinne meitsje oan 'e arsjitektuer fan jo dataset as jo dizze ferwurkje. Mei PyTorch is it ienfâldiger om in neuraal netwurk te ûntwikkeljen en te trenen, sels sûnder ûnderfining yn djip learen.
Troch iepen boarne te wêzen en basearre op Python, kinne jo ienfâldige en rappe yntegraasjes meitsje mei PyTorch. It is ek in ienfâldich ramt om te learen, te brûken en te debuggen. As jo fragen hawwe, kinne jo rekkenje op de geweldige stipe en updates fan beide mienskippen - Python-mienskip en de PyTorch-mienskip.
Key Features
- Maklik om te learen
- Unterstützt GPU en CPU
- Ryk set fan API's om biblioteken út te wreidzjen
3. Apache MX Net
Troch syn hege skalberens, hege prestaasjes, snelle probleemoplossing en avansearre GPU-stipe, is dit ramt makke troch Apache foar gebrûk yn grutte yndustriële projekten.
MXNet omfettet de Gluon-ynterface wêrmei ûntwikkelders fan alle feardigensnivo's kinne begjinne mei djip learen op 'e wolk, op râneapparaten, en op mobile apps. Yn mar in pear rigels fan Gluon-koade kinne jo lineêre regression, konvolúsjonele netwurken en weromkommende LSTM's bouwe foar objektdeteksje, spraakherkenning, oanbefelling en personalisaasje.
MXNet kin brûkt wurde op ferskate apparaten en wurdt stipe troch ferskate programmeertalen lykas Java, R, JavaScript, Scala en Go. Hoewol it oantal brûkers en leden yn har mienskip leech is, hat MXNet goed skreaune dokumintaasje en grut potensjeel foar groei, benammen no't Amazon dit ramt hat selektearre as it primêre ark foar Machine Learning op AWS.
Key Features
- 8 taalbindingen
- Ferspraat Training, stipet multi-CPU en multi-GPU systemen
- Hybride front-end, wêrtroch om te wikseljen tusken ymperatyf en symboalyske modus
4. Microsoft Cognitive Toolkit
As jo tinke oan it ûntwikkeljen fan applikaasjes of tsjinsten dy't rinne op Azure (Microsoft-wolktsjinsten), is de Microsoft Cognitive Toolkit it ramt om te selektearjen foar jo projekten foar djippe learen. Dit is iepen boarne, en stipe troch programmeartalen lykas Python, C++, C#, Java, ûnder oaren. Dit ramt is ûntworpen om "tinke as it minsklik brein", sadat it grutte hoemannichten unstrukturearre gegevens kin ferwurkje, wylst se rappe training en in yntuïtive arsjitektuer oanbiede.
Troch dit ramt te selektearjen - itselde efter Skype, Xbox, en Cortana - krije jo goede prestaasjes fan jo applikaasjes, skalberens en ienfâldige yntegraasje mei Azure. Lykwols, yn ferliking mei TensorFlow of PyTorch, wurdt it oantal leden yn har mienskip en stipe fermindere.
De folgjende fideo biedt in folsleine ynlieding en foarbylden fan tapassing:
Key Features
- Dúdlike dokumintaasje
- Stipe fan Microsoft team
- Direkte grafyk fisualisaasje
5. Keras
Lykas PyTorch is Keras in Python-basearre bibleteek foar data-yntinsive projekten. De keras API wurket op in heech nivo en lit yntegraasjes mei leech nivo APIs lykas TensorFlow, Theano, en Microsoft Cognitive Toolkit.
Guon foardielen fan it brûken fan keras binne har ienfâld om te learen - it oanrikkemandearre ramt foar begjinners yn djip learen; syn snelheid fan ynset; hawwende grutte stipe fan de python mienskip en fan mienskippen fan de oare kaders dêr't it is yntegrearre.
Keras befettet ferskate ymplemintaasjes fan de boustiennen fan neurale netwurken lykas lagen, objektive funksjes, aktivearring funksjes, en wiskundige optimizers. De koade wurdt hosted op GitHub en d'r binne foarums en in Slack-stipekanaal. Neist stipe foar standert neurale netwurken, Keras biedt stipe foar Convolutional Neural Networks en Recurrent Neural Networks.
Keras lit djippe learmodellen te generearjen op smartphones op sawol iOS as Android, op in Java Virtual Machine, of op it web. It lit ek it gebrûk fan ferdielde training fan modellen foar djippe learen op klusters fan Graphics Processing Units (GPU) en Tensor Processing Units (TPU) mooglik meitsje.
Key Features
- Pre-trained modellen
- Meardere backend-stipe
- Brûkersfreonlik en grutte mienskipsstipe
6. Apple Core ML
Core ML waard ûntwikkele troch Apple om har ekosysteem te stypjen - IOS, Mac OS, en iPad OS. De API wurket op in leech nivo, en makket goed gebrûk fan CPU's en GPU's boarnen, wêrtroch modellen en oanmakke applikaasjes kinne rinne, sels sûnder in ynternetferbining, wat de "ûnthâldfoetôfdruk" en enerzjyferbrûk fan it apparaat ferminderet.
De manier wêrop Core ML dit berikt is net krekt troch noch in oare masine-learbibleteek te meitsjen dy't is optimalisearre foar it rinnen op iphones / ipads. Ynstee dêrfan is Core ML mear as in kompilator dy't modelspesifikaasjes en trained parameters nimt útdrukt mei oare masine-learsoftware en it konvertearret yn in bestân dat in boarne wurdt foar in iOS-app. Dizze konverzje nei in Core ML-model bart by appûntwikkeling, net yn real-time as de app wurdt brûkt, en wurdt fasilitearre troch de coremltools python-bibleteek.
Core ML leveret flugge prestaasje mei maklike yntegraasje fan masine learen modellen yn applikaasjes. It stipet djip learen mei mear as 30 soarten lagen, lykas beslútbeammen, stipe fektormasines, en lineêre regressionmetoaden, allegear boud boppe op technologyen op leech nivo lykas Metal en Accelerate.
Key Features
- Maklik te yntegrearjen yn apps
- Optimaal gebrûk fan lokale boarnen, net nedich ynternet tagong
- Privacy: de gegevens hoege it apparaat net te ferlitten
7. ONNX
It lêste ramt op ús list is ONNX. Dit ramt ûntstie út in gearwurking tusken Microsoft en Facebook, mei it doel om it proses fan it oerdragen en bouwen fan modellen te ferienfâldigjen tusken ferskate kaders, ark, runtimes en kompilers.
ONNX definiearret in mienskiplik bestânstype dat kin rinne op meardere platfoarms, wylst se gebrûk meitsje fan de foardielen fan leech-nivo API's lykas dy fan Microsoft Cognitive Toolkit, MXNet, Caffe en (mei konvertearders) Tensorflow en Core ML. It prinsipe efter ONNX is om in model op in stapel te trenen en it út te fieren mei oare konklúzjes en foarsizzings.
De LF AI Foundation, in suborganisaasje fan 'e Linux Foundation, is in organisaasje wijd oan it bouwen fan in ekosysteem om te stypjen iepen-boarne ynnovaasje yn keunstmjittige yntelliginsje (AI), masine learen (ML), en djip learen (DL). It tafoege ONNX as in projekt op ôfstudearnivo op 14 novimber 2019. Dizze beweging fan ONNX ûnder de paraplu fan 'e LF AI Foundation waard sjoen as in wichtige mylpeal yn it fêststellen fan ONNX as in leveransier-neutrale standert foar iepen formaat.
De ONNX Model Zoo is in kolleksje fan foar-trainde modellen yn Deep Learning te krijen yn ONNX-formaat. Foar elk model binne der Jupyter notebooks foar modeltraining en it útfieren fan konklúzje mei it oplaat model. De notebooks binne skreaun yn Python en befetsje keppelings nei de training dataset en ferwizings nei it orizjinele wittenskiplike dokumint dat de modelarsjitektuer beskriuwt.
Key Features
- Framework ynteroperabiliteit
- Hardware Optimization
Konklúzje
Dit is in gearfetting fan de bêste kaders foar djip learen. D'r binne ferskate kaders foar dit doel, fergees of betelle. Om it bêste foar jo projekt te selektearjen, wite earst foar hokker platfoarm jo jo applikaasje sille ûntwikkelje.
Algemiene kaders lykas TensorFlow en Keras binne de bêste opsjes om te begjinnen. Mar as jo OS of apparaatspesifike foardielen moatte brûke, dan kinne Core ML en Microsoft Cognitive Toolkit de bêste opsjes wêze.
D'r binne oare kaders rjochte op Android-apparaten, oare masines en spesifike doelen dy't net yn dizze list binne neamd. As de lêste groep jo ynteresseart, stelle wy foar in sykjen nei har ynformaasje op Google of oare siden foar masine-learen.
Leave a Reply