MathWorks med djupinlärning

MathWorks version 2018b av MATLAB och Simulink innehåller viktiga förbättringar för djupinlärning, tillsammans med nya funktioner och uppdateringar av båda produktfamiljerna. Nya Deep Learning Toolbox, som ersätter Neural Network Toolbox, erbjuder ett ramverk för att utveckla och implementera djupa neurala nätverk.

De som arbetar med bildbehandling, datorseende, signalbehandling och signalsystem kan nu använda MATLAB för att ännu enklare utveckla komplexa nätverksarkitekturer och förbättra djupinlärningsmodellernas prestanda.
MathWorks anslöt sig nyligen till ONNX-communityn för att demonstrera företagets engagemang för interoperabilitet genom att möjliggöra samarbete mellan användare av MATLAB och andra ramverk för djupinlärning. Genom att använda den nya ONNX-konverteraren i R2018b kan modeller från andra ramverk som stöds, som PyTorch, MxNet och TensorFlow, importeras och exporteras. Denna interoperabilitet gör det möjligt att använda modeller som har tränats i MATLAB även i andra ramverk. På liknande sätt kan modeller som tränats i andra ramverk infogas i MATLAB för felsökning, validering och implementering på inbyggda system. Dessutom erbjuder R2018b en modererad uppsättning av referensmodeller som är tillgängliga via en enda rad av kod. Andra modellimporterare gör det även möjligt att använda modeller från Caffe och Keras-Tensorflow.
– Eftersom djupinlärning blir allt vanligare i fler och fler branscher ökar behovet av att göra tekniken tillgänglig, åtkomlig och tillämplig för ingenjörer och forskare med olika inriktningar, säger David Rich, marknadschef för MATLAB på MathWorks. Nu kan både nybörjare på djupinlärning och experter lära sig, tillämpa och bedriva avancerad forskning med MATLAB genom att använda ett integrerat arbetsflöde med djupinlärning, från forskning till prototyp och implementering.
MathWorks fortsätter att förbättra såväl användarnas produktivitet som användbarheten för arbetsflöden med djupinlärning i R2018b genom:
* Appen Deep Network Designer som gör det möjligt för användarna att skapa komplexa nätverksarkitekturer och modifiera komplexa förtränade nätverk för att överföra inlärning
* Förbättrad nätverksträning bortom desktopfunktioner genom stöd för molnleverantörer med MATLAB Deep Learning Container på NVIDIA GPU Cloud och MATLAB:s referensarkitekturer för Amazon Web Services och Microsoft Azure
* Bredare stöd för domänspecifika arbetsflöden, inklusive appar för ground truth-labelling av ljud, video och programspecifika datalager, som gör att det går lättare och snabbare att arbeta med stora samlingar av data
I R2018b fortsätter GPU Coder förbättra inferensprestanda genom att stödja NVIDIA-bibliotek och lägga till optimeringar som automatisk justering, lagerfusion och buffertminimering. Dessutom har distributionssupport lagts till för Intel- och ARM- plattformar som använder Intel MKL-DNN och ARM Compute Library.

Comments are closed.