Publicații conexe 'deep-learning'


Rețeaua neuronală: Esența rețelei neuronale artificiale
Învățare automată, Învățare profundă Rețeaua neuronală: Esența rețelei neuronale artificiale Ce este de fapt rețeaua neuronală artificială Creierul uman este format din miliarde de neuroni conectați între ei și fiecare neuron transmite un semnal către altul prin conexiune. Acest lucru face ca oamenii să aibă o acțiune specifică de efectuat. De exemplu, vrei să ajungi la buzunar pentru a-ți prinde telefonul, atunci va fi un semnal care va fi trimis la creier și trecut prin aceste..

Un exemplu subtil de backpropagation — Partea 2: Fundamente
Introducere În „prima parte” a acestei serii de articole, am detaliat fundamentele teoriei de bază ale propagării inverse și am realizat o implementare simplă incluzând adunarea, scăderea și sortarea topologică. În acest articol, vom explora în continuare înmulțirea, împărțirea, exponențiarea și câteva funcții de activare populare. Deoarece am scos lucrurile teoretice din drum în articolul precedent, pe care aș recomanda să-l citiți mai întâi „aici”, ne vom arunca direct în implementare...

Defectul abordării noastre: Ce greșiți în timp ce implementați Recurrent Neural Network-LSTM!
Am început să mă aprofundez în domeniul învățării automate în urmă cu câteva luni și după ce am realizat câteva proiecte, m-am gândit în sinea mea: „Acesta nu este chiar greu”. Asta până când am întâlnit Deep Learning. Un domeniu de studiu complet nou, Deep Learning necesită o cantitate mare de cunoștințe matematice și analitice. Crearea unei rețele neuronale este practic echivalent cu realizarea unui creier uman! În timp ce mă pregăteam să pun mâna pe Neural Nets, mi-am dat seama..

Utilizarea Hessian Manifolds pentru Machine Learning partea 1
Teoreme de dispariție ale grupurilor de coomologie L2 pe varietăți hessiene (arXiv) Autor: Shinya Akagawa Rezumat : : Prezentăm teoreme de dispariție ale grupurilor de coomologie L2 de tip Kodaira-Nakano pe varietăți hessiene complete. Obținem teoreme suplimentare ale grupurilor de coomologie L2 L2Hp,q(Ω) pe un con convex regulat Ω cu metrica Cheng-Yau pentru p›q. 2. O abordare optimă de transport a ecuațiilor Monge-Ampère pe varietăți compacte Hessiene (arXiv) Autor: Jakob..

Lucrul cu coeficientul Rayleigh în Machine Learning partea 9
Optimizarea Riemanniană pe produsele tensorale ale varietăților Grassmann: Aplicații la coeficienti Rayleigh generalizați (arXiv) Autor: O. Curtef , G. Dirr , U. Helmke Rezumat: Introducem un coeficient de Rayleigh generalizat pe produsul tensor al Grassmannienilor, permițând o abordare unificată a sarcinilor de optimizare binecunoscute din diferite domenii ale algebrei liniare numerice, cum ar fi cele mai bune aproximări de rang scăzut ale tensorilor (comprimarea datelor),..

Servirea unui model de clasificare a imaginilor cu Tensorflow Serving
Învață să folosești Tensorflow Serving pentru a crea un serviciu web care să servească modelul tău Tensorflow Aceasta este a doua parte a unei serii de bloguri care va acoperi instruirea modelului Tensorflow, Tensorflow Serving și performanța acestuia. „În postarea anterioară”, am adoptat o abordare orientată pe obiect pentru a antrena un model de clasificator de imagini și l-am exportat ca SavedModel. Recomand să-l parcurgeți înainte de această postare, deoarece vom folosi același model...

Precizie vs rechemare. Ce îți spun ei de fapt?
Înțelegeți ideea din spatele Precision and Recall Dacă ai întreba orice om de știință de date sau inginer de învățare automată despre cel mai ușor și mai confuz subiect pe care l-a învățat, unul dintre primele lucruri care le-ar veni în minte ar fi Precizie vs Recall . Pe de o parte , acest subiect este într-adevăr confuz și eu însumi am petrecut mult timp încercând să înțeleg diferența și, cel mai important, ce vă spun acești doi termeni. Pe de altă parte, subiectul este foarte..