Свързани публикации 'deep-learning'


Невронна мрежа: Същността на изкуствената невронна мрежа
Машинно обучение, дълбоко обучение Невронна мрежа: Същността на изкуствената невронна мрежа Какво всъщност представлява изкуствената невронна мрежа Човешкият мозък се състои от милиарди неврони, свързани един с друг и всеки неврон предава сигнал на друг чрез връзката. Това кара хората да имат конкретно действие, което трябва да извършат. Например, искате да бръкнете в джоба си, за да вземете телефона си, тогава ще има сигнал, който ще бъде изпратен до мозъка ви и ще премине през..

Елегантен пример за обратно разпространение — Част 2: Основи
Въведение В първата част на тази поредица от статии, ние подробно описахме основните теоретични основи на обратното разпространение и направихме проста реализация, включително събиране, изваждане и топологично сортиране. В тази статия ще разгледаме допълнително умножение, деление, степенуване и някои популярни функции за активиране. Тъй като извадихме теоретичните неща от пътя в предишната статия, която бих препоръчал да прочетете първо „тук“, ще се потопим директно в изпълнението...

Грешката в нашия подход: Какво правите погрешно, докато прилагате повтаряща се невронна мрежа-LSTM!
Започнах да навлизам в областта на машинното обучение преди няколко месеца и след като направих няколко проекта, си помислих, „това не е наистина трудно“. Това беше, докато не срещнах Deep Learning. Съвсем нова област на изследване, Deep Learning изисква огромно количество математически, както и аналитични знания. Създаването на невронна мрежа е еквивалентно на създаването на човешки мозък! Докато се подготвях да се докосна до невронните мрежи, разбрах, че е толкова завладяващо...

Използване на Хесиански многообразия за машинно обучение част1
Изчезващи теореми на L2-когомологични групи върху хесиански многообразия (arXiv) Автор: Шиня Акагава Резюме: Показваме изчезващи теореми на L2-когомологични групи от тип Kodaira-Nakano върху пълни хесиански многообразия. Получаваме допълнителни теореми за изчезване на L2-когомологични групи L2Hp,q(Ω) върху правилен изпъкнал конус Ω с метриката Cheng-Yau за p›q. 2. Оптимален транспортен подход към уравненията на Монж-Ампер върху компактни хесиански многообразия (arXiv) Автор:..

Работа с коефициента на Rayleigh в Machine Learning part9
Риманова оптимизация върху тензорни продукти на многообразия на Грасман: Приложения към обобщени Rayleigh-коефициенти (arXiv) Автор: О. Куртеф , Г. Dirr , U. Хелмке Резюме: Въвеждаме обобщен Rayleigh-коефициент върху тензорното произведение на Grassmannians, което позволява унифициран подход към добре известни задачи за оптимизация от различни области на числената линейна алгебра, като най-добри апроксимации от нисък ранг на тензори (компресия на данни), геометрични мерки на..

Обслужване на модел за класификация на изображения с обслужване на Tensorflow
Научете се да използвате Tensorflow Serving, за да създадете уеб услуга, която да обслужва вашия модел Tensorflow Това е втората част от поредица от блогове, която ще обхване обучението по модели на Tensorflow, обслужването на Tensorflow и неговата производителност. В предишната публикация възприехме обектно-ориентиран подход, за да обучим модел на класификатор на изображения и го експортирахме като SavedModel. Препоръчвам да го прегледате преди тази публикация, тъй като ще използваме..

Прецизност срещу припомняне. Какво всъщност ви казват?
Разберете идеята зад Precision and Recall Ако попитате който и да е учен по данни или инженер по машинно обучение за най-лесната и объркваща тема, която е научил — едно от първите неща, които ще им хрумнат, ще бъде Прецизност срещу извикване. От една страна , тази тема наистина е объркваща и аз самият прекарах много време, опитвайки се да разбера разликата и най-важното, какво ви казват тези два термина. От друга страна, темата е много проста и не изисква разбиране по..