Публикации по теме 'deep-learning'


Нейронная сеть: сущность искусственной нейронной сети
Машинное обучение, глубокое обучение Нейронная сеть: сущность искусственной нейронной сети Что на самом деле представляет собой искусственная нейронная сеть Человеческий мозг состоит из миллиардов нейронов, связанных друг с другом, и каждый нейрон передает сигнал другому через соединение. Это заставляет людей выполнять определенное действие. Например, вы хотите дотянуться до своего кармана, чтобы схватить телефон, тогда будет сигнал, который будет отправлен в ваш мозг и передан..

Тонкий пример обратного распространения — Часть 2: Основы
Введение В первой части этой серии статей мы подробно изложили основы теории обратного распространения ошибки и сделали простую реализацию, включающую сложение, вычитание и топологическую сортировку. В этой статье мы подробнее рассмотрим умножение, деление, возведение в степень и некоторые популярные функции активации. Так как мы убрали теоретический материал из предыдущей статьи, которую я бы порекомендовал сначала прочитать здесь , мы погрузимся непосредственно в реализацию...

Ошибка в нашем подходе: что вы делаете неправильно при реализации рекуррентной нейронной сети-LSTM!
Я начал углубляться в области машинного обучения несколько месяцев назад и, выполнив несколько проектов, подумал про себя: «Это не так уж сложно». Так было до тех пор, пока я не столкнулся с глубоким обучением. Совершенно новая область исследования, глубокое обучение, требует огромного количества математических, а также аналитических знаний. Создание нейронной сети в основном эквивалентно созданию человеческого мозга! Когда я готовился познакомиться с нейронными сетями, я понял,..

Использование гессианских многообразий для машинного обучения, часть 1
Теоремы об исчезновении групп L2-когомологий на многообразиях Гессе (arXiv) Автор: Синья Акагава . Аннотация: Доказаны теоремы об исчезновении групп L2-когомологий типа Кодаиры-Накано на полных гессиановых многообразиях. Получены дальнейшие теоремы об исчезновении групп L2-когомологий L2Hp,q(Ω) на регулярном выпуклом конусе Ω с метрикой Ченга–Яу для p›q. 2. Оптимальный транспортный подход к уравнениям Монжа-Ампера на компактных многообразиях Гессе (arXiv) Автор : Якоб..

Работа с коэффициентом Рэлея в машинном обучении, часть 9
Риманова оптимизация тензорных произведений грассмановых многообразий: приложения к обобщенным факторам Рэлея (arXiv) Автор : О. Куртеф , Г. Дирр , Ю. Хельмке Аннотация: Вводится обобщенный фактор Рэлея на тензорном произведении грассманианов, позволяющий унифицировать подход к широко известным задачам оптимизации из различных областей числовой линейной алгебры, таким как наилучшие низкоранговые аппроксимации тензоров (сжатие данных), геометрические меры запутанность (квантовые..

Обслуживание модели классификации изображений с помощью Tensorflow Serving
Научитесь использовать Tensorflow Serving для создания веб-сервиса для обслуживания вашей модели Tensorflow. Это вторая часть серии блогов, посвященных обучению модели Tensorflow, обслуживанию Tensorflow и его производительности. «В предыдущем посте мы использовали объектно-ориентированный подход для обучения модели классификатора изображений и экспортировали ее как SavedModel. Я рекомендую просмотреть его перед этим постом, так как мы собираемся использовать одну и ту же модель. Вы..

Точность против отзыва. Что они на самом деле говорят вам?
Понять идею Precision and Recall Если вы спросите любого специалиста по обработке и анализу данных или инженера по машинному обучению о самой простой и запутанной теме, которую они изучили, первое, что им придет в голову, будет Точность и полнота . С одной стороны , эта тема действительно сбивает с толку, и я сам потратил массу времени, пытаясь понять разницу, а главное, что вам говорят эти два термина. С другой стороны, тема очень проста и не требует понимания математики,..