Публикации по теме 'deep-learning'
Нейронная сеть: сущность искусственной нейронной сети
Машинное обучение, глубокое обучение
Нейронная сеть: сущность искусственной нейронной сети
Что на самом деле представляет собой искусственная нейронная сеть
Человеческий мозг состоит из миллиардов нейронов, связанных друг с другом, и каждый нейрон передает сигнал другому через соединение. Это заставляет людей выполнять определенное действие. Например, вы хотите дотянуться до своего кармана, чтобы схватить телефон, тогда будет сигнал, который будет отправлен в ваш мозг и передан..
Тонкий пример обратного распространения — Часть 2: Основы
Введение
В первой части этой серии статей мы подробно изложили основы теории обратного распространения ошибки и сделали простую реализацию, включающую сложение, вычитание и топологическую сортировку. В этой статье мы подробнее рассмотрим умножение, деление, возведение в степень и некоторые популярные функции активации.
Так как мы убрали теоретический материал из предыдущей статьи, которую я бы порекомендовал сначала прочитать здесь , мы погрузимся непосредственно в реализацию...
Ошибка в нашем подходе: что вы делаете неправильно при реализации рекуррентной нейронной сети-LSTM!
Я начал углубляться в области машинного обучения несколько месяцев назад и, выполнив несколько проектов, подумал про себя: «Это не так уж сложно». Так было до тех пор, пока я не столкнулся с глубоким обучением. Совершенно новая область исследования, глубокое обучение, требует огромного количества математических, а также аналитических знаний.
Создание нейронной сети в основном эквивалентно созданию человеческого мозга!
Когда я готовился познакомиться с нейронными сетями, я понял,..
Использование гессианских многообразий для машинного обучения, часть 1
Теоремы об исчезновении групп L2-когомологий на многообразиях Гессе (arXiv)
Автор: Синья Акагава .
Аннотация: Доказаны теоремы об исчезновении групп L2-когомологий типа Кодаиры-Накано на полных гессиановых многообразиях. Получены дальнейшие теоремы об исчезновении групп L2-когомологий L2Hp,q(Ω) на регулярном выпуклом конусе Ω с метрикой Ченга–Яу для p›q.
2. Оптимальный транспортный подход к уравнениям Монжа-Ампера на компактных многообразиях Гессе (arXiv)
Автор : Якоб..
Работа с коэффициентом Рэлея в машинном обучении, часть 9
Риманова оптимизация тензорных произведений грассмановых многообразий: приложения к обобщенным факторам Рэлея (arXiv)
Автор : О. Куртеф , Г. Дирр , Ю. Хельмке
Аннотация: Вводится обобщенный фактор Рэлея на тензорном произведении грассманианов, позволяющий унифицировать подход к широко известным задачам оптимизации из различных областей числовой линейной алгебры, таким как наилучшие низкоранговые аппроксимации тензоров (сжатие данных), геометрические меры запутанность (квантовые..
Обслуживание модели классификации изображений с помощью Tensorflow Serving
Научитесь использовать Tensorflow Serving для создания веб-сервиса для обслуживания вашей модели Tensorflow.
Это вторая часть серии блогов, посвященных обучению модели Tensorflow, обслуживанию Tensorflow и его производительности. «В предыдущем посте мы использовали объектно-ориентированный подход для обучения модели классификатора изображений и экспортировали ее как SavedModel. Я рекомендую просмотреть его перед этим постом, так как мы собираемся использовать одну и ту же модель. Вы..
Точность против отзыва. Что они на самом деле говорят вам?
Понять идею Precision and Recall
Если вы спросите любого специалиста по обработке и анализу данных или инженера по машинному обучению о самой простой и запутанной теме, которую они изучили, первое, что им придет в голову, будет Точность и полнота .
С одной стороны , эта тема действительно сбивает с толку, и я сам потратил массу времени, пытаясь понять разницу, а главное, что вам говорят эти два термина.
С другой стороны, тема очень проста и не требует понимания математики,..