Publications sur le sujet 'deep-learning'


Réseau de neurones : l'essence du réseau de neurones artificiels
Apprentissage automatique, apprentissage profond Réseau de neurones : l'essence du réseau de neurones artificiels Qu’est-ce qu’un réseau de neurones artificiels ? Le cerveau humain est constitué de milliards de neurones connectés les uns aux autres et chaque neurone transmet un signal à un autre via la connexion. Cela amène les humains à effectuer une action spécifique. Par exemple, si vous souhaitez atteindre votre poche pour saisir votre téléphone, un signal sera alors envoyé à..

Un exemple subtil de rétropropagation — Partie 2 : Fondements
Introduction Dans la première partie de cette série d’articles, nous avons détaillé les principes fondamentaux de la rétropropagation et réalisé une implémentation simple incluant l’addition, la soustraction et le tri topologique. Dans cet article, nous explorerons plus en détail la multiplication, la division, l'exponentiation et certaines fonctions d'activation populaires. Puisque nous avons éliminé les éléments théoriques dans l’article précédent, que je recommanderais de lire..

La faute dans notre approche : qu'est-ce que vous faites de mal lors de la mise en œuvre du réseau neuronal récurrent-LSTM !
J’ai commencé à me lancer dans le domaine du Machine Learning il y a quelques mois et après avoir réalisé quelques projets, je me suis dit : « ce n’est pas vraiment difficile ». C'était jusqu'à ce que je rencontre le Deep Learning. Tout nouveau domaine d’étude, le Deep Learning nécessite une grande quantité de connaissances mathématiques et analytiques. Créer un réseau de neurones équivaut fondamentalement à créer un cerveau humain ! Alors que je me préparais à mettre la main sur..

Utilisation de variétés hessiennes pour l'apprentissage automatique, partie 1
Théorèmes de disparition des groupes de cohomologie L2 sur les variétés hessiennes (arXiv) Auteur : Shinya Akagawa Résumé : : Nous montrons des théorèmes de disparition de groupes de cohomologie L2 de type Kodaira-Nakano sur des variétés hessiennes complètes. Nous obtenons d'autres théorèmes de disparition des groupes de cohomologie L2 L2Hp,q(Ω) sur un cône convexe régulier Ω avec la métrique de Cheng-Yau pour p›q. 2. Une approche de transport optimal des équations de..

Travailler avec le quotient de Rayleigh dans Machine Learning part9
Optimisation riemannienne sur les produits tensoriels des variétés de Grassmann : applications aux quotients de Rayleigh généralisés (arXiv) Auteur : O. Curtef , G. Dirr , U. Helmke Résumé : Nous introduisons un quotient de Rayleigh généralisé sur le produit tensoriel des Grassmanniens permettant une approche unifiée des tâches d'optimisation bien connues de différents domaines de l'algèbre linéaire numérique, telles que les meilleures approximations de tenseurs de bas rang..

Servir un modèle de classification d'images avec Tensorflow Serving
Apprenez à utiliser Tensorflow Serving pour créer un service Web destiné à servir votre modèle Tensorflow. Il s'agit de la deuxième partie d'une série de blogs qui couvrira la formation du modèle Tensorflow, Tensorflow Serving et ses performances. Dans l'article précédent , nous avons adopté une approche orientée objet pour former un modèle de classificateur d'images et l'avons exporté sous SavedModel. Je recommande d'y revenir avant cet article puisque nous allons utiliser le même..

Précision vs rappel. Que vous disent-ils réellement ?
Comprendre l'idée derrière la précision et le rappel Si vous interrogeiez un data scientist ou un ingénieur en machine learning sur le sujet le plus simple et le plus déroutant qu'il a appris, l'une des premières choses qui lui viendrait à l'esprit serait Précision vs rappel. D'une part , ce sujet est en effet déroutant, et j'ai moi-même passé beaucoup de temps à essayer de comprendre la différence, et surtout, ce que ces deux termes vous disent. D'un autre côté, le sujet est..