Les fondements du machine learning

Découvrir les architectures de réseaux de neurones

TESTEZ LINKEDIN LEARNING GRATUITEMENT ET SANS ENGAGEMENT

Tester maintenant Afficher tous les abonnements
Dans cette séquence, vous découvrirez quelques architectures de réseau de neurones comme le réseau acyclique, le réseau récursif et le réseau en grille.
07:14

Transcription

Parlons maintenant de quelques architectures principales de réseaux de neurones artificiels. Alors, il faut savoir que le type d'architecture est assez limité. Après, par contre, les variations de ces architectures, il y en a une quarantaine, quand même. Donc là, on va juste voir ces fameuses grandes catégories d'architecture. L'architecture d'un réseau de neurones artificiel, c'est quoi ? En fait, ça définit la façon dont ces divers neurones sont disposés ou placés l'un par rapport à l'autre, c'est ça qu'on appelle l'architecture d'un réseau de neurones. Ces rangement sont structurés essentiellement pour diriger les connexions synaptiques des neurones, c'est ça l'idée. Donc maintenant, le schéma vraiment principal, on peut dire l'hyper architecture en quelque sorte, c'est qu'il y a majoritairement la structure qu'on appelle en trois couches. On a la couche d'entrée, qui est responsable de la réception des informations, des signaux, des caractéristiques ou des mesures provenant de l'extérieur. Il y a les couches dites cachées, intermédiaires ou invisibles, qui sont les couches composées de neurones, qui sont responsables de l'extraction des modèles associés aux processus et aux systèmes analysés. Ces couches exécutent la majeure partie du traitement interne à partir d'un réseau. Et il y a la couche de sortie, cette couche est également composée de neurones, et est donc responsable de la production et de la présentation des sorties du réseau final. Maintenant, les architectures principales des réseaux neuronaux artificiels, compte-tenu de la disposition des neurones, ainsi que de leur interconnexion et de la composition de leurs couches, peuvent être réparties, comme je l'ai dit, en une quarantaine de catégories. Mais en voici quelques détails succints, pour certains. D'abord, il y a le non moins fameux réseau feedforward monocouche, qu'on appelle également le réseau de neurones acyclique monocouche. Ce réseau neuronal artificiel a une seule couche d'entrée et une seule couche neuronale, qui est également sa propre couche de sortie. Il ressemble à ce que vous voyez à l'écran, donc c'est assez simple. L'idée, c'est que les informations circulent toujours dans une seule direction, donc unidirectionnelle, d'où son nom, feedforward en anglais. Et donc, ces informations vont de la couche d'entrée à la couche de sortie. De là, il est possible de voir que dans les réseaux appartenant à cette architecture, le nombre de sorties du réseau coïncidera toujours avec sa quantité de neurones. Donc ces réseaux sont généralement utilisés dans la classification des motifs et les problèmes de filtrage dit linéaires et, parmi les principaux types de réseau appartenant à l'architecture feedforward, on peut citer le perceptron, qui est le premier qu'on apprend normalement à l'école, et l'ADALINE, pour Adaptatives Linear Neuron, ou Adaline, si vous préférez, en français, dont les processus d'apprentissage utilisés reposent respectivement sur ce qu'on appelle la règle de Ebe et la règle Delta. Maintenant, il y a également les réseaux multicouches feedforward. Alors, contrairement aux réseaux appartenant à l'architecture précédente, les réseaux feedforward à couches multiples, comme vous pouvez le voir sur votre écran, sont composés d'une ou plusieurs couches neuronales cachées. Ils sont employés dans la solution de problèmes divers, comme ceux liés à l'approximation de fonctions, la classification de modèles, l'identification de systèmes, le contrôle de processus, l'optimisation, la robotique, etc. L'idée, c'est que chaque couche a ses propres poids, a également, éventuellement, ses propres fonctions de transfert. Parmi les principaux réseaux utilisant des architectures feedforward à plusieurs couches, on trouve bien évidemment, entre guillemets, le perceptron multicouche, le MLP, puisque c'est à nouveau celui qu'on étudie normalement le premier à l'école, et la fonction radiale Basis Function, donc le RBF. Voilà pour les réseaux feedforward multicouches. Ensuite, toujours dans les classiques, on a les réseaux à feedback, dits également réseaux récurrents, en français. Dans ces réseaux, les sorties des neurones sont utilisées comme entrées de retour pour d'autres neurones. C'est des cas à nouveau très courants. La fonction de rétro-action, ou feedback, comme on dit en anglais, qualifie donc les types de réseaux qui traitent de manière dynamique l'information, ce qui signifie qu'ils peuvent être utilisés sur des systèmes variant dans le temps, tels que la prédiction de séries chronologiques, l'identification et l'optimisation de systèmes, le contrôle des processus, l'auto-apprentissage, etc. Donc, parmi les principaux réseaux contenant des réseaux à feedback, on trouve les réseaux de Hopfield. Maintenant, on a quelque chose qui s'approche considérablement du cerveau, c'est les réseaux de neurones à maillage réseaux. Les principales caractéristiques des réseaux à maillage réseaux, c'est leur structure en mailles. En fait, c'est que les réseaux sont liés entre eux, en parallèle, ou en séries, ou autre. Donc on a une forte propension maintenant, un fort support de l'état actuel de la science, à penser que notre cerveau est plutôt structuré de cette manière. Donc ces réseaux offrent une large gamme d'application et sont utilisés typiquement dans des problèmes impliquant le regroupement de données, la reconnaissance de formes, l'optimisation de systèmes, de graphes. Mais ce qu'il faut savoir, c'est qu'on peut combiner tous les réseaux que l'on a vus jusqu'à maintenant, et c'est la tendance vers laquelle on part, puisque la puissance de calcul des ordinateurs ne cesse d'augmenter. Donc, non seulement on a ces réseaux que l'on combine, mais en plus, ils auto-évoluent, ça veut dire qu'ils s'accroissent, ils s'augmentent, leur structure s'auto-corrige. Maintenant, en termes d'auto-apprentissage, c'est à dire les différents processus d'apprentissage des réseaux de neurones, donc leur processus d'apprentissage, c'est leur caractéristique la plus importante. Ainsi, au même titre que toutes les méthodes que l'on a vues jusqu'à maintenant, on retrouve, dans les réseaux de neurones, les techniques d'apprentissage supervisées, c'est-à-dire où ils apprennent à partir d'objets ou d'éléments qui sont déjà étiquetés par un agent extérieur, par exemple ceci est mal, ceci est bien, ceci est un fruit. On a, et on retrouve à nouveau, le concept de non-supervisé, c'est-à-dire, on ne donne pas d'étiquettes et le réseau neuronal doit lui-même découvrir des similarités dans toutes les informations qu'on lui donne. Et évidemment, il doit regrouper par lui-même ce qui est similaire. Ensuite, on a l'apprentissage par ensembles, dont on a aussi déjà parlé. Les réseaux de neurones vont procéder par vote, ou par consensus, ou également donner des poids entre les différentes méthodes qu'ils ont. Et on a le fameux apprentissage par renforcement, qui est donc celui qui est le plus proche de l'être humain, c'est-à-dire, on ne sait même pas ce qui est bien ou ce qui est mal, on teste, on essaye,on regarde et on auto-corrige. Évidemment, pour ceci, il faudrait idéalement une politique, une définition de l'environnement, mais l'idée, c'est que les réseaux de neurones apprennent aussi ceci par eux-mêmes, donc en fait exactement comme l'humain, qui passe dans une certaine culture, d'une certaine société, ou dans certains cursus scolaire, et dont l'esprit, le cerveau, va être élastiquement façonné. Voilà en ce qui concerne cette petite introduction non mathématique aux concepts de réseaux de neurones, qui peuvent être impliqués dans tous les domaines que nous avons vus depuis le début de cette formation.

Les fondements du machine learning

Acquérez les bases du vocabulaire lié au machine learning. Découvrez les outils fondamentaux avec les idées, applications et concepts mathématiques sous-jacents à chacun.

3h04 (33 vidéos)
Aucun commentaire n´est disponible actuellement
Spécial abonnés
Date de parution :21 déc. 2017

Votre formation est disponible en ligne avec option de téléchargement. Bonne nouvelle : vous ne devez pas choisir entre les deux. Dès que vous achetez une formation, vous disposez des deux options de consultation !

Le téléchargement vous permet de consulter la formation hors ligne et offre une interface plus conviviale. Si vous travaillez sur différents ordinateurs ou que vous ne voulez pas regarder la formation en une seule fois, connectez-vous sur cette page pour consulter en ligne les vidéos de la formation. Nous vous souhaitons un excellent apprentissage avec cette formation vidéo.

N'hésitez pas à nous contacter si vous avez des questions !