English
stringlengths 2
2.26k
| French
stringlengths 2
1.87k
⌀ |
---|---|
This definition can easily be extended beyond two dimensions to three or four dimensions. Here w is called the convolution kernel | Cette définition peut facilement être étendue au-delà de deux dimensions à trois ou quatre dimensions. Ici, W est appelé le noyau de convolution. |
Regular twists that can be made with the convolutional operator in DCNNs | Les torsions de base qui peuvent être réalisées avec l’opérateur convolutif dans les ConvNets profonds |
1. Striding: instead of shifting the window in x one entry at a time, one can do so with a larger step (for example two or three entries at a time). Example: Suppose the input x is one dimensional and has size of 100 and w has size 5. The output size with a stride of 1 or 2 is shown in the table below: | Décalage (striding) : au lieu de décaler la fenêtre en x une entrée à la fois, on peut le faire avec un pas plus grand (par exemple deux ou trois entrées à la fois). Exemple : supposons que l’entrée x soit unidimensionnelle et ait une taille de 100 et que W ait une taille de 5. La taille de la sortie avec un pas de 11 ou 22 est indiquée dans le tableau ci-dessous : |
2. Padding: Very often in designing Deep Neural Networks architectures, we want the output of convolution to be of the same size as the input. This can be achieved by padding the input ends with a number of (typically) zero entries, usually on both sides. Padding is done mostly for convenience. It can sometimes impact performance and result in strange border effects, that said, when using a ReLU non-linearity, zero padding is not unreasonable. | Remplissage (padding) : très souvent, dans la conception des architectures de réseaux neuronaux profonds, nous voulons que la sortie de la convolution soit de la même taille que l’entrée. Cela peut être réalisé en ajoutant aux extrémités de l’entrée un certain nombre d’entrées (généralement) nulles, généralement des deux côtés. Le remplissage se fait surtout par commodité. Il peut parfois avoir un impact sur les performances et entraîner d’étranges effets de bord, cela dit, lorsqu’on utilise une non-linéarité ReLU, le remplissage avec des zéros n’est pas déraisonnable. |
Deep Convolution Neural Networks (DCNNs) | ConvNets profonds |
As previously described, deep neural networks are typically organized as repeated alternation between linear operators and point-wise nonlinearity layers. In convolutional neural networks, the linear operator will be the convolution operator described above. There is also an optional third type of layer called the pooling layer. | Comme décrit précédemment, les réseaux neuronaux profonds sont généralement organisés sous forme d’alternance répétée entre des opérateurs linéaires et des couches de non-linéarité ponctuelles. Dans les réseaux neuronaux convolutifs, l’opérateur linéaire sera l’opérateur de convolution décrit ci-dessus. Il existe également un troisième type de couche optionnelle appelée couche d’agrégation (pooling layer). |
The reason for stacking multiple such layers is that we want to build a hierarchical representation of the data. CNNs do not have to be limited to processing images, they have also been successfully applied to speech and language. Technically they can be applied to any type of data that comes in the form of arrays, although we also these arrays to satisfy certain properties. | La raison de l’empilement de plusieurs couches de ce type est que nous voulons construire une représentation hiérarchique des données. Les ConvNets ne doivent pas être limités au traitement des images, ils ont également été appliqués avec succès à la parole et au langage. Techniquement, ils peuvent être appliqués à tout type de données qui se présentent sous la forme de tableaux, bien que nous ayons également ces tableaux pour satisfaire certaines propriétés. |
Why would we want to capture the hierarchical representation of the world? Because the world we live in is compositional. This point is alluded to in previous sections. Such hierarchical nature can be observed from the fact that local pixels assemble to form simple motifs such as oriented edges. These edges in turn are assembled to form local features such as corners, T-junctions, etc. These edges are assembled to form motifs that are even more abstract. We can keep building on these hierarchical representation to eventually form the objects we observe in the real world. | Pourquoi voudrions-nous saisir la représentation hiérarchique du monde ? Parce que le monde dans lequel nous vivons est compositionnel. Ce point est évoqué dans les sections précédentes. Cette nature hiérarchique peut être observée à partir du fait que les pixels locaux s’assemblent pour former des motifs simples tels que des bords orientés. Ces bords sont à leur tour assemblés pour former des caractéristiques locales telles que des coins, des jonctions en T, etc. Ces bords sont assemblés pour former des motifs encore plus abstraits. Ces bords sont assemblés pour former des motifs encore plus abstraits. Nous pouvons continuer à nous appuyer sur ces représentations hiérarchiques pour finalement former les objets que nous observons dans le monde réel. |
This compositional, hierarchical nature we observe in the natural world is therefore not just the result of our visual perception, but also true at the physical level. At the lowest level of description, we have elementary particles, which assembled to form atoms, atoms together form molecules, we continue to build on this process to form materials, parts of objects and eventually full objects in the physical world. | Cette nature compositionnelle et hiérarchique que nous observons dans le monde naturel n’est donc pas seulement le résultat de notre perception visuelle, mais est aussi vraie au niveau physique. Au niveau le plus bas de la description, nous avons des particules élémentaires, qui s’assemblent pour former des atomes, les atomes forment ensemble des molécules, nous continuons à nous appuyer sur ce processus pour former des matériaux, des parties d’objets et finalement des objets complets dans le monde physique. |
The compositional nature of the world might be the answer to Einstein’s rhetorical question on how humans understand the world they live in: The most incomprehensible thing about the universe is that it is comprehensible. | La nature compositionnelle du monde pourrait être la réponse à la question rhétorique d’Einstein sur la façon dont les humains comprennent le monde dans lequel ils vivent : « La chose la plus incompréhensible à propos de l’univers est qu’il est compréhensible ». |
The fact that humans understand the world thanks to this compositional nature still seems like a conspiracy to Yann. It is, however, argued that without compositionality, it will take even more magic for humans to comprehend the world they live in. Quoting the great mathematician Stuart Geman: The world is compositional or God exists. | Le fait que les humains comprennent le monde grâce à cette nature compositionnelle semble être une conspiration pour Yann. Il avance que sans cette compositionnalité, il faudrait encore plus de magie pour que les humains comprennent le monde dans lequel ils vivent. Il cite le mathématicien Stuart Geman : « Le monde est composé ou Dieu existe ». |
Inspirations from Biology | Inspirations de la biologie |
So why should Deep Learning be rooted in the idea that our world is comprehensible and has a compositional nature? Research conducted by Simon Thorpe helped motivate this further. He showed that the way we recognize everyday objects is extremely fast. His experiments involved flashing a set of images every 100ms, and then asking users to identify these images, which they were able to do successfully. This demonstrated that it takes about 100ms for humans to detect objects. Furthermore, consider the diagram below, illustrating parts of the brain annotated with the time it takes for neurons to propagate from one area to the next: | Alors pourquoi l’apprentissage profond devrait-il être ancré dans l’idée que notre monde est compréhensible et a une nature compositionnelle ? Les recherches menées par Simon Thorpe ont contribué à motiver cette idée. Il a montré que la façon dont nous reconnaissons les objets quotidiens est extrêmement rapide. Ses expériences ont consisté à faire clignoter un ensemble d’images toutes les 100 ms, puis à demander aux utilisateurs d’identifier ces images, ce qu’ils ont réussi à faire. Cela a montré qu’il faut environ 100 ms aux humains pour détecter des objets. En outre, le diagramme ci-dessous illustre des parties du cerveau annotées du temps que mettent les neurones à se propager d’une zone à l’autre : |
Signals pass from the retina to the LGN (helps with contrast enhancement, gate control, etc.), then to the V1 primary visual cortex, V2, V4, then to the inferotemporal cortex (PIT), which is the part of the brain where categories are defined. Observations from open-brain surgery showed that if you show a human a film, neurons in the PIT will fire only when they detect certain images -- such as Jennifer Aniston or a person's grandmother -- and nothing else. The neural firings are invariant to things such as position, size, illumination, your grandmother's orientation, what she's wearing, etc. | Les signaux passent de la rétine au corps géniculé latéral (LGN sur la figure 11) qui aide à l’amélioration du contraste, au contrôle des portes, etc., puis au cortex visuel primaire V1, V2, V4, puis au cortex inférotemporel (PIT), qui est la partie du cerveau où les catégories sont définies. Les observations en chirurgie à cerveau ouvert ont montré que si vous montrez un film à un humain, les neurones du PIT ne se déclenchent que lorsqu’ils détectent certaines images (comme Jennifer Aniston ou la grand-mère d’une personne par exemple) et rien d’autre. Les déclenchements neuronaux sont invariables en fonction de la position, de la taille, de l’éclairage, de l’orientation de votre grand-mère, de ce qu’elle porte, etc. |
Furthermore, the fast reaction times with which humans were able to categorize these items -- barely enough time for a few spikes to get through -- demonstrates that it's possible to do this without additional time spent on complex recurrent computations. Rather, this is a single feed-forward process. | De plus, le temps de réaction extrêmement rapide avec lequel les humains ont pu classer ces éléments (à peine assez de temps pour que quelques décharges passent) démontre qu’il est possible de le faire sans passer de temps supplémentaire sur des calculs complexes et récurrents. Il s’agit plutôt d’un processus feed-forward unique. |
These insights suggested that we could develop a neural network architecture which is completely feed-forward, yet still able to solve the problem of recognition, in a way that is invariant to irrelevant transformations of the input. | Ces idées ont suggéré que nous pourrions développer une architecture de réseau neuronal qui soit complètement feed-forward, tout en étant capable de résoudre le problème de la reconnaissance, d’une manière qui soit invariante aux transformations non pertinentes de l’entrée. |
One further insight from the human brain comes from Gallant & Van Essen, whose model of the human brain illustrates two distinct pathways: | Gallant & Van Essen, dont le modèle du cerveau humain illustre deux voies distinctes, nous donnent un autre aperçu de ce dernier : |
The right side shows the ventral pathway, which tells you what you're looking at, while the left side shows the dorsal pathway, which identifies locations, geometry, and motion. They seem fairly separate in the human (and primate) visual cortex (with a few interactions between them of course). | Le côté droit montre la voie ventrale, qui vous indique ce que vous regardez, tandis que le côté gauche montre la voie dorsale, qui identifie les emplacements, la géométrie et le mouvement. Ils semblent assez séparés dans le cortex visuel de l’homme et des primates (avec quelques interactions entre eux bien sûr). |
Hubel and Weisel experiments used electrodes to measure neural firings in cat brains in response to visual stimuli. They discovered that neurons in the V1 region are only sensitive to certain areas of a visual field (called "receptive fields"), and detect oriented edges in that area. For example, they demonstrated that if you showed the cat a vertical bar and start rotating it, at a particular angle the neuron will fire. Similarly, as the bar moves away from that angle, the activation of the neuron diminishes. These activation-selective neurons Hubel & Weisel named "simple cells", for their ability to detect local features. | Dans leurs expériences, Hubel et Weisel ont utilisé des électrodes pour mesurer les tirs neuronaux dans le cerveau des chats en réponse à des stimuli visuels. Ils ont découvert que les excitations neuronales de la région V1 ne sont sensibles qu’à certaines zones d’un champ visuel (appelées champs réceptifs) et détectent des bords orientés dans cette zone. Par exemple, ils ont démontré que si on montre au chat une barre verticale et commençons à la faire tourner, le neurone se déclenchera à un angle particulier. De même, à mesure que la barre s’éloigne de cet angle, l’activation du neurone diminue. Ces neurones à activation sélective, Hubel & Weisel les ont nommés « cellules simples » pour leur capacité à détecter des caractéristiques locales. |
They also discovered that if you move the bar out of the receptive field, that particular neuron doesn't fire any more, but another neuron will. There are local feature detectors corresponding to all areas of the visual field, hence the idea that the human brain processes visual information as a collection of "convolutions". | Ils ont également découvert que si on déplace la barre hors du champ de réception, ce neurone particulier ne s’active plus, mais un autre neurone le fera. Il existe des détecteurs de caractéristiques locales correspondant à toutes les zones du champ visuel, d’où l’idée que le cerveau humain traite les informations visuelles comme un ensemble de convolutions. |
Another type of neuron, which they named "complex cells", aggregate the output of multiple simple cells within a certain area. We can think of these as computing an aggregate of the activations using a function such as maximum, sum, sum of squares, or any other function not depending on the order. These complex cells detect edges and orientations in a region, regardless of where those stimuli lie specifically within the region. In other words, they are shift-invariant with respect to small variations in positions of the input. | Un autre type de neurone, qu’ils ont appelé « cellules complexes », regroupe la sortie de plusieurs cellules simples dans une certaine zone. On peut considérer qu’elles calculent un agrégat des activations en utilisant une fonction telle que maximum, somme, somme des carrés, ou toute autre fonction ne dépendant pas de l’ordre. Ces cellules complexes détectent les bords et les orientations dans une région, indépendamment de l’endroit où ces stimuli se trouvent spécifiquement dans la région. En d’autres termes, elles sont invariantes par rapport aux petites variations de positions de l’entrée. |
Fukushima was the first to implement the idea of multiple layers of simple cells and complex cells with computer models, using a dataset of handwritten digits. Some of these feature detectors were hand-crafted or learned, though the learning used unsupervised clustering algorithms, trained separately for each layer, as backpropagation was not yet in use. Yann LeCun came in a few years later (1989, 1998) and implemented the same architecture, but this time trained them in a supervised setting using backpropagation. This is widely regarded as the genesis of modern convolutional neural networks. (Note: Riesenhuber at MIT in 1999 also re-discovered this architecture, though he didn't use backpropagation.) | Fukushima a été le premier à mettre en œuvre, avec des modèles informatiques, l’idée de couches multiples de cellules simples et de cellules complexes. Certains de ces détecteurs de caractéristiques ont été fabriqués à la main ou appris, bien que l’apprentissage ait utilisé des algorithmes de clustering non supervisés, entraînés séparément pour chaque couche, car la rétropropagation n’était pas encore utilisée. Yann Le Cun est arrivé quelques années plus tard (1989 et 1998) et a mis en place la même architecture, mais cette fois-ci, avec un entraînement supervisé utilisant la rétropropagation. Cette méthode est largement considérée comme la genèse des réseaux neuronaux convolutifs modernes. A noter que Riesenhuber du MIT a également redécouvert cette architecture en 1999, bien qu’il n’ait pas utilisé la rétropropagation. |
ConvNet Evolutions, Architectures, Implementation Details and Advantages. | Evolutions des ConvNets, Architectures, Details et Avantages de l’implementation |
Proto-CNNs and evolution to modern CNNs | Proto-ConvNets et evolution vers les ConvNets modernes |
Proto-convolutional neural nets on small data sets | Proto-ConvNets sur de petits jeux de données |
Inspired by Fukushima’s work on visual cortex modelling, using the simple/complex cell hierarchy combined with supervised training and backpropagation lead to the development of the first CNN at University of Toronto in ‘88-‘89 by Prof. Yann LeCun. The experiments used a small dataset of 320 ‘mouser-written’ digits. Performances of the following architectures were compared: | Inspiré par les travaux de Fukushima sur la modélisation du cortex visuel, l’utilisation de la hiérarchie cellulaire simple/complexe combinée à l’entraînement supervisé et à la rétropropagation a conduit à la création du premier ConvNet à l’université de Toronto en 1988-89 par Yann. Les expériences reposaient sur un petit jeux de données de 320 chiffres écrits à la souris d’ordinateur. Les performances des architectures suivantes ont été comparées : |
1. Single FC(fully connected) Layer | 1. Une seule couche entièrement connectée (FC pour Fully connected en anglais) |
2. Two FC Layers | 2. Deux couches FC |
3. Locally Connected Layers w/o shared weights | 3. Couches connectées localement sans partage de poids |
4. Constrained network w/ shared weights and local connections | 4. Réseau contraint avec poids partagés et connexions locales |
5. Constrained network w/ shared weights and local connections 2 (more feature maps) | 5. Réseau contraint avec poids partagés et connexions locales 2 : c’est-à-dire davantage de cartes de caractéristiques (feature maps en anglais) |
The most successful networks (constrained network with shared weights) had the strongest generalizability, and form the basis for modern CNNs. Meanwhile, singler FC layer tends to overfit. | Les réseaux les plus performants (réseau contraint avec poids partagés) ont la plus forte généralisabilité et constituent la base des ConvNets modernes. La couche FC unique a quant à elle tendance à faire du surentraînement (overfitting). |
First “real” ConvNets at Bell Labs | Les premiers « vrais» réseaux convolutifs au Bell Labs |
After moving to Bell Labs, LeCunn’s research shifted to using handwritten zipcodes from the US Postal service to train a larger CNN: | Après avoir intégrés Bell Labs, Yann a orienté ses recherches vers l’utilisation de codes postaux manuscrits de la poste américaine pour entraîner un ConvNet plus important : |
256 (16×16) input layer | 256 (16×16) couche d’entrée |
12 5×5 kernels with stride 2 (stepped 2 pixels): next layer has lower resolution | 12 5×5 noyaux avec un pas de 2 (pas de 2 pixels) : la couche suivante a une résolution plus faible |
NO separate pooling | PAS de pooling séparé |
Convolutional network architecture with pooling | ConvNets avec pooling |
The next year, some changes were made: separate pooling was introduced. Separate pooling is done by averaging input values, adding a bias, and passing to a nonlinear function (hyperbolic tangent function). The 2×2 pooling was performed with a stride of 2, hence reducing resolutions by half. | L’année suivante, certains changements ont été apportés : un pooling séparé a été introduit. Le pooling séparé est réalisé en faisant la moyenne des valeurs en entrée, en ajoutant un biais et en passant à une fonction non linéaire (fonction tangente hyperbolique). Le pooling de taille 2×2 a été effectuée avec un pas de 2, réduisant ainsi les résolutions de moitié. |
An example of a single convolutional layer would be as follows: | Voici un exemple de couche convolutionnelle unique : |
1. Take an input with size 32×32 | 1. On prend une entrée de taille 32×32 |
2. The convolution layer passes a 5×5 kernel with stride 1 over the image, resulting feature map size 28×28 | 2. La couche de convolution passe un noyau de taille 5×5 avec un pas de 1 sur l’image, ce qui donne une carte de caractéristiques de taille 28×28. |
3. Pass the feature map to a nonlinear function: size 28×28 | 3. On passe la carte de caractéristiques à travers une fonction non linéaire : taille 28×28 |
4. Pass to the pooling layer that averages over a 2×2 window with stride 2: size 14×14 | 4. On passe à la couche de pooling qui fait une moyenne sur une fenêtre de 2×2 avec un pas de 2 : taille 14×14 |
5. Repeat 1-4 for 4 kernels | 5. On répète des étapes 1 à 4 pour 4 noyaux |
The first-layer, simple convolution/pool combinations usually detect simple features, such as oriented edge detections. After the first convolution/pool layer, the objective is to detect combinations of features from previous layers. To do this, steps 2 to 4 are repeated with multiple kernels over previous-layer feature maps, and are summed in a new feature map: | Les combinaisons simples convolution/pooling de la première couche détectent généralement des caractéristiques simples, telles que des bords orientés. Après la première couche de convolution/pooling, l’objectif est de détecter des combinaisons d’éléments des couches précédentes. Pour ce faire, les étapes 2 à 4 sont répétées avec plusieurs noyaux sur les cartes de caractéristiques des couches précédentes et sont additionnées dans une nouvelle carte de caractéristiques : |
1. A new 5×5 kernel is slid over all feature maps from previous layers, with results summed up. (Note: In Prof. LeCun’s experiment in 1989 the connection is not full for computation purpose. Modern settings usually enforce full connections): size 10×10 | 1. Un nouveau noyau de 5×5 est glissé sur toutes les cartes de caractéristiques des couches précédentes, et les résultats sont additionnés. Note : dans l’expérience de Yann en 1989, la connexion n’est pas complète pour les calculs. Les paramètres modernes imposent généralement des connexions complètes : taille 10×10 |
2. Pass the output of the convolution to a nonlinear function: size 10×10 | 2. On passe la sortie de la convolution à une fonction non linéaire : taille 10×10 |
3. Repeat 1/2 for 16 kernels. | 3. On répète les étapes 1 et 2 pour 16 noyaux |
4. Pass the result to the pooling layer that averages over 2×2 window with stride 2: size 5×5 each feature map | 4. On passe le résultat à la couche de pooling qui moyenne sur une fenêtre de taille 2×2 avec un pas de 2 : taille 5×5 de chaque cartes de caractéristiques |
To generate an output, the last layer of convolution is conducted, which seems like a full connection but indeed is convolutional. | Pour générer une sortie, on effectue la dernière couche de convolution, qui semble être une connexion complète mais qui est en fait convolutive. |
1. The final convolution layer slides a 5×5 kernel over all feature maps, with results summed up: size 1×1 | 1. La dernière couche de convolution fait glisser un noyau de 5×5 sur toutes les cartes de caractéristiques, avec des résultats résumés : taille 1×1 |
2. Pass through nonlinear function: size 1×1 | 2. On passe par une fonction non linéaire : taille 1×1 |
3. Generate the single output for one category. | 3. On génère la sortie unique pour une catégorie |
4. Repeat all pervious steps for each of the 10 categories(in parallel) | 4. On répète toutes les étapes précédentes pour chacune des 10 catégories (en parallèle) |
See this animation on Andrej Karpathy’s website on how convolutions change the shape of the next layer’s feature maps. Full paper can be found here. | Voir cette animation sur le site d’Andrej Karpathy sur la façon dont les convolutions modifient la forme des cartes de caractéristiques de la couche suivante. L’article complet est disponible ici. |
Shift equivariance | Équivariance des changements |
As demonstrated by the animation on the slides (here’s another example), translating the input image results in same translation of the feature maps. However, the changes in feature maps are scaled by convolution/pooling operations. E.g. the 2×2 pooling with stride 2 will reduce the 1-pixel shift in input layer to 0.5-pixel shift in the following feature maps. Spatial resolution is then exchanged for increased number of feature types, i.e. making the representation more abstract and less sensitive to shifts and distortions. | Comme le montre l’animation, la translation de l’image d’entrée entraîne la même translation des cartes de caractéristiques. Cependant, les changements dans les cartes de caractéristiques sont mis à l’échelle par des opérations de convolution/pooling. Par exemple, le pooling 2×2 de pas 2 réduira le décalage de 1 pixel de la couche d’entrée à 0,5 pixel dans les cartes de caractéristiques suivantes. La résolution spatiale est alors échangée contre un plus grand nombre de types d’éléments, ce qui rend la représentation plus abstraite et moins sensible aux décalages et aux distorsions. |
Overall architecture breakdown | Décomposition de l’architecture globale |
Generic CNN architecture can be broken down into several basic layer archetypes: | L’architecture générique des ConvNets peut être décomposée en plusieurs archétypes de couches de base : |
Normalisation | Normalisation |
Adjusting whitening (optional) | Ajustement du blanchiment (facultatif) |
Subtractive methods e.g. average removal, high pass filtering | Méthodes soustractives, par exemple : suppression moyenne, filtre passe-haut |
Divisive: local contrast normalisation, variance normalisation | Divise : normalisation des contrastes locaux, normalisation de la variance |
Filter Banks | Banques de filtres |
Increase dimensionality | Augmenter la dimensionnalité |
Projection on overcomplete basis | Projection sur une base surcomplète |
Edge detections | Détections d’arêtes |
Non-linearities | Non-linéarités |
Sparsification | éparsification |
Typically Rectified Linear Unit (ReLU): ReLU(x)=max(x,0) | Rectified Linear Unit (ReLU) : ReLU(x)=max(x,0). |
LeNet5 and digit recognition | LeNet5 et reconnaissance des chiffres |
Implementation of LeNet5 in PyTorch | Implémentation de LeNet5 dans PyTorch |
LeNet5 consists of the following layers (1 being the top-most layer): | LeNet5 se compose des couches suivantes (1 étant la couche la plus élevée) : |
1. Log-softmax | 1. Log-softmax |
2. Fully connected layer of dimensions 500×10 | 2. Couche entièrement connectée de dimensions 500×10 |
3. ReLu | 3. ReLu |
4. Fully connected layer of dimensions (4×4×50)×500 | 4. Couche entièrement connectée de dimensions (4×4×50)×500 |
5. Max Pooling of dimensions 2×2, stride of 2. | 5. Max-pooling de dimensions 2×2, pas de 2. |
6. ReLu | 6. ReLu |
7. Convolution with 20 output channels, 5×5 kernel, stride of 1. | 7. Convolution avec 20 canaux de sortie, noyau 5×5, pas de 1. |
8. Max Pooling of dimensions 2×2, stride of 2. | 8. Max-pooling de dimensions 2×2, pas de 2. |
9. ReLu | 9. ReLu |
10. Convolution with 20 output channels, 5×5 kernel, stride of 1. | 10. Convolution avec 20 canaux de sortie, noyau 5×5, pas de 1. |
The input is a 32×32 grey scale image (1 input channel). | L’entrée est une image en échelle de gris de 32×32 (1 canal d’entrée). |
LeNet5 can be implemented in PyTorch with the following code: | LeNet5 peut être implémenté dans PyTorch avec le code suivant : |
Although fc1 and fc2 are fully connected layers, they can be thought of as convolutional layers whose kernels cover the entire input. Fully connected layers are used for efficiency purposes. | Bien que fc1 et fc2 soient des couches entièrement connectées, elles peuvent être considérées comme des couches convolutionnelles dont les noyaux couvrent l’ensemble de l’entrée. Les couches entièrement connectées sont utilisées à des fins d’efficacité. |
The same code can be expressed using nn.Sequential, but it is outdated. | Le même code peut être exprimé en utilisant n.séquentiel mais il est dépassé. |
Advantages of CNN | Avantages des ConvNets |
In a fully convolutional network, there is no need to specify the size of the input. However, changing the size of the input changes the size of the output. | Dans un réseau entièrement convolutif, il n’est pas nécessaire de préciser la taille de l’entrée. Cependant, la modification de la taille de l’entrée modifie la taille de la sortie. |
Consider a cursive hand-writing recognition system. We do not have to break the input image into segments. We can apply the CNN over the entire image: the kernels will cover all locations in the entire image and record the same output regardless of where the pattern is located. Applying the CNN over an entire image is much cheaper than applying it at multiple locations separately. No prior segmentation is required, which is a relief because the task of segmenting an image is similar to recognizing an image. | Prenons l’exemple d’un système de reconnaissance de l’écriture cursive. Il n’est pas nécessaire de diviser l’image d’entrée en segments. Nous pouvons appliquer le ConvNet sur toute l’image : les noyaux couvriront tous les emplacements de l’image entière et enregistreront la même sortie, quel que soit l’emplacement du motif. Appliquer le ConvNet sur une image entière est beaucoup moins coûteux que de l’appliquer à plusieurs endroits séparément. Aucune segmentation préalable n’est nécessaire, ce qui est un soulagement car la tâche de segmenter une image est similaire à la reconnaissance d’une image. |
Example: MNIST | Exemple : MNIST |
LeNet5 is trained on MNIST images of size 32×32 to classify individual digits in the center of the image. Data augmentation was applied by shifting the digit around, changing the size of the digit, inserting digits to the side. It was also trained with an 11-th category which represented none of the above. Images labelled by this category were generated either by producing blank images, or placing digits at the side but not the center. | LeNet5 est entraîné sur les images du jeu de données MNIST de taille 32×32 pour classer les chiffres individuels au center de l’image. L’augmentation des données a été appliquée en déplaçant le chiffre autour, en changeant la taille du chiffre, en insérant des chiffres sur le côté. Il a également été entraîné avec une 11ème catégorie qui ne représentait rien de ce qui précède. Les images étiquetées par cette catégorie ont été générées soit en produisant des images vierges, soit en plaçant des chiffres sur le côté mais pas au center. |
The above image demonstrates that a LeNet5 network trained on 32×32 can be applied on a 32×64 input image to recognize the digit at multiple locations. | L’image ci-dessus montre qu’un réseau LeNet5 entraîné sur 32×32 peut être appliqué sur une image d’entrée 32×64 pour reconnaître le chiffre à plusieurs endroits. |
Feature binding problem | Problème de liaison des caractéristiques |
What is the feature binding problem? | Quel est le problème de la liaison des caractéristiques ? |
Visual neural scientists and computer vision people have the problem of defining the object as an object. An object is a collection of features, but how to bind all of the features to form this object? | Les spécialistes des neurones visuels et de la vision par ordinateur ont le problème de définir l’objet comme un objet. Un objet est une collection de caractéristiques, mais comment lier toutes les caractéristiques pour former cet objet ? |
How to solve it? | Comment le résoudre ? |
We can solve this feature binding problem by using a very simple CNN: only two layers of convolutions with poolings plus another two fully connected layers without any specific mechanism for it, given that we have enough non-linearities and data to train our CNN. | Nous pouvons résoudre ce problème de liaison de caractéristiques en utilisant un ConvNet très simple : seulement deux couches de convolutions avec des poolings plus deux autres couches entièrement connectées sans mécanisme spécifique pour cela, étant donné que nous avons suffisamment de non-linéarités et de données pour entraîner notre ConvNet. |
The above animation showcases the ability of CNN to recognize different digits by moving a single stroke around, demonstrating its ability to address feature binding problems, i.e. recognizing features in a hierarchical, compositional way. | L’animation ci-dessus montre la capacité du ConvNet à reconnaître différents chiffres en déplaçant un seul trait, ce qui démontre sa capacité à résoudre les problèmes de liaison des caractéristiques, c’est-à-dire à reconnaître les caractéristiques de manière hiérarchique et compositionnelle. |