Les types d’apprentissages de Machine Learning

Télécharger le fichier pdf d’un mémoire de fin d’études

Historique des systèmes de reconnaissance

Les techniques de reconnaissances de caractères sont parties des systèmes mécaniques jusqu’à arriver aux systèmes intelligents. Pour un mot donné on peut avoir plusieurs formes d’écritures de par le lien entre les caractères et même de caractère par caractère tout dépend de l’auteur.
Ce dernier nous pousse à aller dans des systèmes plus complexes qui pourront s’adapter en fonction de l’auteur.
Ce qui va nous permettre de remonter le temps pour voir les grandes phases de la reconnaissance des caractères que sont : les pionniers, les modèles statiques, les modèles markoviens hybrides, et les réseaux de neurones.

Les pionniers :

Beaucoup de gens rêvaient d’une machine capable de lire les caractères et les chiffres, mais il semble que le premier dispositif de reconnaissance optique de caractères (ROC) ait été développé à la fin des années 1920 par l’ingénieur autrichien Gustav Tauschek, qui obtint en 1929 un brevet sur ROC (« Reading Machine ») en Allemagne, suivi de Paul Handel, qui a obtenu un brevet américain sur ROC (« Statistical Machine ») [B,1] aux États-Unis en 1933 (brevet américain 1915993). En 1935, Tauschek obtint également un brevet américain [B,2] sur sa machine (brevet américain 2026329).
Il s’agissait d’une machine mécanique utilisant des modèles et un photodétecteur. Une image contenant un texte passé devant la fenêtre de la machine à lire. Il y avait un disque tournant de l’intérieur de l’objectif. Le disque avait des trous en forme de lettres. Lorsque les images et les trous en forme de lettres coïncidaient, le clic a fait pivoter le tambour d’impression sur la lettre requise. Ensuite, cette lettre a été imprimée sur du papier. Bien que la machine à lire offre des fonctions limitées, ne prenant en charge qu’une police de caractères donnée, elle fait office de prototype des systèmes de messagerie Perceptron. Les bureaux de poste ont longtemps utilisé les perceptrons pour trier le courrier.

Les modèles statistiques

En 1950 avec l’arrivé des ordinateurs, les calculs complexes deviennent plus simples et les chercheurs s’intéressent davantage à la reconnaissance automatique de l’écriture. De nouvelles méthodes sont utilisées comme l’exemple du plus proche voisin. Ces méthodes statiques permettent de remédier au défaut d’adaptation, ce qui veut dire que le bruit est maintenant supporté et aussi la variation du type d’écriture. Donc les écritures manuscrites peuvent entrer en jeu.
Avec une stratégie de reconnaissance de type statistique, les formes identifiées sont en général vues comme des points dans un espace à n dimensions, n étant le nombre de caractéristiques de l’espace. Chaque forme x appartenant à la classe ui est vue comme une observation générée aléatoirement par la distribution de probabilité de la classe ui: p(x/ui).
Ces techniques de classification sont dites statistiques car elles font intervenir des fonctions de décisions statistiques.
Cependant un autre problème se pose à savoir la détermination du début et de la fin du caractère. Le paradoxe de Sayre ‘’Pour bien reconnaître il faut segmenter, et pour bien segmenter il faut reconnaître‘’.
Rapport de mémoire : Reconnaissance de caractères manuscrits avec un programme de Machine Learning
Une façon d’atténuer les effets néfastes du paradoxe consiste à normaliser les inscriptions à reconnaître. La normalisation revient à éliminer les particularités de l’écriture, telles que l’inclinaison inhabituelle des lettres et l’inclinaison inhabituelle de la ligne cursive. Cette procédure peut augmenter la probabilité d’une correspondance correcte avec un modèle de lettre, entraînant une amélioration incrémentielle du taux de réussite du système. Ce qui fait que ce modèle n’est toujours pas prêt pour l’écriture manuscrite mais corrige plutôt l’écriture dactylographique. Beaucoup de caractères peuvent mener à confusion : ‘’u’’, ‘’v’’, ‘’w’’, ‘’y’’.
L’amélioration de ce type dépend toutefois toujours d’une segmentation précise, mais reste soumise aux limitations du paradoxe de Sayre. Les chercheurs ont fini par comprendre que le seul moyen de contourner le paradoxe consiste à utiliser des procédures qui ne reposent pas sur une segmentation précise.

Les Modèles Markoviens

Les modèles Markoviennes sont considérés comme une sous partie du modèle statique. Ils sont utilisés pour les modèles de séquences. Les modèles de Markov cachés (MMC) crées dans les années 70 sont des outils statistiques qui reposent sur de fortes bases théoriques. Ils ont servi dans de nombreuses applications : la reconnaissance de la parole, mais aussi de la génétique (décryptage des séquences d’ADN) et le traitement automatique du langage naturel (traduction automatique, étiquetage de texte, reconstitution de textes bruités). A partir du début des années 90, les MMC ont connu un essor important en reconnaissance de l’écriture grâce à leur capacité d’intégration du contexte et absorption du bruit. Les différents travaux réalisés dans ce domaine reposent pour une grande part sur l’expérience accumulée dans le domaine de la reconnaissance de la parole où les MMC sont fréquemment employés. Car tout comme la parole, l’écriture se prête bien à une modélisation stochastique à tous les niveaux de la chaîne de reconnaissance : morphologique, lexical, syntaxique.
Cependant, la condition d’indépendance imposée par le modèle de Markov (chaque observation doit être indépendante des observations voisines) rend les MMC incapables de tirer avantage de la corrélation qui existe réellement dans les observations en écrit.

L’essor des réseaux de neurones et les modèles hybrides

Il aura fallu attendre le début des années 2010, avec l’essor du Big Data et du traitement massivement parallèle, pour que les Data Scientists disposent des données et de la puissance de calcul nécessaires pour exécuter des réseaux de neurones complexes. En 2012, lors d’une compétition organisée par ImageNet, un Neural Network est parvenu pour la première fois à surpasser un humain dans la reconnaissance d’image [W,1] .
C’est la raison pour laquelle cette technologie est de nouveau au cœur des préoccupations des scientifiques. A présent, les réseaux de neurones artificiels ne cessent de s’améliorer et d’évoluer de jour en jour.
Les modèles hybrides sont les modèles qui combinent plusieurs réseaux de neurones à un MMC. Ce couplage est avantageux pour la reconnaissance manuscrite.
D’une part comme cité précédemment la condition d’indépendance des modèles de Markov (chaque observation doit être indépendante des observations voisines). D’un autre côté, les réseaux de neurones ont un grand pouvoir discriminant à travers leur capacité à construire des frontières de décisions complexes dans des espaces de grandes dimensions. Une combinaison des deux systèmes semble donc appropriée afin de tirer parti des avantages de chacun. Les réseaux de neurones sont utilisés en tant qu’estimateurs des probabilités d’émission pour les modèles de Markov qui sont un excellent outil pour segmenter une séquence.

CADRE THEORIQUE

L’intelligence artificielle est un domaine en plein expansion et très vaste avec des possibilités infinies avec pleins de notions. Elle est « l’ensemble des théories et des techniques mises en œuvre en vue de réaliser des machines capables de simuler l’intelligence ». Elle englobe des sous-domaines comme le Machine Learning (apprentissage automatique) et le Deep Learning (apprentissage profond).
L’apprentissage automatique donnent sens aux données, il fait partie des domaines les plus intéressant de l’informatique. Nous vivons à une époque où les données sont abondantes, en utilisant les algorithmes d’apprentissages de ML, nous transformons ces données en connaissances. Grâce aux puissances de calculs et aux nombreuses bibliothèques open source développées ces dernières années, nous sommes au moment idéal pour percer dans ce domaine afin d’apprendre à utiliser ces puissants algorithmes pour plus donner sens aux données et prédire les événements futurs.
Dans cette partie nous étudieront les principaux concepts de l’intelligence artificielle, les types d’apprentissages et les algorithmes de Machine Learning.

Les Concepts de l’intelligence artificielle

Par abus de langage, nous confondons souvent ces trois termes : Intelligence Artificielle, Machine Learning, Deep Learning.

Intelligence artificielle :

Le but ultime de l’intelligence artificielle est d’aboutir à des machines faisant preuve d’une intelligence « forte » [W,2] , c’est-à-dire capables de résoudre n’importe quelle tâche qu’un être humain peut résoudre, y compris celle de déterminer quelle est « la tâche à résoudre » dans une situation donnée.
Elle peut être définie par la capacité d’un système à correctement interpréter des données externes, d’apprendre de celles-ci et d’utiliser leurs apprentissages dans le but d’accomplir des tâches. Dans le but de procurer à ces systèmes une meilleure adaptabilité, une piste intéressante est de développer leur autonomie en s’appuyant sur les fonctions cognitives de l’Homme. Celles-ci sont au moins composées de l’imagination, de la raison et de la mémoire, qu’il est possible de retrouver en partie au sein des ordinateurs, au travers de l’intelligence artificielle. L’IA est une technique qui permet aussi bien à un robot qu’à une voiture, un moteur de recherche ou même à un téléphone d’exécuter des tâches habituellement réalisées par les humains. Cependant, elle existe grâce à des systèmes informatiques qui fonctionnent à l’aide d’algorithmes. Un programme doté d’une IA peut réussir à analyser et identifier des visages.

Machine Learning :

Machine Learning : apprentissage automatique ou apprentissage statistique est un champ d’étude de l’intelligence artificielle qui se fonde sur des approches mathématiques pour donner aux ordinateurs la capacité d’«apprendre» à partir de données, c’est-à-dire d’améliorer leurs performances à résoudre des tâches sans être explicitement programmés pour chacune. Plus largement, cela concerne la conception, l’analyse, le développement et l’implémentation de telles méthodes. Donc on peut dire que l’apprentissage automatiquement est une technologie d’intelligence artificielle permettant aux ordinateurs d’apprendre en s’appuyant sur des raisonnements mathématiques.
Il s’agit d’utiliser des algorithmes pour s’appuyer sur de nombreuses données historiques pour prédire des résultats statistiquement significatifs de l’évolution future.
Il consiste à la mise en place d’un algorithme ayant pour objectifs d’obtenir une analyse prédictive à partir de donnés, dans un but précis.
Les techniques du machine Learning sont utilisées dans de très nombreux domaines.
On peut donner l’exemple dans le secteur du transport pour le développement d’un système de navigation sans conducteur, du secteur médical où les machines aident à diagnostiquer le cancer, ou bancaire où l’on cherche à estimer la capacité d’une personne à rembourser un prêt et tant d’autres. L’utilisation de l’apprentissage s’est vite répandue dans tous les secteurs d’activités. Ainsi les réseaux de neurones sont venus s’ajouter et appliquer notamment pour la reconnaissance d’images.

Deep Learning :

L’apprentissage profond ou Deep Learning, est l’implémentation des algorithmes du Machine Learning, se basant sur les réseaux de neurones artificiels. La notion de profondeur est introduite car elle permet de faire des calculs pour enfin pouvoir construire des systèmes très performants, capables d’apprendre efficacement et de prendre des décisions tout en minimisant les erreurs de prédictions, d’où la nécessité de comprendre l’architecture des réseaux de neurones artificiels.
La reconnaissance du fait que le cerveau humain fonctionne de manière entièrement différente d’un ordinateur, a joué un rôle très important dans le développement des réseaux de neurones artificiels. Les travaux effectués pour essayer de comprendre le comportement du cerveau humain ont mené à représenter celui-ci par un ensemble de composants structurels appelés neurones massivement interconnectés entre eux. Le cerveau humain en contient plusieurs centaines de milliards et chacun de ceux-ci serait en moyenne connecté à dix mille autres. Le cerveau est capable d’organiser ces neurones selon un assemblage complexe, non-linéaire et extrêmement parallèle, de manière à pouvoir accomplir des tâches très élaborés. Par exemple, une personne est capable de reconnaître des visages, alors que c’est une tâche quasiment impossible pour les ordinateurs avant. Ainsi le Deep Learning tente de donner à l’ordinateur les qualités de perception du cerveau humain qui conduit à une modélisation électrique de celui-ci. C’est cette modélisation que tente de réaliser les réseaux de neurones artificiels.
Un neurone artificiel est une construction numérique qui cherche à simuler le comportement d’un neurone biologique dans le cerveau. Les neurones artificiels sont utilisés pour constituer un réseau de neurones artificiels.
Les réseaux de neurones artificiels, comme le réseau neuronal biologique du corps humain, ont une architecture en couches et chaque nœud de réseau (point de connexion) a la capacité de traiter l’entrée et de transmettre la sortie aux autres nœuds du réseau. Dans les architectures artificielles et biologiques, les nœuds sont appelés neurones et les connexions sont caractérisées par des poids synaptiques, qui représentent l’importance de la connexion. À mesure que de nouvelles données sont reçues et traitées, les poids synaptiques changent et c’est ainsi que l’apprentissage se produit.
L’apprentissage en profondeur est partout… de la classification des images et de la traduction des langues à la construction d’une voiture autonome. Toutes ces tâches sont pilotées par des ordinateurs plutôt que par un effort humain manuel.
Alors, qu’est-ce que l’apprentissage en profondeur ?
C’est une expression utilisée pour les réseaux de neurones complexes.
Qu’est-ce que ça veut dire ?
Un système d’apprentissage en profondeur : auto-apprentissage, l’apprentissage au fur et à mesure en filtrant les informations à travers plusieurs couches cachées, de la même manière que les humains. Sans réseaux de neurones, il n’y aurait pas d’apprentissage en profondeur.
Les réseaux de neurones sont généralement utilisés pour les images, vidéos et autres données complexes. L’identification d’objets dans les photos et vidéos, la reconnaissance et la synthèse de la parole, le traitement d’images, la traduction automatique sont les domaines les plus typiques de leur application. L’idée de base derrière un réseau de neurones est de simuler (copier de manière simplifiée mais raisonnablement fidèle) de nombreuses cellules cérébrales densément interconnectées à l’intérieur d’un ordinateur afin que vous puissiez lui faire apprendre des choses, reconnaître des schémas et prendre des décisions à la manière d’un humain. Ce qui est étonnant avec un réseau de neurones, c’est que vous n’avez pas besoin de le programmer pour apprendre explicitement : il apprend tout seul, comme un cerveau.
Un neurone artificiel est une fonction avec plusieurs entrées et une sortie. Un neurone prend des données à l’entrée, remplit une fonction et donne le résultat à la sortie.

Historique des réseaux de neurones :

Malgré le fait qu’il y ait maintenant beaucoup de bruit et d’intérêt autour des réseaux de neurones, cet algorithme d’apprentissage automatique est l’un des plus anciens. Warren McCulloch et Walter Pitts ont proposé le premier neurone formel en tant que réseau neuronal cellulaire en 1943. Par la suite en 1958, Frank Rosenblatt a proposé le premier réseau neuronal le plus simple qui pourrait déjà séparer, par exemple, des objets dans un espace bidimensionnel [W,3]. Les réseaux de neurones ont traversé plus d’un demi-siècle de hauts et de bas. L’intérêt pour les réseaux de neurones était très important dans les années 1950-1960, lorsque les premiers résultats impressionnants ont été obtenus. Ensuite, les réseaux de neurones ont cédé la place à d’autres algorithmes d’apprentissage automatique, qui se sont révélés plus puissants à ce moment-là. Encore une fois, l’intérêt a repris dans les années 1990, puis a de nouveau décliné.
Et maintenant, au cours des 5 à 7 dernières années, il s’est avéré que dans de nombreuses tâches liées à l’analyse des informations naturelles, et tout ce qui nous entoure est une information naturelle, c’est le langage, c’est la parole, c’est une image, une vidéo, beaucoup d’autres informations très différentes, – les réseaux de neurones sont meilleurs que les autres algorithmes pour l’instant.

La renaissance des réseaux de neurones :

Les réseaux de neurones sont très critiques pour la quantité de données, pour le volume de l’échantillon d’apprentissage, qui est nécessaire pour les former. Et sur une petite quantité de données, les réseaux ne fonctionnent tout simplement pas bien. Ils généralisent mal, travaillent mal sur des exemples qu’ils n’ont pas vus dans le processus d’apprentissage. Mais au cours des 15 dernières années, la croissance des données dans le monde devient exponentielle, et maintenant ce n’est plus un gros problème. Nous avons beaucoup de données.
Les réseaux de neurones sont l’un des algorithmes d’apprentissage machine les plus lourds. D’énormes ressources informatiques sont nécessaires pour former le réseau neuronal et même pour l’appliquer. Et maintenant, nous avons de telles ressources. Et, bien sûr, de nouveaux algorithmes ont été inventés. La science évolue, l’ingénierie évolue, et maintenant nous comprenons mieux comment former de telles structures.

Les types d’apprentissages de Machine Learning

L’apprentissage automatique consiste à enseigner à un programme comment améliorer progressivement une tâche qui lui est confiée. Cependant, plus concrètement, il s’agit d’étudier comment construire des applications présentant cette amélioration itérative. Il existe de nombreuses façons de formuler cette idée, mais il existe en grande partie trois grandes catégories reconnues : l’apprentissage supervisé, l’apprentissage non supervisé et l’apprentissage par renforcement.
Dans ce monde digital avec l’IA, ML, DL et de discussions exagérées, il est intéressant de comprendre et d’identifier les types d’apprentissage que nous pouvons rencontrer.
Ainsi nous saurons pour chaque application quel type d’apprentissage utilisé, afin de créer le bon environnement d’apprentissage.

Apprentissage supervisée :

Il est le paradigme le plus populaire pour l’apprentissage automatique. C’est le plus facile à comprendre et le plus simple à mettre en œuvre. C’est très similaire à enseigner à un enfant avec l’utilisation de cartes flash.
L’apprentissage supervisé est une tâche d’apprentissage automatique consistant à apprendre une fonction de prédiction à partir d’exemples annotés. Il s’agit de passer à la machine des exemples de données étiquetées ce qui permettra à l’algorithme de prédire l’étiquette pour une donnée future sans étiquette. Au fil du temps, l’algorithme apprendra à approximer la nature exacte de la relation entre les exemples et leurs étiquettes. Une fois pleinement formé, l’algorithme d’apprentissage supervisé sera capable d’observer un nouvel exemple jamais vu auparavant et de prédire une bonne étiquette pour celui-ci.
Elle est plus orientée tâche car se concentrant sur un objectif précis. Plus l’algorithme recevra d’exemple plus il s’améliorera jusqu’à ce qu’il puisse exécuter la tâche avec précision.
On rencontre cet apprentissage dans les systèmes qu’on utilise couramment :
• Classification spam : si vous utilisez un système de messagerie, vous avez probablement rencontré un filtre anti-spam. Ce filtre anti-spam est un système d’apprentissage supervisé. Par exemple pour un nouveau mail (spam / non spam), ces systèmes apprennent à filtrer de manière préventive les e-mails malveillants afin que leurs utilisateurs ne soient pas harcelés par eux. Mais ces systèmes permettent aussi à l’utilisateur de fournir une nouvelle étiquette : déplacer de spam à un courriel légitime.
• Reconnaissance faciale : utilisez-vous Facebook ? Très probablement, votre visage a été utilisé dans un algorithme d’apprentissage supervisé formé pour reconnaître votre visage. Avoir un système qui prend une photo, trouve des visages et devine qui est sur la photo (suggérant une balise) est un processus supervisé. Il comporte plusieurs couches : recherche des visages, puis identification de ceux-ci tout en restant supervisé.

Apprentissage non supervisée :

L’apprentissage non supervisé est à l’opposé de l’apprentissage supervisé. Il ne comporte pas d’étiquettes. Au lieu de cela, notre algorithme recevrait beaucoup de données et disposerait des outils pour comprendre les propriétés des données. À partir de là, il peut apprendre à grouper, regrouper et / ou organiser les données de manière à ce qu’un humain (ou un autre algorithme intelligent) puisse entrer et donner un sens aux données nouvellement organisées.
Ce qui rend l’apprentissage non supervisé aussi intéressant est qu’une écrasante majorité des données de ce monde n’est pas étiquetée. Avoir des algorithmes intelligents capables de récupérer nos téraoctets de données non étiquetées est une énorme source de profit potentiel pour de nombreux secteurs. Cela seul pourrait aider à augmenter la productivité dans un certain nombre de domaines.
Par exemple, si nous avions une grande base de données de tous les documents de recherche jamais publiés et un algorithme d’apprentissage non supervisé qui savait comment les regrouper de telle sorte que vous soyez toujours au courant de la progression actuelle dans un domaine de recherche particulier. Maintenant, vous commencez vous-même à démarrer un projet de recherche, en connectant votre travail à ce réseau visible par l’algorithme. Au fur et à mesure que vous rédigez votre travail et que vous prenez des notes, l’algorithme vous suggère des travaux connexes, des travaux que vous voudrez peut-être citer, ainsi que des travaux pouvant même vous aider à faire progresser ce domaine de recherche. Avec un tel outil, votre productivité peut être extrêmement améliorée.
Parce que l’apprentissage non supervisé est basé sur les données et leurs propriétés, nous pouvons dire que l’apprentissage non supervisé est piloté par les données. Les résultats d’une tâche d’apprentissage non supervisée sont contrôlés par les données et leur format. Certains domaines dans lesquels vous pourriez voir un apprentissage non supervisé sont les suivants :
• Systèmes de recommandation : Si vous avez déjà utilisé YouTube ou Netflix, vous avez probablement rencontré un système de recommandation vidéo. Ces systèmes sont souvent placés dans le domaine non supervisé. Nous savons certaines choses sur les vidéos, peut-être leur longueur, leur genre, etc. Nous connaissons également l’historique de surveillance de nombreux utilisateurs. En prenant en compte les utilisateurs qui ont visionné des vidéos similaires à celles que vous avez vues et qui ont ensuite apprécié d’autres vidéos que vous n’avez pas encore vues, un système de recommandation peut voir cette relation dans les données et vous proposer une telle suggestion.
• Habitudes d’achat : il est probable que vos habitudes d’achat soient contenues dans une base de données quelque part et que les données sont actuellement achetées et vendues activement. Ces habitudes d’achat peuvent être utilisées dans des algorithmes d’apprentissage non supervisés pour regrouper les clients dans des segments d’achat similaires. Cela aide les entreprises à commercialiser ces segments et peut même ressembler à des systèmes de recommandation.

Apprentissage renforcée :

L’apprentissage par renforcement est assez différent de l’apprentissage supervisé et non supervisé. Où nous pouvons facilement voir la relation entre supervisé et non supervisé (la présence ou l’absence d’étiquettes), la relation à l’apprentissage par renforcement est un peu plus trouble. Certaines personnes essaient de rapprocher l’apprentissage par renforcement des deux en la décrivant comme un type d’apprentissage reposant sur une séquence d’étiquettes dépendant du temps. Cependant, cela rend simplement les choses plus confuses.
Nous pouvons considérer l’apprentissage par renforcement comme un apprentissage d’erreurs. Placez un algorithme d’apprentissage par renforcement dans n’importe quel environnement et il commettra beaucoup d’erreurs au début. Tant que nous fournissons à l’algorithme une sorte de signal associant les bons comportements à un signal positif et les mauvais comportements à un négatif, nous pouvons renforcer notre algorithme afin qu’il privilégie les bons comportements aux mauvais. Au fil du temps, notre algorithme d’apprentissage apprend à faire moins d’erreurs qu’auparavant.

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela rapport-gratuit.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

LISTE DES FIGURES
GLOSSAIRE
AVANT-PROPOS
Partie 1 INRTODUCTION GENERALE
Chapitre 1 Présentation du sujet
1.1 Le contexte
1.2 La problématique
1.3 Les objectifs de recherche
Chapitre 2 Historique des systèmes de reconnaissance
2.1 Les pionniers
2.2 Les modèles statistiques
2.3 Les Modèles Markoviens
2.4 L’essor des réseaux de neurones et les modèles hybrides
Partie 2 CADRE THEORIQUE
Chapitre 3 Les Concepts de l’intelligence artificielle
3.1 Intelligence artificielle
3.2 Machine Learning
3.3 Deep Learning
3.3.1 Historique des réseaux de neurones
3.3.2 La renaissance des réseaux de neurones
Chapitre 4 Les types d’apprentissages de Machine Learning
4.1 Apprentissage supervisée
4.2 Apprentissage non supervisée
4.3 Apprentissage renforcée
4.4 Synthèse
Chapitre 5 Algorithmes de classification
5.1 Perceptron
5.2 Neurone linéaire adaptif (ADALINE)
5.3 Régression logistique
5.4 Arbre de décision
5.5 Réseau neuronal convolutif
5.5.1 Couche de convolution
5.5.2 Couche de correction (ReLU)
5.5.3 Couche de mise en commun (Pooling)
5.5.3 Flateen
5.5.3 Couche entièrement connecté (FC)
5.5.4 Fonction softmax
Partie 3 MISE EN PLACE DE L’OUTIL
Chapitre 6 Prérequis
6.1 Python
6.2 Anaconda
6.3 Jupyter
6.4 TensorFlow
6.5 Keras
6.6 Numpy
6.7 Matplotlib
Chapitre 7 Schéma de reconnaissance
7.1 La reconnaissance de l’écriture en ligne
7.2 La reconnaissance de l’écriture hors ligne
7.2.1 Prétraitement
7.2.2 Segmentation
7.2.3 Extraction des caractéristiques
7.2.4 Classification
CONCLUSION
Bibliographie
Webographie

Télécharger le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *