Le théorème central limite (TCL)

Le théorème central limite (TCL)

INTRODUCTION

L’amélioration continue est un sujet d’actualité dans les entreprises. Que ce soit dans l’entreprise manufacturière ou de services, l’organisation est soucieuse de conserver ou d’accroître son avantage concurrentiel par l’entremise d’une organisation efficace. Depuis une centaine d’années, les principes du génie industriel n’ont pas cessé d’évoluer. Cette évolution a permis l’émergence de principes, techniques et philosophies pour devenir de plus en plus globale dans leurs approches. Aux deux pôles, nous avons le Taylorisme et aujourd’hui le Lean Six Sigma.
Avec l’arrivée de la production de masse, l’organisation du travail est devenue une discipline à part. Il était important de déterminer une cadence de travail pour suivre le rythme de la demande. Nous avons commencé par décortiquer le travail en tâches pour étudier les temps de production et déterminer des temps standards d’opérations. Par souci d’efficacité, tenter de réduire les mouvements inutiles pour utiliser les ressources humaines à leurs capacités complètes. Le Taylorisme a ouvert la porte à l’étude scientifique du travail. Cette philosophie s’applique essentiellement aux chaines de montage et d’assemblage. D’ailleurs, Charles Chaplin en 1936 illustre bien ce principe de production dans son film « les temps modernes ».
Plus tard, nous avons voulu affiner ces méthodes en tentant d’augmenter la qualité du produit ou du service rendu aux clients tout en gardant les coûts de production à leur minimum. Cet objectif nécessite une approche plus globale, car ce n’est pas seulement la chaine de montage qui doit être prise en compte dans l’étude. De plus, par la diversité des industries d’aujourd’hui, la qualité peut se mesurer de bien des façons différentes.

CONTEXTE ET REVUE LITTÉRAIRE

L’amélioration continue devient de plus en plus la tâche de tout le monde. La part critique de l’innovation est l’investigation et alors la maîtrise de la pensée et des outils statistiques sera importante pour une grande quantité de professionnels. Les statistiques industrielles pourraient bien être au coeur de l’économie du savoir (De Mast et Does, 2010).

 Méfaits de la variabilité

C’est souvent ce qui peut coûter cher à une entreprise, car le client s’attend à un produit ou un service qui satisfait certains critères. La variabilité dans l’acheminement, la production, d’un bien ou d’un service vers le client peut faire en sorte que ses tolérances ne seront pas respectées. La variabilité dans la réponse des processus est reconnue comme le « démon ».
de l’entreprise et doit être surmontée ou du moins être prise en compte (Douglas, 2010).
Nous comprenons alors qu’un client insatisfait demande plus d’attention. Dans le cas d’un service, il faudra peut-être lui rendre à nouveau ou du moins consacré du temps supplémentaire pour satisfaire les critères. Ce qui engendre des coûts pour l’entreprise et de la frustration pour le client. Dans le cas d’un produit dont les processus de fabrication sont variables, les produits finis ne seront pas tous de la même qualité. Encore une fois, un client désireux d’acheter un produit fait en série qui n’est pas identique à ses attentes ne sera pas satisfait. L’entreprise devra consacrer du temps supplémentaire pour travailler sur la pièce à nouveau. Deming disait souvent que s’il avait une chose à dire aux gestionnaires, il leur dirait de mettre l’accent sur la réduction de la variabilité (Douglas, 2010). En réduisant la variabilité, c’est immanquable, on accroit les profits.

 Axée sur la réduction de la variabilité

Effectivement SS met l’emphase sur la livraison des caractéristiques que le client souhaite.
La méthode consiste, à la base, d’écouter le client et de comprendre ce qu’il veut. Ensuite, lui livrer avec le moins de défauts possible. Un défaut, dans ce contexte, peut être vu comme un écart à la demande d’un client.
C’est que SS requiert un contrôle de la production et par conséquent, des mesures de caractéristiques des produits. Ces mesures sont comparées à un objectif et ainsi nous jugeons si la caractéristique est acceptable pour le client. L’amélioration continue par SS, tente de rapprocher, réduire l’écart, entre ces valeurs mesurées et les objectifs. De manière plus générale : l’accent associé à la méthodologie Six Sigma est de comprendre les entrées (x) qui ont le plus grand effet sur les sorties (y) et de contrôler ces entrés de sorte qu’il soit à l’intérieur des spécifications pour que le produit final soit de qualité aux yeux du client (Mehrjerdi, 2011).

ÉVALUATION DES OUTILS ET DES CONNAISSANCES REQUISES

Ce chapitre porte sur l’évaluation des outils contenus dans la démarche SS. Il s’agit de dresser un portrait des connaissances requises et des règles d’interprétation pour l’analyse qu’on en tire. Les différentes sections de ce chapitre présentent les phases d’un projet SS ainsi que les outils qui s’y rattachent. Seuls les outils ayant un caractère mathématique y sont détaillés, car ce sont eux que nous désirons simplifiés. Les outils qui sont d’avantages de gestion ou d’analyse qualitative sont hors de notre portée, car ce ne sont pas eux qui demandent une expertise statistique. Cette sélection se base sur le corpus de connaissance requis pour l’acquisition d’une ceinture noire de l’ASQ. Cette organisation est un fournisseur important de formation même que selon (Laureani et Antony, 2011), elle devrait être la référence internationale pour la reconnaissance des compétences.

 Analyse d’aptitude d’un procédé

L’analyse d’aptitude est souvent appelée aussi l’analyse de capabilité. La principale utilité de cette analyse est de connaitre à quel point notre procédé est fiable. C’est-à-dire à quel niveau nous pouvons respecter les spécifications du client ou encore pour évaluer la performance d’un processus par des indices quantitatifs.
L’indice le plus simple est le nombre de défauts par unité (DPU). Il se traduit par le nombre moyen de défauts retrouvés dans un échantillon. Un défaut est défini comme étant un produit qui nécessite qu’on corrige certains de ses aspects ou encore qu’on le jette. Autrement dit, une pièce sans défaut passe toutes les étapes de production et est jugée acceptable sans retouche. Il ne faut pas omettre le nombre d’opportunités par unité. Si la pièce présente plus d’une caractéristique quantifiable, l’indice DPU doit en tenir compte. La formule formelle s’écrit alors DPU=nombre de défauts / nombre d’opportunités. Où le nombre d’opportunité est nombre de pièces * nombre de caractéristique(s) soumise(s) à l’inspection.

 Le design d’expérience

Ce type d’analyse permet de quantifier l’importance de l’effet de différents facteurs pour une cause. Il s’agit d’élaborer un plan de plusieurs expérimentations avec des modalités différentes pour chaque facteur. La planification d’expérience se fait suivant une démarche que nous pouvons décortiquer en quatre grandes étapes. À chacune de ces étapes, de l’analyse est induite dans la procédure. Voici les grandes étapes (figure 2.1) et le détail de chacune élaborer2 plus loin.

Le blocage

Ce concept permet de regrouper certains réglages en bloc et d’en tirer des effets dits « effet de bloc ». C’est-à-dire qu’après le design du plan expérimental nous aurons aussi une contribution de la variance qui sera attribuée à l’effet des différents blocs. Cette assignation pourrait être souhaitable dans le cas où nous faisons des expérimentations sur plusieurs journées. Les blocs pourraient être les différents jours pour connaitre l’influence qu’ils ont sur nos expérimentations par exemple.
L’aléatoire complet Cette notion est certainement la plus importante de la théorie des plans d’expériences et elle doit être en tête de l’analyste du début jusqu’à la fin de l’expérimentation. Il s’agit ici de comprendre que ce que nous voulons récolter est une variance issue du fruit du hasard et non d’une étude biaisée. Ce qui montre l’importance de déterminer l’ordre aléatoire dans lequel nous ferons les essais. Ce qui permettra de répartir l’erreur d’expérimentation sur l’ensemble des essais sans produire de tendances entre la variance et le temps. Ce qui aurait comme conséquence de fausser l’étude (Michálek, 1990; Neter et al., 1996).

 La collecte des données

La collecte est la partie où nous faisons l’expérimentation. Il s’agit de régler les paramètres selon les réglages à essayer et d’écrire les réponses obtenues. Il est important lors de cette collecte de garder l’ordre aléatoire des essais et d’être vigilant pour éviter diverses sources de biais.

 Analyse de la régression

Dans le même sens que l’analyse de la variance, il s’agit ici de trouver l’influence d’un ou de plusieurs facteurs sur une variable de réponse. La distinction est que la régression est plus adéquate lors que nous avons des facteurs de type continu à l’entrée autant qu’à la sortie.
Notions nécessaires :
• Même type de connaissance et même niveau que l’analyse de la variance. (section 2.4.2).
Niveau de formation : post-secondaire.

SÉLECTION D’OUTILS DE REMPLACEMENT

Rappelons-nous la critique de la méthodologie au chapitre premier. Certains auteurs pensent qu’une part de la complexité de la démarche SS vient de la confusion due au grand nombre d’outils. De plus, la complexité de certains outils statistiques démotive plusieurs initiés.
Finalement, la démarche demande plusieurs années d’entrainement étant donné qu’elle est hautement analytique.
Cette section décriera la sélection des outils que nous voulons conserver dans la démarche simplifiée pour tenter de diminuer la confusion ainsi qu’amoindrir la grande importance accordée à l’utilisation de la statistique pour réduire le temps de formation et d’entrainement.
Nous croyons que de limiter la sélection à des outils visuels simples permettrait d’atteindre les objectifs tout en gardant encore un grand potentiel de solvabilité de problèmes. Autrement dit, la sélection doit être faite en conservant, en priorité, les outils les plus puissants qui sont simples d’utilisation.

CONCLUSION

La discipline du génie industriel a connu ses débuts par l’analyse statistique et a évolué à travers ces principes. Nous trouvons de nombreuses références pesantes en statistiques sur la méthodologie Six Sigma où la quantité d’outils est faramineuse. C’est ce qui fait sa force, mais aussi sa faiblesse. Ce projet a vu le jour grâce à notre partenaire industriel qui a constaté une rétention faible des connaissances transmises lors de ses formations sur le sujet. Ce qui a été, d’ailleurs une des causes d’échecs recensés dans la littérature et qui en a fait le sujet principal de ce travail. Les causes d’échecs liés à l’éducation sont multiples. Nous trouvons d’abord une difficulté d’apprentissage étant donné le caractère hautement analytique de SS, l’utilisation de la statistique ainsi qu’une confusion liée aux nombreux outils et techniques existants pour résoudre des problèmes. Plusieurs analystes sont démotivés face à l’utilisation de cette démarche et ceci limite grandement son potentiel.
L’opinion des professionnels est partagée à savoir si l’analyse statistique est essentielle à la réalisation de projets d’amélioration continue et ce travail a présenté un point central entre les deux lignes de pensée. Nous intégrons les données et en faisons l’analyse de sorte à dégager les éléments de variance, mais sans calculs rigoureux pour trouver la signification statistique.
Cet élément est laissé au jugement de l’analyste. Il doit faire l’observation visuelle de la variance et doit déterminer si elle lui semble suffisante pour intervenir et démarrer un projet d’amélioration continue.

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela rapport-gratuit.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

INTRODUCTION
CHAPITRE 1 CONTEXTE ET REVUE LITTÉRAIRE
1.1 Performance
1.1.1 Performance moyenne
1.1.2 Méfaits de la variabilité
1.2 Qu’est-ce que la méthodologie Six Sigma
1.2.1 Historique
1.2.2 Spécificités
1.2.2.1 Axée sur les résultats financiers
1.2.2.2 Axée sur la réduction de la variabilité
1.2.3 Évolution vers le Lean Six Sigma
1.2.4 Distinction entre l’entreprise manufacturière et de service
1.2.5 Structure hiérarchique typique
1.3 Critique envers la méthodologie Six Sigma
1.3.1 La science et les besoins de l’industrie
1.3.2 Les rôles, le savoir et les enjeux éducationnels
1.3.3 La démarche et les enjeux organisationnels
1.4 Synthèse des enjeux et orientation du travail
1.5 Méthodologie
CHAPITRE 2 ÉVALUATION DES OUTILS ET DES CONNAISSANCES REQUISES
2.1 Reconnaître
2.2 Définir
2.3 Mesurer
2.3.1 Analyse d’un système de mesure (R & R)
2.3.2 Le théorème de la limite centrale (TCL)
2.3.3 Test de normalités
2.3.4 Analyse d’aptitude d’un procédé
2.3.4.1 Le calcul du niveau sigma
2.3.5 Les indices d’aptitudes
2.4 Analyser
2.4.1 Le design d’expérience
2.4.1.1 Déterminer les facteurs à l’étude
2.4.1.2 Préparation de la matrice des essais
2.4.1.3 La collecte des données
2.4.1.4 L’analyse des données
2.4.2 Analyse de la variance (ANOVA)
2.4.2.1 Les conditions d’applications lié à l’analyse de la variance
2.4.3 La stratification
2.4.4 Analyse multi varié graphique
2.4.5 Analyse de la régression
2.4.6 Les tests d’hypothèses
2.4.7 L’échantillonnage
2.5 Améliorer
2.6 Contrôler
2.6.1 Les cartes de contrôle
2.7 Synthèse des outils statistiques
CHAPITRE 3 SÉLECTION D’OUTILS DE REMPLACEMENT
3.1 Type d’opérations et démarche d’analyse
3.2 Sélection, analyse et conception des outils
3.2.1 Les outils graphiques de base
3.2.1.1 Boîte à moustache
3.2.1.2 Graphique à barres
3.2.1.3 Le graphique secteur
3.2.1.4 Histogramme
3.2.1.5 Diagramme de Pareto
3.2.2 L’analyse d’un système de mesure (R et R)
3.2.3 Le théorème central limite (TCL)
3.2.4 Test de normalités
3.2.5 Analyse d’aptitude d’un procédé
3.2.6 Les indices d’aptitudes
3.2.7 L’analyse de la variance (ANOVA)
3.2.8 Analyse multi varié graphique
3.2.9 Analyse de la régression
3.2.10 Les tests d’hypothèses
3.2.11 L’échantillonnage
3.2.12 Les cartes de contrôle
3.3 Synthèse de la sélection des outils
CHAPITRE 4 COMPARAISON DES COFFRES À OUTILS
4.1 Évaluation du coffre à outils simplifiés
4.1.1 Pondération des critères
4.1.2 Pondération des alternatives pour chaque critère
4.1.3 Équilibre de la préférence
4.1.4 Commentaires des experts
4.2 Sondage sur l’impression des étudiants
4.3 Évaluation des logiciels de soutien à la démarche
4.4 Comparaison des méthodologies par des études de cas
4.4.1 Étude de cas 1 : design d’expérience
4.4.1.1 Résolution classique du problème avec Statistica 8.0
4.4.1.2 Résolution selon le coffre à outils simplifié
4.4.2 Étude de cas 2 : contrôle de procédé
4.4.2.1 Résolution classique du problème avec Statistica 8.0
4.4.2.2 Résolution selon le coffre à outils simplifié
4.4.3 Étude de cas 3 : régression multiple
4.4.3.1 Résolution classique du problème avec Statistica 8.0
4.4.3.2 Résolution selon le coffre à outils simplifié
4.4.4 Étude de cas 4 : ANAVAR
4.4.4.1 Résolution classique du problème avec Statistica 8.0
4.4.4.2 Résolution selon le coffre à outils simplifié
4.5 Discussions sur les résultats et perspectives
CONCLUSION

Rapport PFE, mémoire et thèse PDFTélécharger le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *