Méthodes probabilistes pour l’évaluation de risques en production industrielle

Durant la mise en œuvre d’une production industrielle, le processus de fabrication ne peut être entièrement et parfaitement contrôlé. Il existe une variabilité intrinsèque à ce processus qui peut considérablement détériorer les caractéristiques des pièces manufacturées, induisant des pièces non-fonctionnelles. De telles variations peuvent être critiques lorsqu’il s’agit de systèmes techniques complexes, comme par exemple des circuits intégrés développés par l’industrie de la microélectronique. Ainsi, bien souvent, lors de l’élaboration d’un composant, d’une fonction ou d’un circuit électronique, les ingénieurs peuvent être contraints à la sur-qualité : des précautions, des marges sont prises afin d’assurer que le produit satisfasse le cahier des charges, c’est-à-dire une liste de spécifications. Ces mesures s’accompagnent en général de coûts supplémentaires qui détériorent la profitabilité. C’est pourquoi, il est nécessaire de prendre en compte lors du développement cette variabilité du processus de fabrication, et d’en quantifier les conséquences.

Pour évaluer l’influence des paramètres fluctuants, il est souvent effectué une analyse aux limites (“corner process”) en appliquant par exemple la méthodologie des plans d’expériences. Cette technique consiste à caractériser des réalisations du produit correspondant à certaines configurations limites de ses paramètres. Cependant, les conclusions de ces campagnes de mesures sont, en général, qualitatives et par conséquent incomplètes. De plus, le temps et le coût requis pour la réalisation de prototypes physiques sont souvent prohibitifs. Comme alternative, les modèles numériques (déterministes) implémentés dans des logiciels de simulation d’ingénierie offrent un moyen pour calculer les caractéristiques pertinentes (thermiques, mécaniques, électriques…) d’un produit. Ainsi, de nos jours, les ingénieurs peuvent virtuellement explorer diverses configurations de conception et obtenir un aperçu de l’ensemble des performances du produit final. Dans ce contexte, des études statistiques peuvent être conduites pour évaluer l’effet de la variabilité du processus sur un rendement de production. La plus populaire des méthodes statistiques est la méthode Monte-Carlo, qui consiste à comptabiliser les évènements “échecs” parmi des configurations des paramètres du produit, tirées suivant leur distribution de probabilités. Une estimation de la distribution des paramètres étudiés est effectivement accessible étant donné que le processus de fabrication est surveillé en continu. La méthode Monte-Carlo est facile à mettre en œuvre mais son efficacité dépend essentiellement de la complexité du modèle déterministe. Quand le simulateur numérique considéré est consommateur en temps nous avons seulement accès à une information incomplète. Par exemple, la durée de simulations basées sur la méthode des éléments finis, de quelques heures à plusieurs jours, n’est pas compatible avec une approche Monte-Carlo seule.

Principe général de la construction d’un modèle aléatoire d’une fonction imparfaitement connue

Conditionnement et champ aléatoire

Le contexte général dans lequel nous nous plaçons pour la construction d’un modèle est celui de l’inférence bayésienne d’un champ aléatoire. Cela signifie que, après observation des données à notre disposition, nous procédons en deux étapes :
– choix d’un champ aléatoire a priori, donné par sa loi
– conditionnement de ce champ par l’information connue, de façon à obtenir le champ aléatoire a posteriori.

Rappelons qu’étant donnés un espace X (qui sera pour nous une partie de l’espace RD) et un espace probabilisé (Ω, T , P), un champ aléatoire réel défini sur Ω et indexé par X est une application de X dans l’ensemble des variables réelles définies sur Ω : x → Yx.

La modélisation par processus gaussien a plusieurs propriétés intéressantes. L’interpolation respecte les valeurs exactes aux points d’observation, c’est-à-dire qu’il n’y a pas d’erreurs de prédiction (ou résidus) en ces points. C’est donc un outil approprié pour l’analyse d’expériences numériques (Sacks et al. (1989)), pour lesquelles il est difficile de donner un sens aux résidus observés. Un modèle GP peut être déterminé (en théorie) même pour de petits jeux de données, une propriété clé quand l’information est manquante, ce qui est une situation habituelle quand le nombre de facteurs (D) est grand. De plus, c’est un modèle très flexible, capable de décrire des surfaces de réponses non-continues aussi bien que non-différentiables. Cette caractéristique est particulièrement utile pour gérer les discontinuités des réponses qui peuvent survenir en raison du schéma de résolution numérique des codes informatiques, en particulier lorsque des algorithmes de maillage sont impliqués. Finalement, la nature probabiliste des prédictions peut être interprétée comme un modèle pour l’incertitude, un intervalle de confiance représentant un degré de confiance dans la prédiction réalisée.

Il existe plusieurs méthodes alternatives aux processus gaussiens comme par exemple la modélisation par des fonction “splines” (DiMatteo et al. (2001)) qui consiste à découper l’espace des facteurs X et à considérer un modèle polynomial pour chacun des sous-espaces sous des conditions de continuités et de différentiabilités aux limites des sous-espaces. Il y a également la modélisation par des réseaux de neurones (Neal (1996)) qui formellement consiste à créer un automate, c’est-à-dire une liste d’états ainsi que des règles pour passer d’un état à un autre, capable d’apprendre, c’est-à-dire capable de faire évoluer ses états et ses règles en fonction des données qui le renseignent. Rasmussen et Williams (2006) consacrent un chapitre entier à la comparaison des modèles GP à des solutions alternatives.

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela rapport-gratuit.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

Introduction
0.1 Cadre et motivations
0.2 Construction d’un modèle
0.3 Exploitation du modèle
0.4 Application
1 Modèles aléatoires
1.1 Principe général de la construction d’un modèle aléatoire d’une fonction imparfaitement connue
1.1.1 Conditionnement et champ aléatoire
1.1.2 Choix d’un prior
1.2 Champ Gaussien
1.3 Mélange de champs gaussiens avec moyenne aléatoire
1.3.1 Distribution conditionnelle du champ aléatoire
1.3.2 Distribution conditionnelle de la moyenne aléatoire
1.4 Mélange de champs gaussiens avec moyenne et variance aléatoires
1.4.1 Distribution de Student multivariée
1.4.2 Distribution conditionnelle du champ aléatoire
1.4.3 Distribution conditionnelle de la moyenne aléatoire
1.4.4 Distribution conditionnelle de la variance aléatoire
1.5 Modèle mixte aléatoire
1.5.1 Distribution conditionnelle du champ aléatoire
1.5.2 Distribution conditionnelle de la moyenne aléatoire
1.5.3 Distribution conditionnelle de la variance aléatoire
1.6 Paramétrisation des modèles
1.6.1 Fonctions de corrélation
1.6.2 Maximum de vraisemblance
1.6.3 Validation croisée
1.6.4 Paramètres vus comme aléatoires
1.7 Exemples et résultats
1.7.1 Comparaison du champ de Student et du champ gaussien
1.7.2 Étude de l’erreur de prédiction du champ de Student
1.7.3 Performance de l’estimateur du maximum de vraisemblance
1.7.4 Comparaison du champ de Student et du champ mixte
1.8 Compléments
1.8.1 Gestion du bruit
1.8.2 Transformation de la réponse
1.8.3 Réponse multidimensionnelle
Formulaire
2 Exploitation d’un modèle aléatoire
2.1 Probabilité du risque de défaillance
2.1.1 La probabilité de défaillance vue comme une variable aléatoire
2.1.2 Choix d’une distribution uniforme pour le seuil
2.1.3 Monte-Carlo préférentiel
2.1.4 Conclusion sur le modèle d’évaluation du risque de défaillance
2.1.5 Mise en œuvre numérique du calcul du risque de défaillance
2.2 Probabilité du risque d’insuffisance du modèle
2.2.1 Description de l’approche
2.2.2 Choisir la distribution des seuils
2.2.3 Monte-Carlo préférentiel
2.3 Calcul du risque de défaillance : synoptique
2.4 Calcul de rendement sur des exemples théoriques
2.4.1 Exemple de la forme quadratique
2.4.2 Exemple du sinus
2.4.3 Exemple des gaussiennes
2.5 Influence des facteurs
2.5.1 Méthodologie
2.5.2 Critère de comparaison
2.5.3 Exemple théorique
3 Applications pratiques
3.1 Description du logiciel GoNoGo
3.1.1 Cœur de calcul
3.1.2 Interface utilisateur
3.2 Étude d’un cas réel de la société STMicroelectronics
3.2.1 Diplexeur
3.2.2 HFSS
3.2.3 CornerStone et GoNoGo
3.2.4 Étude “marketing/design” : choix des spécifications
3.2.5 Sélection de transformations pour les réponses
3.2.6 Étude ingénierie de test : influence des réponses
3.2.7 Étude “manufacturing” : dérive de la distribution des facteurs
Conclusion

Rapport PFE, mémoire et thèse PDFTélécharger le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *