Conception et commande de systèmes d’alimentation en composants de petites tailles pour micro-usine d’assemblage de haute précision

Aujourd’hui, les microsystèmes ont envahi notre vie quotidienne. On les retrouve dans des domaines très différents comme sur les ailes d’un AIRBUS-A380, dans une voiture ou encore dans des systèmes portables comme les téléphones. Leur développement est issu de plusieurs critères tels que :
• la réduction de la taille ;
• la réduction de la consommation d’énergie ;
• la réduction des coûts ;
• l’amélioration des performances d’un système. . .

Les premiers travaux fondés sur la technologie de la micro-électronique ont donné naissance à des micro-actionneurs ou des micro-capteurs passifs intégrés sur une puce électronique. Il ne s’agissait pas encore de microsystèmes. Si l’on combinait déjà l’électronique avec un capteur ou un actionneur, ces éléments n’incluaient pas à la fois des capteurs, des actionneurs et de l’électronique. En effet, il n’était pas encore possible à l’époque de manipuler des composants microscopiques. C’est pourquoi, ces micro-actionneurs étaient fabriqués sur la puce électronique sans aucune séquence d’assemblage. Vers le milieu des années 1990 l’émergence de la recherche en microrobotique a permis d’entrevoir d’autres possibilités pour la fabrication de véritables microsystèmes. En effet, la microrobotique a ouvert la voie de la manipulation d’objets aux formes géométriques complexes. Puisque la technologie de fabrication était désormais connue et qu’il était possible de manipuler des composants tridimensionnels, l’évolution des premiers microsystèmes ne resta pas longtemps cantonnée dans les domaines de la micro-électronique sur silicium et de la mécanique. Aujourd’hui, ces microsystèmes couvrent des domaines tels que :
• la thermique ;
• l’acoustique ;
• la biologie ;
• l’électromagnétique ;
• l’optique. . .

Contexte du micro-assemblage modulaire

« There’s Plenty of Room at the Bottom »  , déclara Richard Feynman , prix Nobel de physique américain, le 29 Décembre 1959 au congrès annuel de l’American Physical Society au California Institute of Technology (Caltech). Ce texte fondateur de la technologie moderne et toujours aussi visionnaire, posait les bases de la course à la miniaturisation. Il prévoyait ainsi dans son discours, que travailler à l’assemblage de composants à l’échelle atomique permettrait de donner une puissance de calcul inouïe aux ordinateurs jusqu’à leur donner une intelligence artificielle. Il ne s’arrêta pas au cas unique de ces derniers, et mis en évidence des possibilités de micro nano robots en médecine, les phénomènes physiques lorsque l’on passe en dessous du millimètre ainsi qu’à l’échelle atomique et posa ainsi avec cinquante ans d’avance, la problématique de la conception et de l’assemblage de machines à ces échelles.

Le développement de telles machines est issu des progrès de l’électronique avec l’avènement de circuits intégrés après l’invention du premier semiconducteur intégré à base de silicium. C’est donc le silicium et le domaine de l’électronique avec la microélectronique qui ont rendu possible l’élaboration des premiers éléments mécaniques issus des procédés de fabrication des circuits intégrés au début des années 1980. En 1977, des chercheurs de chez IBM (Bassous et al., 1977) élaborent des têtes d’impression pour imprimante à jet d’encre en gravant des wafers en silicium par un procédé issu de la conception des circuits intégrés. L’industrie a toujours cherché le moyen de réduire la taille et la consommation de ses produits. En 1982, (Petersen, 1982) publie un article afin de persuader la communauté scientifique d’utiliser le silicium comme un matériau mécanique. C’est à la fin des années 80, que fut démontré la possibilité d’assembler des éléments en silicium afin d’obtenir un mécanisme capable de se mouvoir. À l’issue de trois workshops durant la même année (1988), sur la microdynamique, le terme « MEMS (MicroElectroMechanical Systems) » fut adopté afin de décrire des systèmes de taille micrométrique qui se composent de capteurs, d’actionneurs et qui embarquent de l’électronique. Les premiers MEMS furent développés au Japon et aux États-Unis. Dans le premier cas, l’approche adoptée consistait à partir de dispositifs mécaniques conventionnels comportant de l’électronique (d’où le terme de mécatronique), à réduire leur taille, tandis que des MEMS à base de silicium étaient déjà réalisés sur le principe de la micro-électronique de l’autre côté de l’océan Pacifique. Ces deux pionniers, dont les approches sont aux antipodes, nous permettent de mettre en avant la différence fondamentale entre l’assemblage d’une voiture et celui d’un MEMS. En effet, l’utilisation de robots, fondée sur un modèle macroscopique de la physique, même après miniaturisation ne permet pas de réaliser de telles opérations. Ces robots ne sont plus adaptés à une physique qui se doit de décrire des forces et des interactions parfois négligeables et souvent négligées à l’échelle humaine. Ainsi, les systèmes automatisés qui composent une chaîne d’assemblage, comme les robots et les systèmes d’alimentation en composants, ne peuvent être réduits à une taille millimétrique et opérer sur des constituants de taille submillimétrique. Le développement de ces chaînes d’assemblage se fondent sur la physique newtonienne et l’interaction gravitationnelle. Les faibles dimensions des constituants d’un MEMS font apparaître, au grand jour et non seulement sous un microscope, la physique du micromonde.

Il est aisé d’observer dans notre vie quotidienne les manifestations physiques à l’échelle microscopique. Nous avons déjà remarqué que pendant les matins d’été des gouttes d’eau se forment sur les toiles d’araignées ou sur des brins d’herbes. Ces gouttes, si l’on suit le raisonnement de Newton, devraient en toute logique tomber sur le sol, et pourtant elles restent accrochées. Ce qui peut paraître encore plus surprenant, est d’observer la montée d’un liquide dans un tube lorsqu’il est mis en contact avec un liquide mouillant , défiant ainsi notre perception si humaine de la pomme qui chute sur la tête d’Ysaac Newton. Frotter une règle en plastique sur un pull en laine puis l’approcher vers un petit morceau de papier permet de le maintenir à la vertical voir de le coller sur cette dernière sans qu’il n’y ait eu contact . La force électrostatique, qui s’exerce alors, est la même que celle qui nous dresse les cheveux dans un champ électrique. Un gecko, (une espèce sous-ordre de lézard) peut tout aussi bien se mouvoir sur le sol, sur une vitre et au plafond ! Cela est rendu possible grâce aux lamelles qui se trouvent sous ses doigts. Ce sont les interactions de Van-der-Waals entre ces lamelles et la surface qui lui permettent de se déplacer du sol au plafond . Les exemples précédents illustrent les effets de trois forces prépondérantes sur la gravité à l’échelle microscopique : les forces capillaires, électrostatiques et de Van-der-Waals.

Forces du micromonde

Si les pommes chutent, si les objets ont leur propre forme, si une ampoule éclaire une pièce et enfin si le squelette de Lucy est estimé à au moins 3, 5 millions d’années, c’est grâce aux quatre forces fondamentales de la Nature. Ces quatre forces sont à la base des forces surfaciques que nous avons énoncées précédemment. La gravitation est l’interaction qui gouverne le comportement des astres et de l’Univers. C’est une interaction de longue portée. Elle agit sur les particules les plus élémentaires jusqu’à l’échelle de la mécanique céleste. Cependant, à l’échelle subatomique, son action est négligeable. L’accumulation de l’ensemble des interactions gravitationnelles de chaque particule donne naissance à la force de gravitation à l’échelle macroscopique. Ainsi, la Lune gravite autour de la Terre, qui elle même produit les effets des marées sur cette dernière. Étant la plus faible des quatre interactions, elle est pourtant celle que nous ressentons le plus. La seconde force de la Nature que nous pouvons encore percevoir et l’interaction électromagnétique. Elle se manifeste sous deux formes : électrique et magnétique, et ses effets sont les plus courants. La foudre, les effets électrostatiques, les aimants sont issus de cette interaction, qui est également à l’origine de la lumière blanche. C’est elle qui définit les propriétés des gaz, des solides et des liquides. Sa portée est tout comme la gravitation infinie et décroît en fonction du carré de la distance. Elle est responsable du fait que la matière soit neutre, en assurant la cohésion entre les électrons en orbite autour du noyau. Les interactions issues des électrons des atomes voisins donnent naissance aux liaisons entre les atomes ce qui permet la construction des molécules et enfin de corps plus massifs tels que le corps humain. Les deux interactions restantes ont une portée beaucoup plus courte. Leurs actions sont confinées à l’intérieur du noyau atomique (≈ 10⁻¹⁵m). La plus intense, l’interaction forte, agit uniquement sur les quarks ou sur les particules composées de quarks (les neutrons et les protons par exemple). Elle assure la cohésion du noyau. Elle se manifeste tous les jours au lever du Soleil. C’est elle qui est responsable en grande partie des réactions thermonucléaires. Elle se manifeste également à chaque instant de notre vie puisqu’elle assure l’unité des atomes. L’interaction faible agit à l’intérieur des neutrons et des protons (≈ 10⁻¹⁸m). Elle s’applique à toutes les particules de matière. Elle est responsable de la désintégration des neutrons au sein du noyau. Cette désintégration engendre l’émission de rayon beta. C’est pour cette raison que les archéologues utilisent un atome radioactif beta particulier : le carbone 14 pour évaluer Puisque le rayon des interactions faibles et fortes est restreint au niveau subatomique, la description des forces de surface est avant tout issue des interactions électromagnétique et gravitationnelle. En effet, les phénomènes physiques que nous allons décrire sont compris entre des formes conventionnelles (sphériques, cylindriques et planes) à une échelle micrométrique. La description physique et les modèles mathématiques qui en découlent font abstractions des approches quantiques ou plus raffinées comme cela est le cas pour l’analyse des gaz réels par exemple.

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela rapport-gratuit.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

Introduction générale
I Définition d’une approche globale pour l’alimentation multiéchelles en composants
1 De la miniaturisation aux microsystèmes
1.1 Contexte du micro-assemblage modulaire
1.2 Forces du micromonde
1.2.1 Forces de Van-der-Waals
1.2.1.1 Définitions
1.2.1.2 Approximation de Derjaguin
1.2.2 Forces capillaires
1.2.3 Forces électrostatiques
1.3 Conséquences sur le micro-assemblage
1.3.1 Nouveau concept : la micro-usine
1.3.2 Stratégies en micro-assemblage
1.4 Vers la micro-usine
1.4.1 Fonctions des systèmes de micro-assemblage
1.4.2 Historique
1.5 Le challenge de la modularité – haute précision
1.5.1 Pourquoi la modularité ?
1.5.2 Minicomposants et haute résolution
1.5.3 Lorsque les dimensions diminuent
1.6 Conclusion
2 État de l’art des systèmes d’alimentation aux échelles millimétrique et micrométrique
2.1 Les microsystèmes sans contact
2.1.1 Principe pneumatique
2.1.2 Principe électrostatique
2.1.3 Principe par ultrasons
2.1.4 Principe magnétique
2.1.5 Discussion
2.2 Les microsystèmes avec contact
2.2.1 Les microrobots mobiles
2.2.2 Surfaces actives
2.2.2.1 Les cils actionneurs thermobimorphes
2.2.2.2 Les cils magnétiques
2.2.2.3 Les cils à réaction chimique
2.2.3 Surfaces passives
2.2.4 Discussion
2.3 Conclusion
3 Projet EUPASS : système d’alimentation en composants millimétriques
3.1 Présentation du projet européen EUPASS
3.2 Stratégies d’alimentation en composants
3.2.1 Stratégies intégrant le système d’alimentation
3.2.2 Stratégies avec le système d’alimentation hors ligne
3.2.3 Conclusion : choix d’une stratégie pour le système d’alimentation en composants
3.3 Cahier des charges pour le système d’alimentation en composants
3.3.1 Étendue des composants tests
3.3.2 Fonctions du système d’alimentation
3.3.3 Conclusion
3.4 Solutions proposées
3.4.1 Système d’alimentation de type cassette et son évolution
3.4.2 Recherche d’un principe de maintien des composants
3.4.2.1 Principe actif : la glace
3.4.2.2 Principe semi-actif : la polycaprolactone
3.5 Conclusion
II Déplacements par inertie de micro-objets
4 Étude de la friction
4.1 Genèse du frottement
4.1.1 Modèles de friction classiques
4.1.2 Modèles dynamiques de friction
4.1.3 Modèle de Bowden et Tabor
4.1.4 Modèle de Greenwood-Williamson (GW)
4.1.5 Théorie du contact
4.1.5.1 Modèle de Hertz
4.1.5.2 Modèle JKR
4.1.5.3 Modèle DMT
4.1.5.4 Transition de Maugis
4.1.5.5 Discussion
4.1.6 Synthèse des paramètres à déterminer
4.2 Caractérisation des surfaces
4.2.1 Microscopie
4.2.2 Microscope à force atomique : AFM
4.2.3 Calibrage du microscope à force atomique
4.2.3.1 Évaluation de la raideur en flexion
4.2.3.2 Évaluation de la raideur en torsion
4.2.3.3 Synthèse du calibrage du microscope à force atomique
4.3 Proposition d’une méthode d’évaluation de la force de friction
4.3.1 Démarche
4.3.2 Relevés topographiques des surfaces
4.3.3 Évaluation de la friction entre un cuboïde microscopique et une surface de silicium
4.3.4 Description du système expérimental
4.3.5 Résultats expérimentaux
4.4 Conclusion
Conclusion générale

Rapport PFE, mémoire et thèse PDFTélécharger le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *