Recherche avancée sur les thèses de l'INSA de Lyon

  • 287 ressources ont été trouvées. Voici les résultats 1 à 10
Tri :   Titre Auteur
Herbig Michael. 3D short fatigue crack investigation in beta titanium alloys using phase and diffraction contrast tomography. 2011 / Thèses / accès à la bibliothèque (document papier)
Résumé
Résumé
La tomographie en contraste de diffraction est une nouvelle technique non destructive d'imagerie synchrotron qui caractérise la microstructure et l'orientation des grains dans les matériaux polycristallins en trois dimensions (3D). En la combinant avec la tomographe par contraste de phase. Il est pour la première fois possible d'observer in situ la propagation 3D des fissures de fatigue courtes au sein d'un ensemble de grains entièrement caractérisé (orientation et forme). L'approche combinée, appelée tomographie tri-dimensionnelle par rayons X des fissures courtes et de la microstructure (T3DXFM), a été développée sur l alliage de titane métastable "Beta21S". Une grande partie de ce travail porte sur le développement de la méthodologie T3DXFM. Dans le jeu de données combinées, chaque point de la surface de rupture 3D peut être associé à une structure de données multidimensionnelle contenant des variables décrivant l'orientation des grains, l'orientation locale de la surface de rupture ainsi que l'histoire de la propagation. La méthode utilise un maillage de surface composé de triangles qui décrit la fissure (en d'autres termes: la surface de rupture) dans l'état de propagation mesuré au dernier cycle de fatigue réalisé. Les orientations des grains, les différents fronts de la fissure, les vitesses de croissance locales ainsi que les joints de grains peuvent être visualisés en attribuant des couleurs à ce maillage. Des outils d'extraction des figures de pôle ont été créés et mis en œuvre. Un algorithme a été développé qui est capable de mesurer la vitesse de propagation locale 30 d'une fissure contenant des branchements.
X-Ray Diffraction Contrast Tomography (DCT) is a recently developed, non-destructive synchrotron imaging technique which characterizes microstructure and grain orientation in polycrystalline materials in three dimensions (3D). By combining it with propagation based phase contrast tomography (PCT) it is for the first lime possible to observe in situ the 3D propagation behavior of short fatigue cracks (SFCs) within a set of fully characterized grains (orientation and shape). The combined approach, termed 3D X-ray Tomography of short cracks and Microstructure (3DXTSM), has been developed on the metastable beta titanium alloy "Beta21S". A large part of this work deals with the development of the 3DXTSM methodology. In the combined dataset, each point on the 3D fracture surface can be associated with a multidimensional data structure containing variables describing the grain orientation, the local fracture surface normal and the propagation history. The method uses a surface mesh composed of triangles that describes the crack (in other words: the fracture surface) in the last propagation state measured. Grain orientations, crack fronts, local growth rates and grain boundaries can be visualized by assigning colors to this mesh. The data structure can be interrogated in a number of different ways. Tools for extracting pole figures and pole density distribution functions have been implemented. An algorithm was developed that is capable of measuring the 3D local growth rate of a crack containing branches. The accuracy of the grain boundaries as reconstructed with OCT was evaluated and the elastic constants of Beta21S were determined.
Mot(s) clés libre(s) : CND - Contrôle non destructif, Fissuration, Fissure courte, Tomographie en contraste de diffraction, Tomographie par contraste de phase, Imagerie 3D, Titane, NDT- Non destructive testing, Cracking, Short crack, Diffraction contrast tomography, Phase contrast tomography, 3D imaging, Titanium
 |  Notice

Herbig Michael. 3D short fatigue crack investigation in beta titanium alloys using phase and diffraction contrast tomography. 2011 / Thèses / accès à la bibliothèque (document papier)
Résumé
Résumé
La tomographie en contraste de diffraction est une nouvelle technique non destructive d'imagerie synchrotron qui caractérise la microstructure et l'orientation des grains dans les matériaux polycristallins en trois dimensions (3D). En la combinant avec la tomographe par contraste de phase. Il est pour la première fois possible d'observer in situ la propagation 3D des fissures de fatigue courtes au sein d'un ensemble de grains entièrement caractérisé (orientation et forme). L'approche combinée, appelée tomographie tri-dimensionnelle par rayons X des fissures courtes et de la microstructure (T3DXFM), a été développée sur l alliage de titane métastable "Beta21S". Une grande partie de ce travail porte sur le développement de la méthodologie T3DXFM. Dans le jeu de données combinées, chaque point de la surface de rupture 3D peut être associé à une structure de données multidimensionnelle contenant des variables décrivant l'orientation des grains, l'orientation locale de la surface de rupture ainsi que l'histoire de la propagation. La méthode utilise un maillage de surface composé de triangles qui décrit la fissure (en d'autres termes: la surface de rupture) dans l'état de propagation mesuré au dernier cycle de fatigue réalisé. Les orientations des grains, les différents fronts de la fissure, les vitesses de croissance locales ainsi que les joints de grains peuvent être visualisés en attribuant des couleurs à ce maillage. Des outils d'extraction des figures de pôle ont été créés et mis en œuvre. Un algorithme a été développé qui est capable de mesurer la vitesse de propagation locale 30 d'une fissure contenant des branchements.
X-Ray Diffraction Contrast Tomography (DCT) is a recently developed, non-destructive synchrotron imaging technique which characterizes microstructure and grain orientation in polycrystalline materials in three dimensions (3D). By combining it with propagation based phase contrast tomography (PCT) it is for the first lime possible to observe in situ the 3D propagation behavior of short fatigue cracks (SFCs) within a set of fully characterized grains (orientation and shape). The combined approach, termed 3D X-ray Tomography of short cracks and Microstructure (3DXTSM), has been developed on the metastable beta titanium alloy "Beta21S". A large part of this work deals with the development of the 3DXTSM methodology. In the combined dataset, each point on the 3D fracture surface can be associated with a multidimensional data structure containing variables describing the grain orientation, the local fracture surface normal and the propagation history. The method uses a surface mesh composed of triangles that describes the crack (in other words: the fracture surface) in the last propagation state measured. Grain orientations, crack fronts, local growth rates and grain boundaries can be visualized by assigning colors to this mesh. The data structure can be interrogated in a number of different ways. Tools for extracting pole figures and pole density distribution functions have been implemented. An algorithm was developed that is capable of measuring the 3D local growth rate of a crack containing branches. The accuracy of the grain boundaries as reconstructed with OCT was evaluated and the elastic constants of Beta21S were determined.
Mot(s) clés libre(s) : CND - Contrôle non destructif, Fissuration, Fissure courte, Tomographie en contraste de diffraction, Tomographie par contraste de phase, Imagerie 3D, Titane, NDT- Non destructive testing, Cracking, Short crack, Diffraction contrast tomography, Phase contrast tomography, 3D imaging, Titanium
 |  Notice  |  Texte intégral

Sansalone Mickaël. A new shell formulation using complete 3D constitutive laws : Applications to sheet metal forming simulations. 2011 / Thèses / accès à la bibliothèque (document papier)
Résumé
Résumé
Dans le domaine de la mise en forme industrielle, des outils de simulation comme le logiciel Pam-stamp 2G permettent entre autres le prototypage et l'optimisation numérique des produits, réduisant ainsi les coûts expérimentaux de mise au point. Les éléments finis de type coques en hypothèse d'état plan de contrainte demeurent les plus utilisés car ils permettent une prise en compte réaliste des déformations majeures de membrane et de flexion. Cependant, de par leur définition, la contrainte normale pouvant apparaitre en cas de compression du flan dans la direction de l'épaisseur ou encore de flexion extrême sur petit rayon est systématiquement omise. De plus, Il existe de nouveaux procédés de mise en forme de tôle, comme le pliage/sertissage/emboutissage avec laminage et/ou écrasement ainsi que l'hydroformage, qui ne peuvent pas être traités avec ces formulations d'éléments coques classiques. L'utilisation de couches d'éléments volumiques est souvent considérée comme une alternative non convenable aux simulations de ces procédés. Outre le très haut coût CPU, s'ajoutent le rendu parfois non réaliste ainsi que la complexité liée à la découpe du maillage du flan. Récemment, des éléments de type solid-shell ont été mis à contribution mais requièrent des améliorations quant à leurs lois de comportements. L'objectif d ESI group consiste en l élaboration, l'évaluation, l'implémentation et la validation industrielle d'une nouvelle formulation d'élément fini. Cet élément devra permettre la gestion d 'une éventuelle variation d'épaisseur avec prise en compte réaliste de la contrainte normale, tout en assurant des résultats dignes de ceux d'une coque conventionnelle en flexion. Une nouvelle formulation de type coque 3D est ainsi d'abord proposée. Des éléments coques triangulaires et quadrangulaire en théorie de Mindlin et de Kirchhoff sont utilisés. Cette approche est d'abord développée dans un solveur quasi-statique implicite de l'INSA de Lyon pour validation numérique sur cas académiques linéaires et non linéaires de référence. Une validation expérimentale sur opération de pliage dépliage est également réalisée. Aux vues des non linéarités dues au contact avec frottement, grandes déformations et grands déplacements posant des soucis de convergence en implicite au cours de la simulation d opérations de mise en forme, la méthode est ensuite développée dans le solveur explicite de l INSA de Lyon. Seuls les éléments en théorie de Mindlin sont considérés. Les particularités liées à cette méthode de résolution dynamique comme la matrice de masse, le pas de temps critique et l'optimisation du CPU sont traitées. Une nouvelle méthode de contact dédiée aux opérations de mise en forme impliquant du laminage et/ou de l'amincissement est également proposée. Elle permet une transition automatique d'éléments standards vers des éléments coque "3D", palliant ainsi le remaillage. Des essais de mise en forme en U avec ou sans laminage apportent une validation expérimentale concernant le retour élastique. Une fois validées, les techniques et formulations les plus abouties sont implémentées dans le code industriel dédié à la mise en forme Pam-stamp 2G v2011. Après une vérification sur tests de référence, des applications sont enfin menées sur cas critiques inspirés de procédés industriels complexes et nécessitant essentiellement une loi de comportement 3D.
In the sheet metal forming industry, shell elements in plane-stress assumption are employed, as they perform quite well in simulating the major membrane and flexural large deformations involved. However, the normal stress, caused by compression along thickness direction of the blank or local high bending over very small radii, is hence systematically omitted. Besides, when it comes to unusual and challenging processes such as hydro-forming, thinning/thickening, forming with ironing, bottoming and so on, makeshift solutions such as layers of 3D solid hexahedrons or even recent solid-shell elements are no longer appropriate. An innovative 3D finite element formulation methodology overcoming the overcoming the plane-stress definition of classification shell elements, while keeping their very good bending assets is first proposed in this work. The method basically consists in adding a central node endowed with two degrees of freedom at the element center. These two extra translations normal to the element mid-plane give a new quadratic displacement field along the shell normal direction. A derivative normal strain can hence be expressed and a linear normal stress comes via a full 3D constructive law. A very pioneering contact technique, dedicated to forming processes with ironing, thinning/bottoming operations and allowing a usual-to-enhanced automatic element switch is developed as well. Once widely assessed, most interesting achievements are implemented in the dynamic explicit industrial code Pam-stamp 2 G v2011 and evaluated over critical industrial forming processes that require essentially a full 3D strain-stress behavior.
Mot(s) clés libre(s) : Coque métallique, Mise en forme, Modélisation 3 D, Contrainte normale, Loi de comportement, Metallic shell, Processing, 3D modelisation, Normal stress, Behavior law
 |  Notice

Van den Broek d'Obrenan Ghislain. Adaptation du procédé RTM (Moulage par Transfert de Résine) à la mise en œuvre de matériaux composites à matrice thermoplastique. 2011 / Thèses / accès à la bibliothèque (document papier)
Résumé
Résumé
Le procédé Resin Transfer Molding (RTM) est très largement utilisé pour la production industrielle de matériaux composites à matrice thermodurcissable. En effet, de nombreux domaines tels que l automobile et l'aéronautique l emploi couramment. Dans ce travail nous avons adapté ce procédé à la mise en œuvre de matériaux composites à matrice thermoplastique afin de répondre aux critères écologiques et économiques imposés aux industries. Pour cela plusieurs étapes ont été nécessaires. La première fut la sélection d'une chimie robuste, adaptée aux exigences du procédé (faible viscosité initiale du système réactif, temps de polymérisation court, etc). La chimie choisie fut la polymérisation anionique par ouverture de cycle de l -caprolactame dans le but d obtenir du polyamide-6 (PA-6). Une étude rhéo-cinétique ainsi que les caractérisations physico-chimiques d un PA-6 obtenu au laboratoire furent réalisé. A la suite de cette étape, des essais en conditions de procédé ont été effectué avec l'utilisation d'un équipement pilote dédié. Ces essais furent la source de modifications et d optimisations de certains paramètres du procédé. La troisième étape, a consisté à la production de pièces composites avec un renfort de type : tissu unidirectionnel de verre. Cette production fut suivie de tests mécaniques et physico-chimiques afin d évaluer les propriétés de ces pièces. Différents ensimages de tissu ont été étudiés avec, pour objectif, la détermination de celui offrant les meilleures propriétés. Durant cette étude nous avons observé que la nature de l'ensimage impactait peu la chimie. Pour finir, nous avons mis en place un ensimage réactif qui permettra une meilleure interaction fibre/matrice.
The "Resin Transfer Molding" (RTM) process is very largely used for the industrial production of composites materials with thermoset matrix. Indeed, it s used by many fields such as the automotive and aeronautics. In this work we adapted this process to the manufacture of composite materials with thermoplastic matrix in order to answer the ecological and economic criteria imposed on industries. For that several steps were necessary. The first was the selection of a robust chemistry, adapted to the requirements of the process (low initial viscosity of the reactive system, polymerization time, etc). The selected chemistry, was the ring opening polymerization of - caprolactam to obtain polyamide-6 (PA-6). Rhéo-kinetics studies, as well as the physicochemical characterizations of a Pa-6 obtained at the laboratory were carried out. Following this step, tests in conditions of process were carried out with the use of dedicated pilot equipment. These tests were the source of modifications and optimizations of certain parameters of the process. The third step, consisted with the production of composite parts with a reinforcement of the type: unidirectional glass fabric. This production was followed mechanical and physico-chemical tests in order to evaluate the properties of these parts. Various sizing of the glass fabric were studied with, for objective, to determine which to offer the best properties. During this study we observed the low impact of the sizing on the chemistry of PA-6. To finish, we set up a reactive sizing which will allow a better interaction fibre/matrix.
Mot(s) clés libre(s) : Composite à matrice polymère, Matrice thermoplastique, Moulage par transfert de résine, Polyamide, Polymérisation anionique, Renfort tissé, Polymer matrix composite, Thermoplastic matrix, RTM - Resin Transfer Molding, Anionic polymerization, Waven reinforcement
 |  Notice  |  Texte intégral

Mamalet Franck. Adéquation algorithme-architecture pour les réseaux de neurones à convolution : application à l'analyse de visages embarquée. 2011 / Thèses / accès à la bibliothèque (document papier)
Résumé
Résumé
La prolifération des capteurs d'images dans de nombreux appareils électroniques, et l'évolution des capacités de traitements à proximité de ces capteurs ouvrent un champ d'exploration pour l'implantation et l'optimisation d'algorithmes complexes de traitement d'images afin de proposer des systèmes de vision artificielle embarquée. Ces travaux s'inscrivent dans la problématique dite d'adéquation algorithme-architecture (A3). Ils portent sur une classe d'algorithmes appelée réseau de neurones à convolutions (ConvNet) et ses applications en analyse de visages embarquée. La chaîne d'analyse de visages, introduite par Garcia et al., a été choisie d'une part pour ses performances en taux de détection/reconnaissance au niveau de l'état de l'art, et d'autre part pour son caractère homogène reposant sur des ConvNets. La première contribution de ces travaux porte sur une étude d'adéquation de cette chaîne d'analyse de visages aux processeurs embarqués. Nous proposons plusieurs adaptations algorithmiques des ConvNets, et montrons que celles-ci permettent d'obtenir des facteurs d'accélération importants (jusqu'à 700) sur un processeur embarqué pour mobile, sans dégradation des performances en taux de détection/reconnaissance. Nous présentons ensuite une étude des capacités de parallélisation des ConvNets, au travers des travaux de thèse de N. Farrugia. Une exploration "gros-grain" du parallélisme des ConvNets, suivie d'une étude de l'ordonnancement interne des processeurs élémentaires, conduisent à une architecture parallèle paramétrable, capable de détecter des visages à plus de 10 images VGA par seconde sur FPGA. Nous proposons enfin une extension de ces études à la phase d'apprentissage de ces réseaux de neurones. Nous étudions des restrictions de l'espace des hypothèses d'apprentissage, et montrons, sur un cas d'application, que les capacités d'apprentissage des ConvNets ne sont pas dégradées, et que le temps d'apprentissage peut être réduit jusqu'à un facteur cinq.
Proliferation of image sensors in many electronic devices, and increasing processing capabilities of such sensors, open a field of exploration for the implementation and optimization of complex image processing algorithms in order to provide embedded vision systems. This work is a contribution in the research domain of algorithm-architecture matching. It focuses on a class of algorithms called convolution neural network (ConvNet) and its applications in embedded facial analysis. The facial analysis framework, introduced by Garcia et al., was chosen for its state of the art performances in detection/recognition, and also for its homogeneity based on ConvNets. The first contribution of this work deals with an adequacy study of this facial analysis framework with embedded processors. We propose several algorithmic adaptations of ConvNets, and show that they can lead to significant speedup factors (up to 700) on an embedded processor for mobile phone, without performance degradation. We then present a study of ConvNets parallelization capabilities, through N. Farrugia's PhD work. A coarse-grain parallelism exploration of ConvNets, followed by study of internal scheduling of elementary processors, lead to a parameterized parallel architecture on FPGA, able to detect faces at more than 10 VGA frames per second. Finally, we propose an extension of these studies to the learning phase of neural networks. We analyze several hypothesis space restrictions for ConvNets, and show, on a case study, that classification rate performances are almost the same with a training time divided by up to five.
Mot(s) clés libre(s) : Informatique, Analyse de visages, Réseaux de neurones à convolution, Adéquation algorithme architecture, Architecture embarquée, Architecture parallèle, Apprentissage, Computer science, Computer vision, Facial analysis, Convolutional neural network, Algorithm architecture matching, Embedded architecture, Parallel architecture, Leaming
 |  Notice

Mamalet Franck. Adéquation algorithme-architecture pour les réseaux de neurones à convolution : application à l'analyse de visages embarquée. 2011 / Thèses / accès à la bibliothèque (document papier)
Résumé
Résumé
La prolifération des capteurs d'images dans de nombreux appareils électroniques, et l'évolution des capacités de traitements à proximité de ces capteurs ouvrent un champ d'exploration pour l'implantation et l'optimisation d'algorithmes complexes de traitement d'images afin de proposer des systèmes de vision artificielle embarquée. Ces travaux s'inscrivent dans la problématique dite d'adéquation algorithme-architecture (A3). Ils portent sur une classe d'algorithmes appelée réseau de neurones à convolutions (ConvNet) et ses applications en analyse de visages embarquée. La chaîne d'analyse de visages, introduite par Garcia et al., a été choisie d'une part pour ses performances en taux de détection/reconnaissance au niveau de l'état de l'art, et d'autre part pour son caractère homogène reposant sur des ConvNets. La première contribution de ces travaux porte sur une étude d'adéquation de cette chaîne d'analyse de visages aux processeurs embarqués. Nous proposons plusieurs adaptations algorithmiques des ConvNets, et montrons que celles-ci permettent d'obtenir des facteurs d'accélération importants (jusqu'à 700) sur un processeur embarqué pour mobile, sans dégradation des performances en taux de détection/reconnaissance. Nous présentons ensuite une étude des capacités de parallélisation des ConvNets, au travers des travaux de thèse de N. Farrugia. Une exploration "gros-grain" du parallélisme des ConvNets, suivie d'une étude de l'ordonnancement interne des processeurs élémentaires, conduisent à une architecture parallèle paramétrable, capable de détecter des visages à plus de 10 images VGA par seconde sur FPGA. Nous proposons enfin une extension de ces études à la phase d'apprentissage de ces réseaux de neurones. Nous étudions des restrictions de l'espace des hypothèses d'apprentissage, et montrons, sur un cas d'application, que les capacités d'apprentissage des ConvNets ne sont pas dégradées, et que le temps d'apprentissage peut être réduit jusqu'à un facteur cinq.
Proliferation of image sensors in many electronic devices, and increasing processing capabilities of such sensors, open a field of exploration for the implementation and optimization of complex image processing algorithms in order to provide embedded vision systems. This work is a contribution in the research domain of algorithm-architecture matching. It focuses on a class of algorithms called convolution neural network (ConvNet) and its applications in embedded facial analysis. The facial analysis framework, introduced by Garcia et al., was chosen for its state of the art performances in detection/recognition, and also for its homogeneity based on ConvNets. The first contribution of this work deals with an adequacy study of this facial analysis framework with embedded processors. We propose several algorithmic adaptations of ConvNets, and show that they can lead to significant speedup factors (up to 700) on an embedded processor for mobile phone, without performance degradation. We then present a study of ConvNets parallelization capabilities, through N. Farrugia's PhD work. A coarse-grain parallelism exploration of ConvNets, followed by study of internal scheduling of elementary processors, lead to a parameterized parallel architecture on FPGA, able to detect faces at more than 10 VGA frames per second. Finally, we propose an extension of these studies to the learning phase of neural networks. We analyze several hypothesis space restrictions for ConvNets, and show, on a case study, that classification rate performances are almost the same with a training time divided by up to five.
Mot(s) clés libre(s) : Informatique, Analyse de visages, Réseaux de neurones à convolution, Adéquation algorithme architecture, Architecture embarquée, Architecture parallèle, Apprentissage, Computer science, Computer vision, Facial analysis, Convolutional neural network, Algorithm architecture matching, Embedded architecture, Parallel architecture, Leaming
 |  Notice  |  Texte intégral

Galland Florent. An adaptive model reduction approach for 3D fatigue crack growth in small scale yielding conditions. 2011 / Thèses / accès à la bibliothèque (document papier)
Résumé
Résumé
Il est connu depuis des décennies que la propagation des fissures de fatigue dans les matériaux élastoplastiques est très sensible à l'histoire du chargement car le comportement non-linéaire du matériau peut avoir une grande influence sur les vitesses de propagation. Cependant, le calcul brut de millions de cycles de fatigue avec des comportements matériaux non-linéaires sur des structures tridimensionnelles réalistes conduirait à des temps de calcul prohibitifs. Ainsi, nous proposons de coupler deux approches de réduction de modèle a priori et a posteriori, afin de diminuer considérablement le coût de calcul de ce type de problèmes. Tout d'abord, considérant l'hypothèse de plasticité confinée, une stratégie de réduction de modèle a posteriori du comportement plastique de la structure fissurée est proposée. Le modèle réduit ainsi obtenu fournit incrémentalement l'état plastique autour du front de fissure, duquel est déduite la vitesse instantanée de la fissure. De plus, une seconde approche de réduction de modèle, a priori cette fois, est aussi mise en place afin d'accélérer encore plus les temps de résolution du problème global. Cette approche a priori consiste à construire incrémentalement et sans calculs préalables une base réduite spécifique à chaque cas-test, en extrayant de l'information des champs de déplacement de la structure au cours du temps et pendant la propagation éventuelle de la fissure. Ainsi, les champs de déplacement solutions de la géométrie fissurée réactualisée sont vus comme une combinaison linéaire de cette base réduite de vecteurs. La méthode numérique considérée ici est la méthode des éléments finis. De fait, pendant la propagation de la fissure, la discrétisation spatiale du modèle doit être réactualisée afin d être conforme avec le front de la fissure. Dans ce but, une technique spécifique de déformation de maillage est utilisée, et permet de discrétiser la géométrie variable du modèle avec des maillages de même topologie. Cette technique de déformation de maillage apparaît comme une étape clé de la stratégie de réduction de modèle. Finalement, une approche adaptative est construite autour de cette stratégie. Elle permet de garantir la qualité des résultats obtenus par rapport à un critère de précision donné. La précision et l'efficacité de cette stratégie globale sont démontrées à travers de nombreux exemples bidimensionnels et tridimensionnels dans le cadre de propagation de fissure en modele, de même que pour un exemple industriel d une pièce fissurée d'hélicoptère.
It has been known for decades that fatigue crack propagation in elastic-plastic media is very sensitive to load history since the nonlinear behavior of the material can have a great influence on propagation rates. However, the raw computation of millions of fatigue cycles with nonlinear material behavior on tridimensional structures would lead to prohibitive calculation times. In this respect, we propose a global model reduction strategy, mixing both the a posteriori and a priori approaches in order to drastically decrease the computational cost of these types of problems. First, the small scale yielding hypothesis is assumed, and an a posteriori model reduction of the plastic behavior of the cracked structure is performed. This reduced model provides incrementally the plastic state in the vicinity of the crack front, from which the instantaneous crack growth rate is inferred. Then an additional a priori model reduction technique is used to accelerate even more the time to solution of the whole problem. This a priori approach consists in building incrementally and without any previous calculations a reduced basis specific to the considered test-case, by extracting information from the evolving displacement field of the structure. Then the displacement solutions of the updated crack geometries are sought as linear combinations of those few basis vectors. The numerical method chosen for this work is the finite element method. Hence, during the propagation the spatial discretization of the model has to be updated to be consistent with the evolving crack front. For this purpose, a specific mesh morphing technique is used, that enables to discretize the evolving model geometry with meshes of the same topology. This morphing method appears to be a key component of the model reduction strategy. Finally, the whole strategy introduced above is embedded inside an adaptive approach, in order to ensure the quality of the results with respect to a given accuracy. The accuracy and the efficiency of this global strategy have been shown through several examples; either in bidimensional and tridimensional cases for model crack propagation, including the industrial example of a helicopter structure.
Mot(s) clés libre(s) : Matériau élastoplastique, Fatigue cyclique, Propagation de la fissure, Modélisation 3D, Modèle a priori, Plasticité confinée, Réduction de modèle, Déformation de maillage, Méthode des éléments finis, Elastoplastic material, Cyclic fatigue, Crack propagation rate, 3D modelisation, A priori model, Cinfined plasticity, Model reduction, Mesh morphing, Finite element method
 |  Notice

Galland Florent. An adaptive model reduction approach for 3D fatigue crack growth in small scale yielding conditions. 2011 / Thèses / accès à la bibliothèque (document papier)
Résumé
Résumé
Il est connu depuis des décennies que la propagation des fissures de fatigue dans les matériaux élastoplastiques est très sensible à l'histoire du chargement car le comportement non-linéaire du matériau peut avoir une grande influence sur les vitesses de propagation. Cependant, le calcul brut de millions de cycles de fatigue avec des comportements matériaux non-linéaires sur des structures tridimensionnelles réalistes conduirait à des temps de calcul prohibitifs. Ainsi, nous proposons de coupler deux approches de réduction de modèle a priori et a posteriori, afin de diminuer considérablement le coût de calcul de ce type de problèmes. Tout d'abord, considérant l'hypothèse de plasticité confinée, une stratégie de réduction de modèle a posteriori du comportement plastique de la structure fissurée est proposée. Le modèle réduit ainsi obtenu fournit incrémentalement l'état plastique autour du front de fissure, duquel est déduite la vitesse instantanée de la fissure. De plus, une seconde approche de réduction de modèle, a priori cette fois, est aussi mise en place afin d'accélérer encore plus les temps de résolution du problème global. Cette approche a priori consiste à construire incrémentalement et sans calculs préalables une base réduite spécifique à chaque cas-test, en extrayant de l'information des champs de déplacement de la structure au cours du temps et pendant la propagation éventuelle de la fissure. Ainsi, les champs de déplacement solutions de la géométrie fissurée réactualisée sont vus comme une combinaison linéaire de cette base réduite de vecteurs. La méthode numérique considérée ici est la méthode des éléments finis. De fait, pendant la propagation de la fissure, la discrétisation spatiale du modèle doit être réactualisée afin d être conforme avec le front de la fissure. Dans ce but, une technique spécifique de déformation de maillage est utilisée, et permet de discrétiser la géométrie variable du modèle avec des maillages de même topologie. Cette technique de déformation de maillage apparaît comme une étape clé de la stratégie de réduction de modèle. Finalement, une approche adaptative est construite autour de cette stratégie. Elle permet de garantir la qualité des résultats obtenus par rapport à un critère de précision donné. La précision et l'efficacité de cette stratégie globale sont démontrées à travers de nombreux exemples bidimensionnels et tridimensionnels dans le cadre de propagation de fissure en modele, de même que pour un exemple industriel d une pièce fissurée d'hélicoptère.
It has been known for decades that fatigue crack propagation in elastic-plastic media is very sensitive to load history since the nonlinear behavior of the material can have a great influence on propagation rates. However, the raw computation of millions of fatigue cycles with nonlinear material behavior on tridimensional structures would lead to prohibitive calculation times. In this respect, we propose a global model reduction strategy, mixing both the a posteriori and a priori approaches in order to drastically decrease the computational cost of these types of problems. First, the small scale yielding hypothesis is assumed, and an a posteriori model reduction of the plastic behavior of the cracked structure is performed. This reduced model provides incrementally the plastic state in the vicinity of the crack front, from which the instantaneous crack growth rate is inferred. Then an additional a priori model reduction technique is used to accelerate even more the time to solution of the whole problem. This a priori approach consists in building incrementally and without any previous calculations a reduced basis specific to the considered test-case, by extracting information from the evolving displacement field of the structure. Then the displacement solutions of the updated crack geometries are sought as linear combinations of those few basis vectors. The numerical method chosen for this work is the finite element method. Hence, during the propagation the spatial discretization of the model has to be updated to be consistent with the evolving crack front. For this purpose, a specific mesh morphing technique is used, that enables to discretize the evolving model geometry with meshes of the same topology. This morphing method appears to be a key component of the model reduction strategy. Finally, the whole strategy introduced above is embedded inside an adaptive approach, in order to ensure the quality of the results with respect to a given accuracy. The accuracy and the efficiency of this global strategy have been shown through several examples; either in bidimensional and tridimensional cases for model crack propagation, including the industrial example of a helicopter structure.
Mot(s) clés libre(s) : Matériau élastoplastique, Fatigue cyclique, Propagation de la fissure, Modélisation 3D, Modèle a priori, Plasticité confinée, Réduction de modèle, Déformation de maillage, Méthode des éléments finis, Elastoplastic material, Cyclic fatigue, Crack propagation rate, 3D modelisation, A priori model, Cinfined plasticity, Model reduction, Mesh morphing, Finite element method
 |  Notice  |  Texte intégral

Ren Mingming. An incremental approach for hardware discrete controller synthesis. 2011 / Thèses / accès à la bibliothèque (document papier)
Résumé
Résumé
La synthèse de contrôleurs discrets (SCD) est appliquée pour générer automatiquement des contrôleurs matériels corrects par construction. Pour un système donné (un modèle à états), et une spécification de contrôle associée (une exigence comportementale), cette technique génère un contrôleur qui, composé avec le système initial, garantit la satisfaction de la spécification. La technique de SCD utilisée dans ce travail s appuie sur les diagrammes de décision binaire (BDDs). Les contrôleurs générés doivent être compatibles avec les outils standards de synthèse matérielle de niveau RTL. Deux problèmes principaux ont été examinés: l explosion combinatoire et la génération effective du contrôleur matériel. La maîtrise de l explosion combinatoire s appuie sur des approches de type diviser pour régner , exploitant la modularité du système ou du contrôleur. La plupart des approches existantes ne traitent pas la communication explicite entre différents composants du système. Le mécanisme de synchronisation le plus couramment envisagé est le partage des événements d entrée, faisant abstractiondes sorties. Nous proposons une technique de SCD incrémentale qui permet de traiter également les systèmes communicants. Une étape initiale d abstraction modulaire est suivie par une séquence progressive de raffinements et de calculs de solutions approximatives de contrôle. La dernière étape de cette séquence engendre un contrôleur exact. Nous montrons que cette technique offre une efficacité améliorée en temps/mémoire par rapport à l approche traditionnelle globale de la SCD. La génération du contrôleur matériel s appuie sur un traitement spécifique du non-déterminisme de contrôle. Une architecture de contrôle à boucle partiellement fermée est proposée, afin de permettre une conception hiérarchique. Une technique automatique transformant une équation de contrôle en vecteur de fonctions de contrôle est proposée et illustrée. La SCD est ensuite appliquée et illustrée sur la correction de certaines erreurs de conception. L efficacité des techniques proposées est illustrée sur un ensemble d exemples de conception matérielle.
The Discrete Controller Synthesis (DCS) technique is used for automatic generation of correct-by-construction hardware controllers. For a given plant (a state-based model), and an associated control specification (a behavioral requirement), DCS generates a controller which, composed with the plant, guarantees the satisfaction of the specification. The DCS technique used relies on binary decision diagrams (BDDs). The controllers generated must be compliant with standard RTL hardware synthesis tools. Two main issues have been investigated: the combinational explosion, and the actual generation of the hardware controller. To address combinational explosion, common approaches follow the "divide and conquer" philosophy, producing modular control and/or decentralized control. Most of these approaches do not consider explicit communication between different components of a plant. Synchronization is mostly achieved by sharing of input events, and outputs are abstracted away. We propose an incremental DCS technique which also applies to communicating systems. An initial modular abstraction is followed by a sequence of progressive refinements and computations of approximate control solutions. The last step of this sequence computes an exact controller. This technique is shown to have an improved time/memory efficiency with respect to the traditional global DCS approach. The hardware controller generation addresses the control non-determinism problem in a specific way. A partially closed-loop control architecture is proposed, in order to preserve the applicability of hierarchical design. A systematic technique is proposed and illustrated, for transforming the automatically generated control equation into a vector of control functions. An application of the DCS technique to the correction of certain design errors in a real design is illustrated. To prove the efficiency of the incremental synthesis and controller implementation, a number of examples have been studied.
Mot(s) clés libre(s) : Génie électronique, Conception de circuit, Conception de système intégré, Système embarqué, SCD - Synthèse de contrôleurs discrets, BDD - Diagramme de décision binaire, Contrôleur exact, Electronics, Circuit Design, Exact controller, Embedded System
 |  Notice

Ren Mingming. An incremental approach for hardware discrete controller synthesis. 2011 / Thèses / accès à la bibliothèque (document papier)
Résumé
Résumé
La synthèse de contrôleurs discrets (SCD) est appliquée pour générer automatiquement des contrôleurs matériels corrects par construction. Pour un système donné (un modèle à états), et une spécification de contrôle associée (une exigence comportementale), cette technique génère un contrôleur qui, composé avec le système initial, garantit la satisfaction de la spécification. La technique de SCD utilisée dans ce travail s appuie sur les diagrammes de décision binaire (BDDs). Les contrôleurs générés doivent être compatibles avec les outils standards de synthèse matérielle de niveau RTL. Deux problèmes principaux ont été examinés: l explosion combinatoire et la génération effective du contrôleur matériel. La maîtrise de l explosion combinatoire s appuie sur des approches de type diviser pour régner , exploitant la modularité du système ou du contrôleur. La plupart des approches existantes ne traitent pas la communication explicite entre différents composants du système. Le mécanisme de synchronisation le plus couramment envisagé est le partage des événements d entrée, faisant abstractiondes sorties. Nous proposons une technique de SCD incrémentale qui permet de traiter également les systèmes communicants. Une étape initiale d abstraction modulaire est suivie par une séquence progressive de raffinements et de calculs de solutions approximatives de contrôle. La dernière étape de cette séquence engendre un contrôleur exact. Nous montrons que cette technique offre une efficacité améliorée en temps/mémoire par rapport à l approche traditionnelle globale de la SCD. La génération du contrôleur matériel s appuie sur un traitement spécifique du non-déterminisme de contrôle. Une architecture de contrôle à boucle partiellement fermée est proposée, afin de permettre une conception hiérarchique. Une technique automatique transformant une équation de contrôle en vecteur de fonctions de contrôle est proposée et illustrée. La SCD est ensuite appliquée et illustrée sur la correction de certaines erreurs de conception. L efficacité des techniques proposées est illustrée sur un ensemble d exemples de conception matérielle.
The Discrete Controller Synthesis (DCS) technique is used for automatic generation of correct-by-construction hardware controllers. For a given plant (a state-based model), and an associated control specification (a behavioral requirement), DCS generates a controller which, composed with the plant, guarantees the satisfaction of the specification. The DCS technique used relies on binary decision diagrams (BDDs). The controllers generated must be compliant with standard RTL hardware synthesis tools. Two main issues have been investigated: the combinational explosion, and the actual generation of the hardware controller. To address combinational explosion, common approaches follow the "divide and conquer" philosophy, producing modular control and/or decentralized control. Most of these approaches do not consider explicit communication between different components of a plant. Synchronization is mostly achieved by sharing of input events, and outputs are abstracted away. We propose an incremental DCS technique which also applies to communicating systems. An initial modular abstraction is followed by a sequence of progressive refinements and computations of approximate control solutions. The last step of this sequence computes an exact controller. This technique is shown to have an improved time/memory efficiency with respect to the traditional global DCS approach. The hardware controller generation addresses the control non-determinism problem in a specific way. A partially closed-loop control architecture is proposed, in order to preserve the applicability of hierarchical design. A systematic technique is proposed and illustrated, for transforming the automatically generated control equation into a vector of control functions. An application of the DCS technique to the correction of certain design errors in a real design is illustrated. To prove the efficiency of the incremental synthesis and controller implementation, a number of examples have been studied.
Mot(s) clés libre(s) : Génie électronique, Conception de circuit, Conception de système intégré, Système embarqué, SCD - Synthèse de contrôleurs discrets, BDD - Diagramme de décision binaire, Contrôleur exact, Electronics, Circuit Design, Exact controller, Embedded System
 |  Notice  |  Texte intégral