Recherche avancée sur les thèses de l'INSA de Lyon

  • 610 ressources ont été trouvées. Voici les résultats 41 à 50
Tri :   Date Titre Type de contenu Auteur
Bondon Arnaud. Stabilité des écoulements stratifiés en coextrusion : Etude multi-échelle du rôle de l'architecture du copolymère aux interfaces. 2015 / Thèses / accès numérique réservé
Résumé
Résumé
Le procédé de coextrusion permet de combiner à l'état fondu plusieurs couches de polymères dans une même structure. La compatibilisation des différentes couches est généralement réalisée à l'aide de liants qui réagissent in-situ. Bien que la compatibilisation puisse permettre de réduire ou même supprimer les instabilités macroscopiques d'écoulement, un nouveau défaut qualifié de granité peut apparaitre. Très peu de travaux de la littérature traitent les mécanismes gouvernant ce type de défaut. Les phénomènes mis en jeu sont particulièrement complexes puisqu ils impliquent de façon couplée des phénomènes hydrodynamiques via l'écoulement, la rhéologie des différentes couches et des phénomènes physico-chimiques via la diffusion et la réaction chimique aux interfaces polymère/polymère. Ce mémoire s'articule autour d'une étude multi-échelle du rôle des copolymères aux interfaces sur la stabilité des écoulements stratifiés. L'étude a été réalisée à la fois sur des systèmes non-réactifs et réactifs constitués d'une couche barrière, le polyamide 6 (PA6) ou le poly(éthylène-co-alcool vinylique) (EVOH), avec un polypropylène (PP) ou un polypropylène greffé anhydride maléique (PP-g-AM). Le défaut de granité a été mis en évidence en coextrusion. Les paramètres procédé et matériaux influençant son apparition ont été identifiés. Il a pu être différencié des défauts et des instabilités interfaciales généralement rencontrées en coextrusion. Le phénomène de compatibilisation a également été étudié via les caractérisations morphologiques (MET, MEB, AFM) et physico-chimiques (XPS) aux interfaces. Le comportement rhéologique en cisaillement et élongation en viscoélasticité linéaire et non linéaire s'est révélé très sensible à l'effet la présence de copolymères aux interfaces et à leur architecture moléculaire. Cette étude a permis de déterminer les propriétés intrinsèques de l'interface/interphase en fonction du copolymère formé entre le liant et le PA6 ou l'EVOH. Elles ont pu être corrélées aux défauts macroscopiques observés dans les films multicouches coextrudés. La stabilité de ces écoulements stratifiés résulte d'un couplage de phénomènes qui se produisent à différentes échelles : nano (réaction de copolymérisation), micro (interphase) et macro (écoulement dans le procédé).
Several polymers can be combined in one multilayer structure by reactive coextrusion. Tie-layers are often used to compatibilize the adjacent layers and may reduce or suppress the interfacial instabilities and the defects in the multilayer coextrusion flow. However, an additional defect defined as the grainy defect can be observed. In the best of our knowledge, no study in literature has been devoted to understand its origin. The phenomena are quite complex due to the coupling of the effects of flow and the physico-chemical mechanisms at the interface. The aim of this work is to understand the relations between the instabilities and the defects encountered in multilayer coextruded films and the role of the copolymer formed in-situ between tie and barrier layers. Polyamide 6 (PA6) and ethylene-vinyl alcohol copolymer (EVOH) were used as the barrier layers sandwiched in a polypropylene (PP) with or without a polypropylene grafted maleic anhydride (PP-g-MA) as a tie-layer. The effect of the process parameters and the structure of the polymers on the generation of the grainy defect was assessed in correlation with the rheological and the physicochemical properties of the layers. These experiments have shown that this defect appeared mainly in the compatibilized EVOH system and could be distinguished from the usual coextrusion instabilities. The interfacial properties between tie and barrier layers were investigated. The characterization of the interfacial morphology by TEM and AFM highlighted an irregular and rough interface between PP-g-MA and EVOH while a flat interface was observed with PA6 and PP-g-MA. Step shear and startup elongation rheology was shown to be sensitive to the copolymer at the polymer/polymer interface. The study of the interfacial properties highlighted that the copolymer architecture significantly impacts the interfacial roughness and the rheology of the multilayer stuctures. Hence, relations between the relaxation process, the interfacial morphology and the copolymer architecture were established in correlation with the generation of the macroscopic grainy defect in coextrusion.
Mot(s) clés libre(s) : Coextrusion, Copolymère, Interface, Morphologie, Interphase, Rhéologie, Architecture moléculaire, Réaction aux Interfaces, Analyse multiéchelle, Film multicouche, Défaut d écoulement, Instabilité, Réaction chimique in-Situ, Copolymer, Morphology, Rheology, Molecular structure, Interfacial reaction, Multiscale analysis, Multilayer, Flow defect, Instability, In-situ chemical reaction
 |  Notice  |  Texte intégral  |  Droits d'utilisation

Martel Dimitri. Spectroscopie 2D de corrélation quantitative : Méthode de quantification, études expérimentales et applications in vivo. 2015 / Thèses / accès numérique libre
Résumé
Résumé
En spectroscopie de résonance magnétique (SRM) in vivo, les principales méthodes utilisées permettent la quantification des concentrations de métabolites en utilisant des signaux à une dimension spectrale. Les travaux réalisés dans le cadre de cette thèse portent sur le développement de méthodes de SRM à deux dimensions spectrales (SRM 2D) de corrélation localisée afin d'accroître le pouvoir de résolution spectrale et la précision de la quantification de la SRM in vivo. Le premier axe de cette thèse concerne le développement d'une méthode fondée sur la spectroscopie 2D de corrélation localisée pour l'exploration des métabolites cérébraux. La séquence L-COSY (spectroscopie de corrélation localisée) est implantée sur imageur petit animal et étudiée. Une procédure de quantification dédiée aux signaux de corrélation acquis est développée. Cette dernière opère dans le domaine d'acquisition du signal, et s appuie sur : 1) une connaissance a priori forte obtenue par simulation de l'effet quantique des séquences sur les spins des composés présents dans le spectre 2) un modèle de pondération lié aux effets de relaxation agissant sur le signal de SRM 2D. 3) une contrainte sur la relaxation liée aux effets d'inhomogénéités supposés toucher tous les spins de la même manière. Les résultats présentés s'attachent à étudier les performances quantitatives de la SRM 2D de corrélation, en comparaison à la SRM 2D dite J-résolue (avec la séquence JPRESS), de manière expérimentale, sur fantômes de métabolites mais aussi à travers la théorie des bornes de Cramér-Rao (CRBs). La quantification des signaux L-COSY, bien que défavorisée par une perte théorique du rapport signal sur bruit par unité de temps, présente des CRBs théoriques relatives du même ordre de grandeurs voire, pour certains métabolites couplés (e.g la glutamine, le GABA) plus petites que celles correspondantes à la spectroscopie J-résolue pour un même temps d'acquisition. Le second axe de cette thèse porte sur l'adaptation la SRM 2D de corrélation pour l'étude in vivo du métabolisme lipidique du foie et des tissus adipeux sous-cutanés sur un modèle de souris obèse à 7T. Cette application inédite montre la faisabilité de la SRM 2D de corrélation à être acquise sur un tel organe mouvant et sa capacité à être quantitative pour l'étude et la caractérisation des triglycérides hépatiques et sous-cutanées.
In in vivo Magnetic Resonance Spectroscopy (MRS), the main methods used allow metabolite concentration quantification using signals having one spectral dimension. This work focuses on the development of in vivo two dimensional correlated MRS in order to increase spectral resolution and quantification precision. The first axis is about the development of a method based on a 2D localized correlation MRS (L-COSY) for brain metabolite exploration. The L-COSY is implemented and studied on a small animal scanner. A dedicated quantification procedure operating in the acquisition domain is described. This latter is based on 1) a strong prior knowledge obtained by quantum mechanically simulate the effect of sequence on metabolite spin systems 2) a model function taking into account the relaxation weighting 3) constraints on the relaxation term linked to the field inhomogeneity effects which are assumed to act the same way on all the spins. Results are given experimentally using metabolites phantoms and through a comparison to other existing 2D MRS method, namely the J-resolved MRS (with the JPRESS sequence) using the Cramer Rao Lower Bounds (CRBs) theory. Although its inherent loss of signal to noise ratio is a disadvantage compared to J-PRESS, L-COSY quantification shows theoretically competitive relative CRBs, and even smaller CRBs for some coupled metabolites (e.g Glutamine or GABA), for an acquisition time similar to JPRESS. Second axis is about the adaptation of the 2D correlation MRS for the in vivo lipid metabolism study in the liver and subcutaneous adipose tissues of obese mice at 7T. This application shows the feasibility of 2D correlated MRS to be acquired on a moving organ and its quantitative relevance for triglyceride quantification and characterization in fatty liver and subcutaneous tissue.
Mot(s) clés libre(s) : Spectroscopie de Réseonance magnétique 2D, Algorithme de quantification, Séquences RMN, Acquisition RMN in vivo, Métabolites cérébraux, Medical imaging, 2D magnetic resonance spectroscopy, Quantification algorithm, NMR Sequences, In vivo NMR acquisition, Brain metabolite, Trigycerides, Fatty liver, Foie
 |  Notice  |  Texte intégral  |  Droits d'utilisation

Vannier Michaël. Sonie de champs acoustiques stationnaires en situation d'écoute dichotique. 2015 / Thèses / accès numérique libre
Résumé
Résumé
Dans un environnement naturel, le champ acoustique est complexe (plusieurs sources, différentes positions spatiales, acoustique du lieu,...) et l'écoute est binaurale. Le filtrage acoustique opéré par la tête, le buste et les pavillons de l'auditeur (dépendant de la direction) induit donc systématiquement des différences interaurales de temps, de niveau et de spectre. Des modèles de sonie existent et permettent de prédire la sonie des sons stationnaires dans des situations d'écoute simples (ISO-532B (1975), DIN-45631 (1990), ANSI-S3.4 (2007)). L'écoute doit être monaurale (une seule oreille) ou diotique (même son aux deux oreilles), correspondant à une source en incidence frontale en champ libre, ou en champ diffus. En revanche, ces modèles échouent pour prédire la sonie lorsque des différences interaurales importantes interviennent. La thèse s est ainsi intéressée à la sonie des champs acoustiques stationnaires, impliquant une ou plusieurs sources, soit artificielles et spatialisées en champ libre, soit réelles dans une acoustique naturelle. De nouveaux éléments ont été apportés dans la compréhension dont l'information contenue dans les signaux reçus aux oreilles de l auditeur est combinée pour former un unique percept de sonie binaurale dans les situations d écoute dichotiques (gain de sommation binaural, cas de plusieurs sources, effet de la corrélation interaurale, ). D une part, une hypothèse pour essayer d expliquer les différences interindividuelles observées dans les stratégies de sommation binaurales a pu être testée ; la robustesse et la stabilité au cours du temps de ces stratégies individuelles a été mise en avant. D autre part, trois principaux modèles psychophysiques de sonie binaurale (ANSI-S3.4 (2007), Moore et Glasberg (2007), Sivonen et Ellermeier (2008)) ont été testés sur l ensemble des données expérimentales (impliquant différents niveaux de réalisme), permettant de préciser la performance et les domaines de validité respectifs de chacun de ces modèles dans des situations d écoute fortement dichotiques.
Listening in a natural environment implies to consider complex sound fields (several sound sources, different spatial positions, reflections ) and a binaural listening configuration. As a consequence, differences in time, level and spectrum between the two at-ear signals are systematically induced by the direction-dependant physical filtering from the human head, torso and pinnae. Existing loudness models provide accurate predictions under simplified listening situations (ISO-532B (1975), DIN-45631 (1990), ANSI-S3.4 (2007)). These models have been designed to use monaural (only one ear) or diotic (same signal at the two ears) signals, equivalent to one sound source with a frontal incidence, in a free or diffuse field. However, the models fail to predict loudness when the interaural differences are large. The present document focuses on the loudness of stationary sound fields, made up of one or several, artificial or real sound sources, in a free field or in a real environment. New elements have been brought to light regarding how, in a dichotic listening situation, information is combined from the two ears to produce one unique binaural loudness percept (binaural gain, case of several sound sources, effect of interaural correlation,...). On the one hand, one hypothesis have been tested in order to try to explain the interindividual differences observed in binaural loudness summation ; the robustness and stability over time of these individual strategies have been highlighted. On the other hand, predictions from the three main psychophysical models of binaural loudness (ANSI-S3.4 (2007), Moore et Glasberg (2007), Sivonen et Ellermeier (2008)) have been compared with all of the subjective data (involving different levels of realism), which allowed us to define more accurately the domain of validity and performance of these models in highly dichotic listening situations.
Mot(s) clés libre(s) : Mécanique, Acoustique, Mesures acoustiques, Niveau sonore, Perception du son, Perception sonore, Modèle, Mechanics, Acoustic, Acoustic measures, Loudness level, Sound perception, Model
 |  Notice  |  Texte intégral  |  Droits d'utilisation

Lin Trista Shuenying. Smart parking : Network, infrastructure and urban service. 2015 / Thèses / accès numérique libre
Résumé
Résumé
Le parking intelligent, permettant aux conducteurs d'accéder aux informations de stationnement sur leurs appareils mobiles, réduit les difficultés des usagers. Tout d'abord, nous mettons en lumière la manière de recueillir les informations de parking en introduisant une architecture de réseaux de capteurs multi-saut, et les modèles d'intensité applicative en examinant la probabilité d'arrivées et de départs de véhicules. Puis nous étudions la stratégie de déploiement des réseaux de capteurs et définissons un problème multi-objectifs, puis nous le résolvons sur deux cartes de parking réelles. Ensuite, nous définissons un service Publish-Subscribe pour fournir aux conducteurs des informations pertinentes. Nous illustrons le système dans des réseaux véhiculaires et mobiles et soulignons l'importance du contenu et du contexte du message au conducteur. Afin d'évaluer la résilience du système, nous proposons un modèle Publish-Subscribe étendu et nous l'évaluons dans différentes circonstances imprévues. Notre travail est basé sur la prémisse que les capteurs de parking sont déployés à une grande échelle dans la ville. Nous considérons une vue d'ensemble des services urbains du point de vue de la municipalité. Ainsi, nous faisons la lumière sur deux thèmes principaux: la collecte d'informations sur le déploiement de capteurs et un modèle étendu de Publish-Subscribe. Notre travail donne un guide avant de démarrer un projet de parking intelligent ou tout service urbain similaire en temps réel. Il fournit également une plate-forme d'évaluation valable pour tester des jeux de données plus réalistes, comme des traces de véhicules ou de trafic réseau.
Smart parking, allowing drivers to access parking information through their smart-phone, is proposed to ease drivers' pain. We first spotlight the manner to collect parking information by introducing the multi-hop sensor network architecture, and how the network is formed. We then introduce the traffic intensity models by looking at the vehicle's arrival and departure probabilities, following the heavy-tailed distribution. We study the deployment strategy of wireless on-street parking sensor layouts. We define a multiple-objective problem and solve it with two real street parking maps. In turn, we present a Publish-Subscribe service system to provide good parking information to drivers. We illustrate the system with a vehicular network and point out the importance of content and context of a driver s message. To evaluate the resilience, we propose an extended Publish-Subscribe model, and evaluate it under different unforeseen circumstances. Our work is based on the premise that large-scale parking sensors are deployed in the city. We look at the whole picture of urban service from viewpoint of the municipality. As such, we shed light on two main topics: the information collection on sensor deployment and an extended version of Publish-Subscribe messaging paradigm. Our work gives a guideline from network-related perspectives for city before launching a smart parking or any similar real-time urban service. It also provides a meaningful evaluation platform for testing more realistic datasets, such as real vehicle traces or network traffic.
Mot(s) clés libre(s) : Parking intelligent, Réseaux de capteurs, Mobilité urbaine, Diffusion d'information, Service urbain, Réseaux véhiculaires, Service urbain numérique, Application mobile, Telecommunications, Parking sensor network, Smart parking, Urban mobility, Information discrimination, Urban service, Vehicular networks, Publish-subscrite, Mobile application
 |  Notice  |  Texte intégral  |  Droits d'utilisation

Hilaire Estelle. Simulation et reconstruction 3D à partir de caméra Compton pour l'hadronthérapie : Influence des paramètres d'acquisition. 2015 / Thèses / accès numérique libre
Résumé
Résumé
L'hadronthérapie est une méthode de traitement du cancer qui emploie des ions (carbone ou proton) au lieu des rayons X. Les interactions entre le faisceau et le patient produisent des radiations secondaires. Il existe une corrélation entre la position d'émission de certaines de ces particules et la position du pic de Bragg. Parmi ces particules, des gamma-prompt sont produits par les fragments nucléaires excités et des travaux actuels ont pour but de concevoir des systèmes de tomographie par émission mono-photonique capable d'imager la position d'émission ces radiations en temps réel, avec une précision millimétrique, malgré le faible nombre de données acquises. Bien que ce ne soit pas actuellement possible, le but in fine est de surveiller le dépôt de dose. La caméra Compton est un des système TEMP qui a été proposé pour imager ce type de particules, car elle offre une meilleure résolution énergétique et la possibilité d'avoir une image 3D. Cependant, en pratique l'acquisition est affectée par le bruit provenant d'autres particules secondaires, et les algorithmes de reconstruction des images Compton sont plus compliqués et encore peu aboutis, mais sur une bonne voie de développement. Dans le cadre de cette thèse, nous avons développé une chaîne complète allant de la simulation de l'irradiation d'un fantôme par un faisceau de protons allant jusqu'à la reconstruction tomographique des images obtenues à partir de données acquises par la caméra Compton. Nous avons étudié différentes méthodes de reconstruction analytiques et itératives, et nous avons développé une méthode de reconstruction itérative capable de prendre en compte les incertitudes de mesure sur l'énergie. Enfin nous avons développé des méthodes pour la détection de la fin du parcours des distributions gamma-prompt reconstruites.
Hadrontherapy is a cancer treatment method which uses ions (proton or carbon) instead of X-rays. Interactions between the beam and the patient produce secondary radiation. It has been shown that there is a correlation between the emission position of some of these particles and the Bragg peak position. Among these particles, prompt-gamma are produced by excited nuclear fragments and current work aims to design SPECT systems able to image the emission position the radiation in real time, with a millimetric precision, despite the low data statistic. Although it is not currently possible, the goal is to monitor the deposited dose. The Compton camera is a SPECT system that proposed for imaging such particles, because it offers a good energy resolution and the possibility of a 3D imaging. However, in practice the acquisition is affected by noise from other secondary particles and the reconstruction algorithms are more complex and not totally completed, but the developments are well advanced. In this thesis, we developed a complete process from the simulation of irradiation of a phantom by a proton beam up to the tomographic reconstruction of images obtained from data acquired by the Compton camera. We studied different reconstruction methods (analytical and iterative), and we have developed an iterative method able to consider the measurement uncertainties on energy. Finally we developed methods to detect the end-of-range of the reconstructed prompt-gamma distributions.
Mot(s) clés libre(s) : Imagerie médicale, Hadronthérapie, Protonthérapie, Gamma-Prompt, Surveillance de traitement, Caméra Compton, Tomographie, Reconstruction d'Image, Reconstruction analytique, Reconstruction itérative, Détection de fin de parcours, Image 3D, Medical imaging, Hadrortherapy, Protontherapy, Prompt gamma, Treatment monitoring, Compton camera, Tomography, Image reconstruction, Analytic reconstruction, Iterative reconstruction, End-of-range detection, 3D imaging
 |  Notice  |  Texte intégral  |  Droits d'utilisation

Biglione Jordan. Simulation et optimisation du procédé d'injection soufflage cycle chaud. 2015 / Thèses / accès numérique libre
Résumé
Résumé
Le procédé d'injection soufflage est rendu accessible aux presses d'injection standard à travers le procédé d'injection soufflage cycle chaud, sans stockage puis réchauffe de la préforme. Le but étant de rendre accessible la production de petites séries de pièces creuses à des entreprises possédant un parc machine de presse à injecter. Les pièces sont réalisées en polypropylène et sont soufflées juste après avoir été injectées. Ce processus implique que la préforme se doit d'être suffisamment malléable pour être soufflée mais suffisamment visqueuse pour éviter de se rompre durant la phase de soufflage. Ces contraintes conduisent à une fenêtre de mise en oeuvre réduite, comprise entre la température de fusion du polymère et la température de cristallisation, soit le domaine ou le polypropylène est à l'état amorphe et suffisamment froid pour avoir une viscosité conséquente sans cristalliser. Ce procédé cycle chaud implique des gradients de température, de grands taux d'étirages et d'importantes cinétiques de refroidissement. Des mesures de rhéométrie à l'état fondu sont réalisées pour identifier le comportement de la matière dans la plage de température du procédé, de même que des tests de calorimétrie différentielle. L'observation du procédé et l'étude de la cristallisation du matériau permettent de supposer que ce dernier reste à l'état fondu durant la phase de soufflage. Un modèle rhéologique de Cross est utilisé, avec la dépendance thermique prise en compte par une loi d'Arrhénius. Le procédé est simulé à l'aide d'un logiciel de calcul par éléments finis dédié aux écoulements de fluides complexes (POLYFLOW) dans l'espace de travail ANSYS Workbench. La géométrie autorise une approche axisymétrique, facilitant ainsi la modélisation. Le calcul transitoire est lancé sous conditions anisothermes et l'auto-échauffement est considéré. Des études de sensibilité sont réalisées et révèlent l'influence de paramètres procédé tels que le comportement du matériau, la pression de soufflage et le champ de température initial. Des mesures d'épaisseurs sont réalisées en utilisant une méthode de traitement d'image permettant l'analyse des images numérisées de pièces découpées et des images issues de tomographie X des pièces. Les résultats simulés sont comparés aux mesures expérimentales. Le modèle présente les mêmes tendances que les mesures. L'existence de déformations élongationnelles, mais aussi par cisaillement lors du soufflage après contact avec le moule, est discutée. Une boucle d'optimisation est mise en place afin de déterminer numériquement la géométrie optimale de préforme. Des points de contrôle sont placés le long de la préforme et l'algorithme d'optimisation modifie les épaisseurs à ces points.
Single stage injection blow molding process, without preform storage and reheat, could be run on a standard injection molding machine, with the aim of producing short series of specific hollow parts. The polypropylene bottles are blown right after being injected. The preform has to remain sufficiently malleable to be blown while being viscous enough to avoid being pierced during the blow molding stage. These constraints lead to a small processing window, and so the process takes place between the melting temperature and the crystallization temperature, where the polypropylene is in his molten state but cool enough to enhance its viscosity without crystallizing. This single stage process introduces temperature gradients, molecular orientation, high stretch rate and high cooling rate. Melt rheometry tests were performed to characterize the polymer behavior in the temperature range of the process, as well as Differential Scanning Calorimetry. A viscous Cross model is used with the thermal dependence assumed by an Arrhenius law. The process is simulated through a finite element code (POLYFLOW) in the Ansys Workbench framework. The geometry allows an axisymmetric approach. The transient simulation is run under anisothermal conditions and viscous heating is taken into account. Thickness measurements using image analysis are done and the simulation results are compared to the experimental ones. The experimental measurements are done by analizing tomography datas. The simulation shows good agreements with the experimental results. The existence of elongational strain as well as shear strain during the blowing after contact with the mold is discussed. An optimization loop is run to determine an optimal initial thickness repartition by the use of a Predictor/Corrector method to minimize a given objective function. Design points are defined along the preform and the optimization modifies the thickness at these locations. This method is compared to the Downhill Simplex Method and shows better efficiency.
Mot(s) clés libre(s) : Injection soufflage, Calcul, Elements finis, Polypropylène, Rhéométrie dynamqiue, Cristallinité, Mesure d'épaisseurs, Copolymère aléatoire, Thermomécanique, Polymère, Materials, Injection blow molding, Calculus, Finite elements, Polypropylene, Dynamical rheometry, Crystallinity, Thickness measurement, Random copolymer, Thermomechanical, Polymer
 |  Notice  |  Texte intégral  |  Droits d'utilisation

Rivière Jérôme. Réponses thermo-mécaniques des interfaces tribologiques : Cas du freinage aéronautique. 2015 / Thèses / accès numérique réservé
Résumé
Résumé
En aéronautique, l'optimisation du fonctionnement des freins de roue nécessite qu'ils aient des comportements tribologiques qui décélèrent progressivement les aéronefs tout en maximisant l'endurance des freins. Ces comportements sont obtenus par le biais d'empilements de disques en composites carbone-carbone situés dans la jante de chaque roue qui, mis en contact par l'action d'une couronne hydraulique, transforment, emmagasinent puis restituent l'énergie de freinage. La jante, la couronne hydraulique (mécanisme), les disques (premiers corps) et le film intercalaire (troisième corps) constituent le triplet tribologique qui gouverne le freinage. Du fait du confinement du "contact" entre les disques d'une part, et entre les disques et la jante d'autre part, la compréhension locale des phénomènes énergétiques (conversions thermo-mécaniques) opérant pendant le freinage, nécessite un découplage des phénomènes tribologiques mis en jeu, en particulier au niveau de la "peau" des premiers corps et du troisième corps (échelle locale). Le découplage, difficile à établir expérimentalement, est réalisé dans cette étude par une modélisation numérique la plus réaliste possible des circuits tribologiques thermo-mécaniques activés (flux de matière et d énergie). Cette dernière est obtenue en enrichissant la méthode des éléments discrets afin de prendre en compte les arrangements locaux des constituants des premiers et troisième corps. Ces enrichissements sont confrontés numériquement et expérimentalement, à l'aide d une "boîte granulaire" instrumentée, puis exploités pour analyser les réponses thermo-mécaniques des premiers et troisième corps. Les analyses suggèrent qu une "dégradation seuil" des premiers corps engendre des arrangements locaux aux comportements thermo-mécaniques singuliers, même si l'énergie globale appliquée (pression . vitesse) est constante. Par exemple, les constituants du troisième corps induisent des phénomènes conservatifs tels que la formation de "rouleaux thermiques" liée à la recirculation locale du troisième corps, et des phénomènes dissipatifs tels que la conduction de la chaleur par le biais des hétérogénéités (paquets de fibres) des premiers corps. Les arrangements locaux, les endommagements, ... peuvent être caractérisés par des mesures numériques de résistance thermique de contact qui résultent de la compétition entre des énergies à l'échelle locale et des énergies à l'échelle globale (mécanisme). Cette résistance permet de distinguer dans les bilans d'énergie thermo-mécaniques, en plus des phénomènes dissipatifs bien connus, les phénomènes conservatifs qui amènent le triplet tribologique vers un équilibre. Dans le cas du freinage, l'équilibre est conditionné par le choix des arrangements qui restreignent l'usure (phénomènes conservatifs), et de ceux qui maximisent l'évacuation de la chaleur hors du contact (phénomènes dissipatifs).
In aeronautics, optimizing the operation of wheel brakes requires tribological behaviors which gradually decelerate aircrafts while maximizing endurance brakes. These behaviors are obtained through stacks of carbon-carbon composite discs located in the rim of each wheel which, brought into contact by action of pistons housing, transform, store and restore the braking energy. Rim, pistons housing (mechanism), discs (first body) and the separating film (third body) constitute the tribological triplet governing braking. Due to confinement of the "contact" firstly between discs, and secondly between discs and rim, the local understanding of energetical phenomena (thermo-mechanical conversions) operating during braking, requires a decoupling of tribological phenomena, especially at the scale of "skins" of the first body and third body (local scale). Such decoupling, experimentally difficult to operate, is performed in this study by a more realistic numerical modeling of activated tribological thermo-mechanical circuits (matter and energy flows). The modeling is obtained by enriching a discrete element method in order to take into account the local arrangements of the first and third body constituents. These enhancements are numerically and experimentally compared, using a "granular box" instrumented and used to analyze thermo-mechanical responses of first and third bodies. Analyzes suggest that a "threshold degradation" of first body generates local arrangements to singular thermo-mechanical behavior, even if the global applied energy (pressure . speed) is constant. For example, constituents of third body induce conservative phenomena such as formation of "heat rollers" linked to local recirculation of third body, and dissipative phenomena such as heat conduction through heterogeneities (fiber bundles) of first body. Local arrangements, damaging, ... can be characterized by numerical measures of thermal contact resistance which result from competition between energies at local scale and energies at global scale (mechanism). This resistance becomes here a probe of local arrangements. It distinguishes in thermo-mechanical energy balances, in addition to well-known dissipative phenomena, the conservative phenomena that lead to the tribological triplet balance. In the case of braking, balance is determined by the choice of arrangements which restrict wear (conservative phenomena), and the ones they maximize evacuation of heat from the contact (dissipative phenomena).
Mot(s) clés libre(s) : Mécanique analytique, Tribologie, Freinage, Frein aéronautique, Endommagement, Triplet tribologique, Thermique, Modélisation, Mechanical, Tribology, Braking, Aircraft bracking, Damage, Triplet trobological, Thermal analysis, Modeling
 |  Notice

Dhaybi Mathieu. Renforcement de fondations superficielles par soil mixing : Analyses par modélisation physique et numérique. 2015 / Thèses / accès numérique libre
Résumé
Résumé
Le renforcement des fondations par soil mixing consiste à créer dans le sol des colonnes à module mixte obtenues en mélangeant le sol sur place avec un liant hydraulique. Ces colonnes, qui possèdent des caractéristiques mécaniques entre celles du béton et celles du sol, permettent d'améliorer la portance du sol d'assise et réduire les tassements excessifs des structures surjacentes. Ce travail de recherche consiste en une étude du comportement des fondations superficielles renforcées par des colonnes de soil mixing. Il vise à mettre en exergue les améliorations que cette technique apporte en termes d'augmentation de la capacité portante et de réduction des tassements. Dans une première étape, un matériau de soil mixing est formulé à partir d un sable d'Hostun et d'un ciment CEM III. Une étude préalable a été réalisée pour déterminer les caractéristiques mécaniques de ce matériau de soil mixing, du sable d'Hostun, ainsi que les propriétés d'interface sable d'Hostun - soil mixing. Dans une seconde étape, une cuve expérimentale a été conçue pour permettre la réalisation de la procédure expérimentale du renforcement du sable par des colonnes de soil mixing. Plusieurs configurations du modèle physique ont été testées: Il s'agit d'essais de chargement sur fondations superficielles reposant sur un massif renforcé ou non. La taille de la semelle, le nombre des colonnes de renforcement, leurs âges, la densité de sol ainsi que le type de renforcement (renforcement type fondation mixte ou inclusion rigide) sont des paramètres dont l'effet a été étudié. Les essais de caractérisation, la conception du modèle expérimentale ainsi que les essais de chargement réalisés ont permis de mieux comprendre le comportement du sol renforcé. La connaissance des paramètres géomecaniques du sol et du matériau de soil mixing a permis de comprendre l'évolution de la capacité portante des semelles en présence des colonnes de renforcement. La présence d'un horizon porteur dans lequel les colonnes sont encastrées fait augmenter significativement la capacité portante de la semelle. Dans le cas du renforcement type inclusions rigides, l'augmentation de l'épaisseur du matelas granulaire réduit la capacité portante de la semelle renforcée. Cependant, elle fait augmenter la contribution des colonnes de renforcement dans la reprise des efforts appliqués sur la semelle. Une confrontation a été réalisée entre les résultats expérimentaux des essais de chargement et les résultats provenant d'un modèle éléments finis mis en œuvre avec le logiciel Abaqus. Les paramètres utilisés proviennent de nos essais de caractérisation réalisés dans le cadre de cette étude. Le modèle a présenté des résultats satisfaisant et a réussi de reproduire le comportement physique des semelles renforcées. Le modèle n'a non seulement réussi à reproduire les essais de chargement à l'échelle d'une colonne, mais aussi à l'échelle des semelles renforcées par une seule colonne et par quatre colonnes.
The reinforcement of shallow foundations by soil mixing consists on mixing the soil beneath with a hydraulic binder in order to obtain columns with mixed modulus. These columns, which have mechanical properties bounded between those of concrete and those of soil, can improve the soil bearing capacity and reduce excessive settlements as well. This research work is a phenomenological and quantitative study of the behavior of shallow foundations reinforced by soil mixing columns. It leads to analyze and highlight improvements that this technology brings in terms of bearing capacity increase and settlement reduction. In a first step, a soil mixing material is formulated from Hostun sand and cement CEM III. A preliminary study is conducted to determine the mechanical characteristics of the soil mixing material, Hostun sand and sand soil mixing interface. In a second step, an experimental tank is designed to allow the installation of 1 m3 of hostun sand under different density. The experimental procedure allows also the installation of soil mixing columns that reinforce the soil. Finally a device is installed in order to carry on loading tests. Different configurations of the physical model were tested. Loading tests are carried on soil mixing columns and on unreinforced and reinforced shallow foundations. Size of the foundation, number of reinforcing columns, their age, soil density and type of reinforcement (rigid inclusion or mixed foundation) are parameters we change during this study. The characterization tests, the design of the experimental model, and the loading tests helped us to better understand the behavior of the reinforced soil. The knowledge of geomechanical parameters of soil and soil mixing material allowed us to understand the evolution of the bearing capacity of the reinforced foundations. The presence of a carrier horizon, in which the tip columns is embedded, leads to significantly increase the bearing capacity of the foundation. In the rigid inclusions reinforcement case, the increasing of granular mattress thickness reduces the bearing capacity of the reinforced foundation. However, it increases the part of the loading transmitted to soil mixing columns. A comparison was made between the experimental results of loading tests and the results of a finite element model implemented with Abaqus software. Model parameters are taken from our material characterization study. It is proven that the model developed is able to reproduce not only loading tests at column scale, but alsot at reinforced foundations scale.
Mot(s) clés libre(s) : Fondation superficielle, Stabilisation du sol, Colonne de soil mixing, Caractérisation géomécanique, Capacité portante, Tassement, Modélisation numérique, Modélisation physique, Shallow foundation, Soil mixing, Geomechanical characterization, Load capacity, Settlement, Physical modelling, Numerical modelling
 |  Notice  |  Texte intégral  |  Droits d'utilisation

Kassem Fidaa. Reliability of reinforced concrete structures : Case of slabs subjected to impact. 2015 / Thèses / accès numérique libre
Résumé
Résumé
Dans le domaine du génie civil, le dimensionnement des structures en béton armé est essentiellement basé sur des démarches déterministes. Cependant, les informations fournies par des analyses déterministes sont insuffisantes pour étudier la variabilité de la réponse de la dalle. Le manque de connaissance des charges appliquées ainsi que les incertitudes liées à la géométrie de la dalle et les caractéristiques des matériaux nécessitent donc l'utilisation d'une approche fiabiliste qui permet la propagation de ces incertitudes dans les analyses déterministes. L'approche fiabiliste est basée sur le principe de couplage mécano-fiabiliste qui consiste à coupler un modèle stochastique et un modèle déterministe. Cependant un couplage mécano-fiabiliste peut être très exigeant en temps de calcul. Dans le cadre de cette thèse, la méthodologie propre aux problématiques des ouvrages du génie civil est développée et validée tout d'abord sur un cas simple de structures en béton armé. Le cas d'une poutre encastrée en béton armée est proposé. Le système est modélisé sous CASTEM par une approche aux éléments finis de type multifibre. Puis la fiabilité d'une dalle en béton armé impactée par une masse rigide à faible vitesse est étudiée en couplant OpenTURNS à Abaqus. Enfin, une enceinte de confinement en béton précontrainte modélisée sous ASTER est étudiée d'un point de vue probabiliste. Seul le problème physique des dalles en béton armé soumises à une chute de colis dans les centrales nucléaires est examiné en détail. Deux modèles déterministes sont utilisés et évalués afin d étudier les phénomènes dynamiques appliqués aux dalles en béton armé sous impact : un modèle par éléments finis en 3D modélisé sous Abaqus et un modèle simplifié de type masse-ressort amorti à deux degrés de liberté. Afin d'étudier la fiabilité des dalles en béton armé, nous avons couplé les méthodes Monte Carlo et simulation d importance avec le modèle de type masse-ressort. FORM est utilisée avec le modèle par éléments finis. L'objectif de cette étude est de proposer des solutions pour diminuer le temps de calcul d'une analyse fiabiliste en utilisant deux stratégies dans le cas des dalles impactées. La première stratégie consiste à utiliser des modèles analytiques qui permettent de prédire avec précision la réponse mécanique de la dalle et qui sont moins coûteux en temps de calcul. La deuxième consiste à réduire le nombre d'appels au modèle déterministe, surtout dans le cas des modèles par éléments finis, en utilisant des méthodes probabilistes d'approximation. Ces deux stratégies sont comparées afin de vérifier l efficacité de chacune pour calculer la probabilité de défaillance. Enfin, une étude paramétrique est réalisée afin d'étudier l'effet des paramètres d'entrées des modèles déterministes sur le calcul de la probabilité de défaillance.
Reinforced concrete structures (RC) are subjected to several sources of uncertainties that highly affect their response. These uncertainties are related to the structure geometry, material properties and the loads applied. The lack of knowledge on the potential load, as well as the uncertainties related to the features of the structure shows that the design of RC structures could be made in a reliability framework. This latter allows propagating uncertainties in the deterministic analysis. However, in order to compute failure probability according to one or several failure criteria, mechanical and stochastic models have to be coupled which can be very time consuming and in some cases impossible. The platform OpenTURNS is used to perform the reliability analysis of three different structures . OpenTURNS is coupled to CASTEM to study the reliability of a RC multifiber cantilever beam subjected to a concentrated load at the free end, to Abaqus to study the reliability of RC slabs which are subjected to accidental dropped object impact during handling operations within nuclear plant buildings, and to ASTER to study the reliability of a prestressed concrete containment building. Only the physical problem of reinforced concrete impacted by a free flying object is investigated in detail. Two deterministic models are used and evaluated: a 3D finite element model simulated with the commercial code Abaqus/Explicit and an analytical mass-spring model. The aim of this study is to address this issue of reliability computational effort. Two strategies are proposed for the application of impacted RC slabs. The first one consists in using deterministic analytical models which predict accurately the response of the slab. In the opposite case, when finite element models are needed, the second strategy consists in reducing the number of simulations needed to assess the failure probability. In order to examine the reliability of RC slabs, Monte Carlo and importance sampling methods are coupled with the mass-spring model, while FORM is used with the finite element model. These two stategies are compared in order to verify their efficiency to calculate the probability of failure. Finally, a parametric study is performed to identify the influence of deterministic model parameters on the calculation of failure probability (dimensions of slabs, impact velocity and mass, boundary conditions, impact point, reinforcement.
Mot(s) clés libre(s) : Structure en béton armé, Dalle, Impact à faible vitesse, Dynamique, Comportement non linéaire, Modélisation, Approche déterministe, Approche fiabiliste, Probabilité de défaillance, Reinforced concrete structure, Slab, Impact at low velocity, Dynamics, Nonlinear behavior, Modelization, Deterministic approach, Reliability approach, Failure probability
 |  Notice  |  Texte intégral  |  Droits d'utilisation

Masson Florent. Régulations immunitaires et cellulaires impliquées dans le maintien et le contrôle des bactéries endosymbiotiques du charançon des céréales du genre Sitophilus spp.. 2015 / Thèses / accès numérique libre
Résumé
Résumé
Plusieurs insectes se développant dans des milieux nutritionnellement déficients vivent en symbiose durable avec des bactéries intracellulaires (endosymbiotes) qui complémentent leur alimentation et améliorent leur pouvoir adaptatif. Alors que ces associations ont été largement étudiées sur les plans physiologiques et évolutifs, peu de travaux se sont consacrés à l'étude des mécanismes impliqués dans la tolérance et le contrôle des endosymbiotes par l'hôte. L'objectif de cette thèse est d'étudier, chez les charançons des céréales du genre Sitophilus, les particularités moléculaires et immunitaires du bactériome, un organe que l'insecte développe pour héberger les symbiotes et les isoler de sa réponse immunitaire systémique. Le bactériome du charançon exprime une réponse immunitaire modulée : des études transcriptomiques ont montré que les effecteurs de l'immunité sont peu exprimés dans cet organe, à l'exception d'un gène codant un peptide antimicrobien, la coléoptéricine A. Cette dernière interagit avec les endosymbiotes et participe à leur confinement intracellulaire. Dans une première partie, j'ai montré avec une approche d'interférence à l'ARN que l'expression du gène colA serait contrôlée par un système original qui impliquerait les gènes relish et tollip. Cette régulation interne au bactériome semble assurer le maintien des endosymbiotes et l'homéostasie de l'organe. Afin de comprendre comment le bactériome répond à une infection par les bactéries exogènes, j'ai suivi par RT-qPCR l'expression de gènes effecteurs de l'immunité dans le bactériome après injection systémique de bactéries à Gram positif ou négatif. Ceci a mis en évidence une réponse externe, induite en cas d'infection, et qui aurait un rôle de protection des endosymbiotes contre les bactéries exogènes. Enfin, je me suis consacré à l'étude des changements de régulation accompagnant le passage du stade larvaire au stade adulte, marqué par une symbiose très dynamique. Le nombre d'endosymbiotes augmente fortement pendant les premiers jours de vie imaginale, puis diminue jusqu'à leur élimination complète par recyclage autophagique. Une analyse RNAseq a permis d'identifier les voies de signalisation dont l'activité accompagne cette dynamique. Une approche de RT-qPCR a également montré que l'immunité du bactériome est maintenue à un faible niveau d'activation pendant tout le processus de recyclage. Ce travail montre qu'au cours de leur évolution, les insectes ont sélectionné plusieurs stratégies pour assurer le maintien et l'ajustement de leur charge endosymbiotique en fonction de leurs besoins physiologiques : une signalisation immunitaire assurerait le confinement intracellulaire des endosymbiotes, et un ensemble de processus cellulaires incluant l'apoptose et l'autophagie semble être en associé aux voies métaboliques pour assurer le contrôle de la dynamique bactérienne et garantir le compromis bénéfice/coût de la symbiose.
Many insect species living on nutritionally unbalanced media depend on intracellular mutualistic bacteria, called obligatory endosymbionts, for their development and reproduction. Endosymbionts are housed in specialized host cells called bacteriocytes, that group together to form the bacteriome organ. Although such associations have been widely investigated on a physiological and evolutionary point of view, little is known about the mechanisms involved in the tolerance and the control of endosymbionts by the host. This work aims at deciphering the molecular and immune specificities of the bacteriome using the model system Sitophilus oryzae, the cereal weevil, and its obligate endosymbiont Sodalis pierantonius. The weevil bacteriome expresses a modulated immune response: transcriptomic studies showed that immune effector genes were lowly expressed despite the massive bacterial presence, with the exception of colA, a gene encoding for Coleoptericin A, an antimicrobial peptide. Coleoptericin A interacts with endosymbionts and participates in their intracellular seclusion. In a first chapter, I used RNA interference to demonstrate that colA gene expression may be controlled by an original system involving the genes relish and tollip. This internal regulation for endosymbiont control seems to maintain bacteriome homeostasis. In a second chapter, in order to understand how the bacteriome responds to an infection by exogenous bacteria, I followed up by RT-qPCR the expression of immune effector genes in the bacteriome after injection of Gram positive and Gram negative bacteria. This highlighted an external immune response, inducible upon infections, which may enable endosymbiont protection against exogenous intruders. In a third and last chapter, I focused on the regulation changes that accompany the switch from the larval stage to the imaginal stage, the latter being characterized by a very dynamic symbiosis. Endosymbiont load drastically increases during the first days of imaginal life, then rapidly decreases until complete elimination of the bacteria by autophagic recycling. RNAseq analysis allowed the identification of signaling pathways linked to this dynamic. A complementary RT-qPCR approach also showed that bacteriome immunity was laid low during the whole recycling process. This work shows that several strategies have been selected during host-symbiont coevolution to ensure the maintenance of the endosymbionts and the adjustment of their population depending on the insects physiological needs: immunity allows the intracellular seclusion in the bacteriocytes, and cell processes including autophagy and apoptosis are associated to metabolic pathways to control the endosymbiotic dynamics and secure the cost and benefit trade-off of symbiosis.
Mot(s) clés libre(s) : Biosciences, Microbiologie, Endosymbiose obligatoire, Immunité innée, Peptide anti-Microbien, Coléoptéricine, Insecte, Microbiology, Obligatory endosymbiosis, Innate immunity, Antimicrobial peptide, Coleoptericin, Insect
 |  Notice  |  Texte intégral  |  Droits d'utilisation