Recherche avancée sur les thèses de l'INSA de Lyon

  • 610 ressources ont été trouvées. Voici les résultats 1 à 10
Tri :   Date Titre Type de contenu Auteur
Mangiante Gino. "Green" and innovative chemical modifications of cellulose fibers. 2013 / Thèses / accès numérique réservé
Résumé
Résumé
Ce projet de recherche mené en collaboration avec le CTP (Centre Technique du papier) a eu comme objectif de mettre en place une stratégie de greffage de polymères sur des fibres de cellulose via Chimie Click dans l'eau et dans des conditions douces et respectueuses de l'environnement afin de conférer de nouvelles propriétés mécaniques aux papiers résultants. La première étape a été d'élaborer une fonctionnalisation alcyne des fibres dans des conditions douces dans l'eau ou dans un mélange eau/isopropanol permettant à la fois une fonctionnalisation conséquente tout en préservant la cristallinité de la cellulose, la structure fibre et les propriétés mécaniques. Différentes méthodes de microscopie ont été utilisées pour mieux comprendre l'impact de la fonctionnalisation sur les propriétés mécaniques. Afin d'améliorer les propriétés mécaniques du papier, le greffage sur les fibres de polyéthers d'alkyle fonctionnalisés azoture a été réalisé dans l'eau par cycloaddition de Huisgen d'azoture-alcyne catalysée par le cuivre (II) (CuAAC). Plusieurs polymères de natures différentes (poly(éthylène glycol) et poly[(éthylène glycol)-stat-(propylène glycol)]), de différentes masses molaires et fonctionnalités (mono- ou difonctionnels) ont été liés aux fibres de cellulose. L'ajout de chaînes de poly(éthylène glycol) s'est avéré avoir un effet lubrifiant entraînant une légère diminution de l'indice de traction mais une augmentation importante de la flexibilité du papier. De plus, le greffage de polymères difonctionnels a démontré des propriétés originales de résistance à l'eau sans changer la nature hydrophile des fibres de cellulose. Enfin, le couplage Thiol-Yne a permis de fixer de petites molécules hydrosolubles fonctionnalisées thiol sur des fibres modifiées alcyne en s'affranchissant du cuivre nécessaire à la réalisation de la réaction de CuAAC.
This research project, in collaboration with CTP (Centre Technique du Papier), aimed at developing chemical pathway in water to graft polymers on cellulose fibers via Click Chemistry in eco-friendly and non-degrading conditions conferring new mechanical properties upon the resulting paper sheets. A first step was to develop a green alkyne derivatization method in mild conditions through pure water or water/isopropanol mixture allowing for a substantial alkyne functionalization without jeopardizing the cellulose crystallinity, the fiber structure, and maintaining good mechanical properties of the cellulose fibers and resulting paper sheets. To better understand how the functionalization impacts the mechanical properties, several microscopy methods were employed. Then, aiming at improving mechanical properties of the resulting paper, grafting of azidefunctionalized polyoxyalkylenes on alkyne-modified fibers was achieved via Copper(II)-Catalyzed Alkyne-Azide Cycloaddition (CuAAC) in pure water. Water soluble polymers of different nature (poly(ethylene glycol) or poly[(ethylene glycol)-stat-(propylene glycol)]), with different molar mass and functionality (one or two azide groups per macromolecular chain) were successfully attached on cellulose fibers. Grafting of PEG chains involved a slight decrease of the tensile index but a drastic increase of the flexibility of the paper sheet. Interestingly, fibers grafted with difunctional polymers demonstrated an original water resistance maintaining the hydrophilic nature of fibers. Finally, Thiol-Yne reaction was successfully carried out to attach small water soluble thiol-bearing reagents on alkyne-functionalized fibers in water as a metal-free alternative to CuAAC reaction.
Mot(s) clés libre(s) : Fibre de cellulose, Matériau hybride, Greffe de polymère, Fonctionnalisation alcyne, Thiol-Yne, Milieu aqueux, Résistance à l'eau, Microscopie confocale, Paper sludge, Cellulose fiber, Hybrid material, Polymer graft, Click chemistry, Alkyne functionalization, Water resistance, Confocal microscopy, Aqueous medium
 |  Notice  |  Texte intégral  |  Droits d'utilisation

Yuan Hui. 3D morphological and crystallographic analysis of materials with a Focused Ion Beam (FIB). 2014 / Thèses / accès numérique libre
Résumé
Résumé
L'objectif principal de ce travail est d'optimise la tomographie par coupe sériée dans un microscope FIB , en utilisant soit l'imagerie électronique du microscope à balayage (tomographie FIB-MEB), soit la diffraction des électrons rétrodiffusés (tomographie dite EBSD 3D). Dans les 2 cas, des couches successives de l'objet d'étude sont abrasées à l'aide du faisceau ionique, et les images MEB ou EBSD ainsi acquises séquentiellement sont utilisées pour reconstruire le volume du matériau. A cause de différentes sources de perturbation incontrôlées, des dérives sont généralement présentes durant l'acquisition en tomographie FIB-MEB. Nous avons ainsi développé une procédure in situ de correction des dérives afin de garder automatiquement la zone d'intérêt (ROI) dans le champ de vue. Afin de reconstruction le volume exploré, un alignement post-mortem aussi précis que possible est requis. Les méthodes actuelles utilisant la corrélation-croisée, pour robuste que soit cette technique numérique, présente de sévères limitations car il est difficile, sinon parfois impossible de se fier à une référence absolue. Ceci a été démontré par des expériences spécifiques ; nous proposons ainsi 2 méthodes alternatives qui permettent un bon alignement. Concernant la tomographie EBSD 3D, les difficultés techniques liées au pilotage de la sonde ionique pour l'abrasion précise et au repositionnement géométrique correct de l'échantillon entre les positions d'abrasion et d'EBSD conduisent à une limitation importante de la résolution spatiale avec les systèmes commerciaux (environ 50 nm)3. L EBSD 3D souffre par ailleurs de limites théoriques (grand volume d'interaction électrons-solide et effets d'abrasion. Une nouvelle approche, qui couple l'imagerie MEB de bonne résolution en basse tension, et la cartographie d'orientation cristalline en EBSD avec des tensions élevées de MEB est proposée. Elle a nécessité le développement de scripts informatiques permettant de piloter à la fois les opérations d'abrasion par FIB et l'acquisition des images MEB et des cartes EBSD. L'intérêt et la faisabilité de notre approche est démontrée sur un cas concret (superalliage de nickel). En dernier lieu, s'agissant de cartographie d'orientation cristalline, une méthode alternative à l'EBSD a été testée, qui repose sur l'influence des effets de canalisation (ions ou électrons) sur les contrastes en imagerie d'électrons secondaires. Cette méthode corrèle à des simulations la variation d'intensité de chaque grain dans une série d'images expérimentales obtenues en inclinant et/ou tournant l'échantillon sous le faisceau primaire. Là encore, la méthode est testée sur un cas réel (polycritsal de TiN) et montre, par comparaison avec une cartographie EBSD, une désorientation maximale d'environ 4° pour les angles d'Euler. Les perspectives d'application de cette approche, potentiellement beaucoup plus rapide que l'EBSD, sont évoquées.
The aim of current work is to optimize the serial-sectioning based tomography in a dual-beam focused ion beam (FIB) microscope, either by imaging in scanning electron microscopy (so-called FIB-SEM tomography), or by electron backscatter diffraction (so-called 3D-EBSD tomography). In both two cases, successive layers of studying object are eroded with the help of ion beam, and sequentially acquired SEM or EBSD images are utilized to reconstruct material volume. Because of different uncontrolled disruptions, drifts are generally presented during the acquisition of FIB-SEM tomography. We have developed thus a live drift correction procedure to keep automatically the region of interest (ROI) in the field of view. For the reconstruction of investigated volume, a highly precise post-mortem alignment is desired. Current methods using the cross-correlation, expected to be robust as this digital technique, show severe limitations as it is difficult, even impossible sometimes to trust an absolute reference. This has been demonstrated by specially-prepared experiments; we suggest therefore two alternative methods, which allow good-quality alignment and lie respectively on obtaining the surface topography by a stereoscopic approach, independent of the acquisition of FIB-SEM tomography, and realisation of a crossed hole thanks to the ion beam. As for 3D-EBSD tomography, technical problems, linked to the driving the ion beam for accurate machining and correct geometrical repositioning of the sample between milling and EBSD position, lead to an important limitation of spatial resolution in commercial softwares (~ 50 nm)3. Moreover, 3D EBSD suffers from theoretical limits (large electron-solid interaction volume for EBSD and FIB milling effects), and seems so fastidious because of very long time to implement. A new approach, coupling SEM imaging of good resolution (a few nanometres for X and Y directions) at low SEM voltage and crystal orientation mapping with EBSD at high SEM voltage, is proposed. This method requested the development of computer scripts, which allow to drive the milling of FIB, the acquisition of SEM images and EBSD maps. The interest and feasibility of our approaches are demonstrated by a concrete case (nickel super-alloy). Finally, as regards crystal orientation mapping, an alternative way to EBSD has been tested; which works on the influence of channelling effects (ions or electrons) on the imaging contrast of secondary electrons. This new method correlates the simulations with the intensity variation of each grain within an experimental image series obtained by tilting and/or rotating the sample under the primary beam. This routine is applied again on a real case (polycrystal TiN), and shows a max misorientation of about 4Ê for Euler angles, compared to an EBSD map. The application perspectives of this approach, potentially faster than EBSD, are also evoked.
Mot(s) clés libre(s) : Matériau, Cristallographie, Caractérisation 3D, Faisceau d'ions focalisés, Diffraction des électrons rétrodiffusés, Cartographie d'orientation cristalline, Tomographie électronique, MEB-FIB - MEB à faisceau d'ions focalisé, Dérive, Alignement par corrélation croisée, Topographie de surface, Résolution spatiale, Materials, Crystallography, 3D characterizion, FIB : Focused Ion Beam, EBSD : Electron Back Scatter Diffraction, Crystal orientation mapping, FIB - SEM : Focused Ion Beam - SEM, Alignement by cross-correlation, Surface topography, Spatial resolution, Channeling
 |  Notice  |  Texte intégral  |  Droits d'utilisation

Labbe Benoit. A contribution to synchronization of the sliding-mode control-based integrated step-down DC/DC converter. 2013 / Thèses / accès numérique réservé
Résumé
Résumé
Les téléphones et tablettes de dernière génération embarquent une puissance de calcul numérique très importante nécessitant une puissance électrique d'alimentation toute aussi significative. Afin de réduire la consommation énergétique des composants numériques complexes des terminaux mobiles, des techniques de modulation dynamique de la tension d'alimentation et de la fréquence de fonctionnement du cœur de calcul numérique sont utilisées. Le convertisseur DC/DC qui assure l alimentation du cœur numérique doit donc faire face à de forts transitoires de charge, de tension de référence et de tension de source. Le contrôle en mode glissant d'un convertisseur DC/DC permet un bon compromis entre les performances transitoires du convertisseur, la réalisation via des composants analogiques et la puissance dissipée par le contrôleur. C'est pourquoi ce type de contrôle apparait être adapté au contrôle de convertisseurs DC/DC alimentant des cœurs numériques. Cette thèse a pour objet l'étude des alimentations sur carte électronique où le contrôleur et l'étage de puissance sont intégrés sur puce tandis que les composants de puissance passifs sont montés sur le circuit imprimé. Le contrôle en mode glissant à fréquence de découpage fixe d'un convertisseur DC/DC a été démontré avec des résultats significatifs. Cependant les performances transitoires d'un tel convertisseur sont amoindries en raison des délais introduits par une fréquence de découpage fixe. Une nouvelle structure de régulation de fréquence de découpage d'un convertisseur DC/DC contrôlé en mode glissant est proposée dans cette thèse. Cette structure régule la fréquence de découpage moyenne du convertisseur tout en maintenant la réponse transitoire du convertisseur asynchrone par rapport à l'horloge de référence. Une analyse de stabilité qui prend en compte les spécificités d'un tel système est aussi proposée. Le convertisseur a été conçu sur un procédé CMOS 130nm de STMicroelectronics. La fréquence de découpage est maintenue volontairement faible pour conserver un rendement élevé avec des composants passifs externes. Le prototype présente un rendement supérieur à 80% entre 2.4mW et 960mW de puissance de sortie.
Mobile applications necessitate nowadays huge digital-resources. Power management of a digital System-On-Chip (SOC) is based on dynamic voltage scaling. DC/DC converters used to supply the digital SoCs are facing stringent constraints with respect to load-transients, line-transients and reference tracking. Hysteretic control is known as the most convenient control scheme with a fair trade-off between transient performances, analog implementation and power consumption, particularly for one-phase architecture. The thesis focuses on-board DC/DC with a significant constraint on footprint (i.e. on components count and values). Fixed switching-frequency hysteretic control has been experimented with significant results. Transient performances are reduced due to latency introduced in the switching frequency control. The present study focuses on the improvement of the concept as well as its implementation and the analysis of stability. A new analog implementation of the sliding-mode control is presented with switching-frequency control using a particular analog phase-locked-loop but preserve transient performances. The DC/DC converter is implemented in CMOS 130nm by STMicroelectronics. The switching frequency range has been voluntarily limited and excludes the possible integration of passive components for the sake of silicon access. A hybrid demonstrator is presented with efficiency higher than 80\% between 2.4 mW and 960 mW output power.
Mot(s) clés libre(s) : Electrotechnique, Téléphone à puissance de calcul numérique, Convertisseur DC-DC, Composant de puissance intégré, Contrôle en mode glissant, Electrotechnics, DC-to-DC Converter, Integrated power component, Frequency control
 |  Notice  |  Texte intégral  |  Droits d'utilisation

Da Silva Rafael Ferreira. A science-gateway for workflow executions : Online and non-clairvoyant self-healing of workflow executions on grids. 2013 / Thèses / accès numérique libre
Résumé
Résumé
Les science-gateways, telles que la Plate-forme d'Imagerie Virtuelle (VIP), permettent l'accès à un grand nombre de ressources de calcul et de stockage de manière transparente. Cependant, la quantité d'informations et de couches intergicielles utilisées créent beaucoup d'échecs et d'erreurs de système. Dans la pratique, ce sont souvent les administrateurs du système qui contrôlent le déroulement des expériences en réalisant des manipulations simples mais cruciales, comme par exemple replanifier une tâche, redémarrer un service, supprimer une exécution défaillante, ou copier des données dans des unités de stockages fiables. De cette manière, la qualité de service fournie est correcte mais demande une intervention humaine importante. Automatiser ces opérations constitue un défi pour deux raisons. Premièrement, la charge de la plate-forme est en ligne, c est-à-dire que de nouvelles exécutions peuvent se présenter à tout moment. Aucune prédiction sur l activité des utilisateurs n'est donc possible. De fait, les modèles, décisions et actions considérés doivent rester simples et produire des résultats pendant l exécution de l'application. Deuxièmement, la plate-forme est non-clairvoyante à cause du manque d'information concernant les applications et ressources en production. Les ressources de calcul sont d'ordinaire fournies dynamiquement par des grappes hétérogènes, des clouds ou des grilles de volontaires, sans estimation fiable de leur disponibilité ou de leur caractéristiques. Les temps d'exécution des applications sont difficilement estimables également, en particulier dans le cas de ressources de calculs hétérogènes. Dans ce manuscrit, nous proposons un mécanisme d'auto-guérison pour la détection autonome et traitement des incidents opérationnels dans les exécutions des chaînes de traitement. Les objets considérés sont modélisés comme des automates finis à états flous (FuSM) où le degré de pertinence d'un incident est déterminé par un processus externe de guérison. Les modèles utilisés pour déterminer le degré de pertinence reposent sur l'hypothèse que les erreurs, par exemple un site ou une invocation se comportant différemment des autres, sont rares. Le mécanisme d'auto-guérison détermine le seuil de gravité des erreurs à partir de l'historique de la plate-forme. Un ensemble d'actions spécifiques est alors sélectionné par règle d'association en fonction du niveau d'erreur.
Science gateways, such as the Virtual Imaging Platform (VIP), enable transparent access to distributed computing and storage resources for scientific computations. However, their large scale and the number of middleware systems involved in these gateways lead to many errors and faults. In practice, science gateways are often backed by substantial support staff who monitors running experiments by performing simple yet crucial actions such as rescheduling tasks, restarting services, killing misbehaving runs or replicating data files to reliable storage facilities. Fair quality of service (QoS) can then be delivered, yet with important human intervention. Automating such operations is challenging for two reasons. First, the problem is online by nature because no reliable user activity prediction can be assumed, and new workloads may arrive at any time. Therefore, the considered metrics, decisions and actions have to remain simple and to yield results while the application is still executing. Second, it is non-clairvoyant due to the lack of information about applications and resources in production conditions. Computing resources are usually dynamically provisioned from heterogeneous clusters, clouds or desktop grids without any reliable estimate of their availability and characteristics. Models of application execution times are hardly available either, in particular on heterogeneous computing resources. In this thesis, we propose a general self-healing process for autonomous detection and handling of operational incidents in workflow executions. Instances are modeled as Fuzzy Finite State Machines (FuSM) where state degrees of membership are determined by an external healing process. Degrees of membership are computed from metrics assuming that incidents have outlier performance, e.g. a site or a particular invocation behaves differently than the others. Based on incident degrees, the healing process identifies incident levels using thresholds determined from the platform history. A specific set of actions is then selected from association rules among incident levels.
Mot(s) clés libre(s) : Informatique, Système distribué, Plateforme scientifique, Multitraitement de données, Workflow, Détection autonome d'erreurs, Traitement des erreurs, Information technology, Distributed system, Science gateway, Data multitreatment, Autonomouserrors detection, Error correction
 |  Notice  |  Texte intégral  |  Droits d'utilisation

Haddad Mehdi. Access control and inference problem in data integration systems. 2014 / Thèses / accès numérique libre
Résumé
Résumé
Dans cette thèse nous nous intéressons au contrôle d'accès dans un système issu d'une intégration de données. Dans un système d'intégration de données un médiateur est défini. Ce médiateur a pour objectif d'offrir un point d'entrée unique à un ensemble de sources hétérogènes. Dans ce type d architecture, l'aspect sécurité, et en particulier le contrôle d'accès, pose un défi majeur. En effet, chaque source, ayant été construite indépendamment, définit sa propre politique de contrôle d'accès. Le problème qui émerge de ce contexte est alors le suivant : "Comment définir une politique représentative au niveau du médiateur et qui permet de préserver les politiques des sources de données impliquées dans la construction du médiateur?" Préserver les politiques des sources de données signifie qu'un accès interdit au niveau d'une source doit également l'être au niveau du médiateur. Aussi, la politique du médiateur doit préserver les données des accès indirects. Un accès indirect consiste à synthétiser une information sensible en combinant des informations non sensibles et les liens sémantiques entre ces informations. Détecter tous les accès indirects dans un système est appelé problème d'inférence. Dans ce manuscrit, nous proposons une méthodologie incrémentale qui permet d'aborder le problème d'inférence dans un contexte d'intégration de données. Cette méthodologie est composée de trois phases. La première, phase de propagation, permet de combiner les politiques sources et ainsi générer une politique préliminaire au niveau médiateur. La deuxième phase, phase de détection, caractérise le rôle que peuvent jouer les relations sémantiques entre données afin d inférer une information confidentielle. Par la suite, nous introduisant, au sein de cette phase, une approche basée sur les graphes afin d'énumérer tous les accès indirects qui peuvent induire l'accès à une information sensible. Afin de remédier aux accès indirects détectés nous introduisons la phase de reconfiguration qui propose deux solutions. La première solution est mise en œuvre au niveau conceptuel. La seconde solution est mise en œuvre lors de l'exécution.
In this thesis we are interested in controlling the access to a data integration system. In a data integration system, a mediator is defined. This mediator aims at providing a unique entry point to several heterogeneous sources. In this kind of architecture security aspects and access control in particular represent a major challenge. Indeed, every source, designed independently of the others, defines its own access control policy. The problem is then: "How to define a representative policy at the mediator level that preserves sources policies?" Preserving the sources policies means that a prohibited access at the source level should also be prohibited at the mediator level. Also, the policy of the mediator needs to protect data against indirect accesses. An indirect access occurs when one could synthesize sensitive information from the combination of non sensitive information and semantic constraints. Detecting all indirect accesses in a given system is referred to as the inference problem. In this manuscript, we propose an incremental methodology able to tackle the inference problem in a data integration context. This methodology has three phases. The first phase, the propagation phase, allows combining source policies and therefore generating a preliminary policy at the mediator level. The second phase, the detection phase, characterizes the role of semantic constraints in inducing inference about sensitive information. We also introduce in this phase a graph-based approach able to enumerate all indirect access that could induce accessing sensitive information. In order to deal with previously detected indirect access, we introduce the reconfiguration phase which provides two solutions. The first solution could be implemented at design time. The second solution could be implemented at runtime.
Mot(s) clés libre(s) : Informatique, Sécurité informatique, Controle d'accès, Intégration de données, Problème dinférence, Intégration de politique d'autorisation, Information technology, Data security, Access control, Data integration, Inference problem, Authorization policy integration
 |  Notice  |  Texte intégral  |  Droits d'utilisation

Ovreiu Elena. Accurate 3D mesh simplification. 2012 / Thèses / accès numérique libre
Résumé
Résumé
Les objets numériques 3D sont utilisés dans de nombreux domaines, les films d'animations, la visualisation scientifique, l'imagerie médicale, la vision par ordinateur.... Ces objets sont généralement représentés par des maillages à faces triangulaires avec un nombre énorme de triangles. La simplification de ces objets, avec préservation de la géométrie originale, a fait l'objet de nombreux travaux durant ces dernières années. Dans cette thèse, nous proposons un algorithme de simplification qui permet l'obtention d'objets simplifiés de grande précision. Nous utilisons des fusions de couples de sommets avec une relocalisation du sommet résultant qui minimise une métrique d'erreur. Nous utilisons deux types de mesures quadratiques de l'erreur : l'une uniquement entre l'objet simplifié et l'objet original (Accurate Measure of Quadratic Error (AMQE) ) et l'autre prend aussi en compte l'erreur entre l'objet original et l'objet simplifié ((Symmetric Measure of Quadratic Error (SMQE)) . Le coût calculatoire est plus important pour la seconde mesure mais elle permet une préservation des arêtes vives et des régions isolées de l'objet original par l'algorithme de simplification. Les deux mesures conduisent à des objets simplifiés plus fidèles aux originaux que les méthodes actuelles de la littérature.
Complex 3D digital objects are used in many domains such as animation films, scientific visualization, medical imaging and computer vision. These objects are usually represented by triangular meshes with many triangles. The simplification of those objects in order to keep them as close as possible to the original has received a lot of attention in the recent years. In this context, we propose a simplification algorithm which is focused on the accuracy of the simplifications. The mesh simplification uses edges collapses with vertex relocation by minimizing an error metric. Accuracy is obtained with the two error metrics we use: the Accurate Measure of Quadratic Error (AMQE) and the Symmetric Measure of Quadratic Error (SMQE). AMQE is computed as the weighted sum of squared distances between the simplified mesh and the original one. Accuracy of the measure of the geometric deviation introduced in the mesh by an edge collapse is given by the distances between surfaces. The distances are computed in between sample points of the simplified mesh and the faces of the original one. SMQE is similar to the AMQE method but computed in the both, direct and reverse directions, i.e. simplified to original and original to simplified meshes. The SMQE approach is computationnaly more expensive than the AMQE but the advantage of computing the AMQE in a reverse fashion results in the preservation of boundaries, sharp features and isolated regions of the mesh. For both measures we obtain better results than methods proposed in the literature.
Mot(s) clés libre(s) : Imagerie numérique, Imagerie médicale, Vision par ordinateur, Objet numérique 3D, Maillage, Simplification maillage, Accurate Measure of Quadratic Error - AMQE, Symmetric Measure of Quadratic Error - SMQE, Digital imaging, Medical imaging, Computer vision, Complex 3D digital objects, Accurate measure of quadratic error - AMQE, Symmetric measure of quadratic error - SMQE, Edge collapse, Mesh simplification
 |  Notice  |  Texte intégral  |  Droits d'utilisation

Mayer Tobias René. Achieving collaboration in distributed systems deployed over selfish peers. 2013 / Thèses / accès numérique libre
Résumé
Résumé
Les réseaux actuels sont souvent caractérisés par une intégration dynamique de nœuds étrangers. La possibilité qu'une entité dissidente égoïste exploite un nœud augmente alors, ce qui peut constituer une violation du protocole de collaboration en vue d'accroître un avantage personnel. Si de telles violations diffèrent des objectifs du système, elles peuvent même être considérées comme une attaque. Si des techniques de tolérance aux fautes existent pour affaiblir l'impact sur le système, celui-ci ne peut pas totalement se prémunir de ce type d'attaque. Cela justifie la nécessité d'une approche pour maintenir un degré de collaboration nœuds égoïstes dans les systèmes distribues. Dans cette thèse, nous considérons le problème d'atteindre un niveau ciblé de collaboration dans une architecture répartie intégrant des nœuds égoïstes, qui ont intérêt à violer le protocole de collaboration pour tirer parti du système. L'architecture et le protocole seront modifies le moins possible. Un mécanisme d'inspection de chaque nœud sera mis en place pour décider de la légitimité de ses interactions avec ses voisins. Le concepteur du système d'inspection est confronté avec une situation complexe. Il doit corréler plusieurs aspects tels que les circonstances particulières de l'environnement ou des préférences individuelles du nœud. En outre, il doit tenir compte du fait que les nœuds peuvent connaitre l'état de ses voisins et construire ses décisions en conséquence. La surveillance proposée dans cette thèse correspond à une classe de modèles de la théorie des jeux connus sous le nom Inspection Game (IG). Ils modélisent la situation générale où un inspecteur vérifie par des inspections du comportement correct d'une autre partie, appelée inspectee. Toutefois, les inspections sont coûteuses et les ressources de l'inspecteur sont limitées. Par conséquent, une surveillance complète n'est pas envisageable et un inspecteur tentera de minimiser les inspections. Dans cette thèse, le modèle initial IG est enrichi par la possibilité d'apparition de faux négatifs, c'est à dire la probabilité qu'une violation ne soit pas détectée lors d'une inspection. Appliqué sur des systèmes distribués, cette approche permet de modéliser les choix collaboratifs de chacun des acteurs (violer le protocole ou pas, inspecter ou pas). Comme résultat, le modèle IG retourne les paramètres du système pour atteindre le niveau de collaboration souhaité. L'approche est conçue comme un framework. Elle peut donc s'adapter à toutes les architectures et toutes les techniques de fiabilité. Cette approche IG sera présentée à l'aide d'un exemple concret d'architecture Publish/Subscribe. L'approche du jeu d'inspection de cette thèse pour objectif de sécuriser l'ensemble du protocole de collaboration. Ceci constitue un nouveau concept de mécanisme de fiabilité. [...]
Today s networks are often characterized by a free aggregation of independent nodes. Thus, the possibility increases that a selfish party operates a node, which may violate the collaborative protocol in order to increase a personal benefit. If such violations differ from the system goals they can even be considered as attack. Current fault-tolerance techniques may weaken the harmful impact to some degree but they cannot always prevent them. Furthermore, the several architectures differ in their fault-tolerance capabilities. This emphasizes the need for approaches able to achieve collaboration from selfish nodes in distributed systems. In this PhD thesis, we consider the problem of attaining a targeted level of collaboration in a distributed architecture deployed over rational selfish nodes. They have interest in deviating from the collaborative protocol to increase a personal benefit. In order to cover a broad spectrum of systems, we do not modify the collaborative protocol itself. Instead, we propose to add a monitoring logic to inspect the correctness of a node s behaviour. The designer of the monitoring system is faced with a complex and dynamic situation. He needs to consider aspects such as the specific circumstances (e.g. message traffic), the inspection effort or the node s individual preferences. Furthermore, he should consider that each agent could be aware of the other agents preferences as well as selfishness and perform strategic choices consequently. This complex and interdependent setup corresponds to a class of Game Theory (GT) known as Inspection Games (IG). They model the general situation where an inspector verifies through inspections the correct behaviour of another party, called inspectee. However, inspections are costly and the inspector s resources are limited. Hence, a complete surveillance is not possible and an inspector will try to minimize the inspections. In this thesis, the initial IG model is enriched by the possibility that a violation is not detected during an inspection (false negatives). Applied to distributed systems, the IG is used to model the network participants strategy choice. As outcome, it enables to calculate system parameters to attain the desired collaboration value. The approach is designed as generic framework. It can be therefore applied to any architecture considering any selfish goal and any reliability technique. For the sake of concreteness, we will discuss the IG approach by means of the illustrative case of a Publish/Subscribe architecture. The IG framework of this thesis secures the whole collaborative protocol by a monitoring approach. This represents a new way in terms of reliability mechanisms. The applicability is furthermore supported by the software library RCourse. Simplifying robustness evaluations of distributed systems, it is suitable for model verification and parameter calibration.
Mot(s) clés libre(s) : Informatique, Réseaux informatiques, Disponib, Securité, Modélisation des systèmes répartis, Théorie des jeux, Inspection games, Information technology, Networks, Reliability, Availability, Security, Modeling of distributed systems, Games theory
 |  Notice  |  Texte intégral  |  Droits d'utilisation

Pereira Antonio. Acoustic imaging in enclosed spaces. 2013 / Thèses / accès numérique libre
Résumé
Résumé
Ce travail de recherche porte sur le problème de l'identification des sources de bruit en espace clos. La motivation principale était de proposer une technique capable de localiser et quantifier les sources de bruit à l'intérieur des véhicules industriels, d'une manière efficace en temps. Dans cette optique, la méthode pourrait être utilisée par les industriels à des fins de réduction de bruit, et donc construire des véhicules plus silencieux. Un modèle simplifié basé sur la formulation par sources équivalentes a été utilisé pour résoudre le problème. Nous montrerons que le problème est mal conditionné, dans le sens où il est très sensible face aux erreurs de mesure, et donc des techniques dites de régularisation sont nécessaires. Une étude détaillée de cette question, en particulier le réglage de ce qu'on appelle de paramètre de régularisation, a été important pour assurer la stabilité de la solution. En particulier, un critère de régularisation basé sur une approche bayésienne s'est montré très robuste pour ajuster le paramètre de régularisation de manière optimale. L'application cible concernant des environnements intérieurs relativement grands, nous a imposé des difficultés supplémentaires, à savoir: (a) le positionnement de l'antenne de capteurs à l'intérieur de l'espace; (b) le nombre d'inconnues (sources potentielles) beaucoup plus important que le nombre de positions de mesure. Une formulation par pondération itérative a ensuite été proposé pour surmonter les problèmes ci-dessus de manière à: (1) corriger pour le positionnement de l'antenne de capteurs dans l'habitacle ; (2) obtenir des résultats corrects en terme de quantification des sources identifiées. Par ailleurs, l'approche itérative nous a conduit à des résultats avec une meilleure résolution spatiale ainsi qu'une meilleure dynamique. Plusieurs études numériques ont été réalisées afin de valider la méthode ainsi que d'évaluer sa sensibilité face aux erreurs de modèle. En particulier, nous avons montré que l'approche est affectée par des conditions non-anéchoïques, dans le sens où les réflexions sont identifiées comme des vraies sources. Une technique de post-traitement qui permet de distinguer entre les chemins directs et réverbérants a été étudiée. La dernière partie de cette thèse porte sur des validations expérimentales et applications pratiques de la méthode. Une antenne sphérique constituée d'une sphère rigide et 31 microphones a été construite pour les tests expérimentaux. Plusieurs validations académiques ont été réalisées dans des environnements semi-anéchoïques, et nous ont illustré les avantages et limites de la méthode. Enfin, l'approche a été testé dans une application pratique, qui a consisté à identifier les sources de bruit ou faiblesses acoustiques à l'intérieur d'un bus.
This thesis is concerned with the problem of noise source identification in closed spaces. The main motivation was to propose a technique which allows to locate and quantify noise sources within industrial vehicles, in a time-effective manner. In turn, the technique might be used by manufacturers for noise abatement purposes such as to provide quieter vehicles. A simplified model based on the equivalent source formulation was used to tackle the problem. It was shown that the problem is ill-conditioned, in the sense that it is very sensitive to errors in measurement data, thus regularization techniques were required. A detailed study of this issue, in particular the tuning of the so-called regularization parameter, was of importance to ensure the stability of the solution. In particular, a Bayesian regularization criterion was shown to be a very robust approach to optimally adjust the regularization parameter in an automated way. The target application concerns very large interior environments, which imposes additional difficulties, namely: (a) the positioning of the measurement array inside the enclosure; (b) a number of unknowns ("candidate" sources) much larger than the number of measurement positions. An iterative weighted formulation was then proposed to overcome the above issues by: first correct for the positioning of the array within the enclosure and second iteratively solve the problem in order to obtain a correct source quantification. In addition, the iterative approach has provided results with an enhanced spatial resolution and dynamic range. Several numerical studies have been carried out to validate the method as well as to evaluate its sensitivity to modeling errors. In particular, it was shown that the approach is affected by non-anechoic conditions, in the sense that reflections are identified as "real" sources. A post-processing technique which helps to distinguish between direct and reverberant paths has been discussed. The last part of the thesis was concerned with experimental validations and practical applications of the method. A custom spherical array consisting of a rigid sphere and 31 microphones has been built for the experimental tests. Several academic experimental validations have been carried out in semi-anechoic environments, which illustrated the advantages and limits of the method. Finally, the approach was tested in a practical application, which consisted in identifying noise sources inside a bus at driving conditions.
Mot(s) clés libre(s) : Espace clos, Bruit, Sources sonores, Méthode des sources équivalentes, Problème inverse, Acoustics, Enclosed space, Noise, Sound sources, Acoustics imaging, Equivalent sources methods, Inverse problem
 |  Notice  |  Texte intégral  |  Droits d'utilisation

Yu Liang. Acoustical source reconstruction from non-synchronous sequential measurements. 2015 / Thèses / accès numérique libre
Résumé
Résumé
Une limitation fondamentale du problème inverse acoustique est déterminée par la taille et la densité de l'antenne de microphones. Une solution pour atteindre une grande antenne et / ou à forte densité de microphones est de scanner l'objet d'intérêt en déplaçant séquentiellement une antenne de petites dimensions (mesures dites séquentielles). La différence entre des mesures séquentielle et une mesure simultanée en tous points est que dans ce dernier cas, l'intégralité de la matrice interpectrale peut être estimée, contrairement au cas des mesures séquentielles qui ne permettent l'estimation que d'une partie réduite de cette matrice; les éléments croisés (interspectres) entre deux points de mesures n'appartenant pas à la même séquence ne sont pas estimés. Néanmoins, ces données restent nécessaires pour la reconstruction acoustique. Dans l'approche classique, une ou plusieurs références sont utilisées pour retrouver les données manquantes. L'objet de cette thèse est de récupérer les éléments manquants de la matrice interspectrale sans capteurs de référence, dans le cas où le champ acoustique est suffisamment cohérent pour mettre en œuvre les mesures séquentielles. Deux modèles de spectre de valeurs propres parcimonieux sont proposés pour résoudre ce problème, le premier impose une valeur faible de rang, tandis que le second repose sur la minimisation de la norme nucléaire (recherche d'une solution faiblement parcimonieuse).
A fundamental limitation of the inverse acoustic problem is determined by the size of the array and the microphone density. A solution to achieve large array and/or high microphone density is to scan the object of interest by moving sequentially a small prototype array, which is referred to as sequential measurements. In comparison to a large array and/or high microphone density array that can acquire simultaneously all the information of the spectral matrix, in particular all cross-spectra, sequential measurements can only acquire a block diagonal spectral matrix, while the cross-spectra between the sequential measurements remain unknown due to the missing phase relationships between consecutive positions. Nevertheless, these unknown cross-spectra are necessary for acoustic reconstruction. The object of this thesis is to recover the missing elements of the spectral matrix in the case that the acoustical field is highly coherent so as to implement the sequential measurements. Sparse eigenvalue spectrum are assumed to solve this problem, which lead to a structured low rank model and a weakly sparse eigenvalue spectrum model.
Mot(s) clés libre(s) : Pression acoustique, Problème inverse, Capteur, Mesures acoustiques, Mechanics, Acoustic, Sound pressure, Inverse problem, Sensor, Acoustic measures
 |  Notice  |  Texte intégral  |  Droits d'utilisation

Munteanu Bogdan. Actions de particules d'usure aéroportées sur les propriétés mécaniques et physicochimiques des films de surfactant pulmonaire : Conséquences sur la conception de particules tribo-bio-compatibles. 2015 / Thèses / accès numérique libre
Résumé
Résumé
Paradoxalement, la sécurité routière est assurée entre autre par la production de particules d'usure ! Ainsi, près de 20 000 tonnes de garnitures de frein sont usées par an en France, dont 9 000 tonnes sous forme de particules d usure aéroportées. Ces particules posent des problèmes de santé car leur composition chimique et leur morphologie font qu'elles interagissent avec la paroi alvéolaire entrainant des pathologies. Au cours de ces pathologies la phase la plus étudiée est la phase inflammatoire qui s'installe une fois que la particule a passé la première barrière de protection qui est le film de surfactant pulmonaire. En revanche, très peu d'études portent sur l'interaction directe des particules aéroportées avec le film de surfactant pulmonaire à cause de difficultés liées aux résolutions des moyens d investigations cliniques. Alors-que ces études sont d un intérêt fondamental puisque, de par ses propriétés physicochimiques de surfactant, ce film contrôle la mécanique respiratoire donc la capacité pulmonaire. Dans ce contexte, cette thèse analyse les mécanismes d'action de particules d'usure aéroportées modèles sur les propriétés physicochimiques et mécaniques des parois alvéolaires et plus particulièrement du film de surfactant pulmonaire. Pour cela, un modèle ex vivo de paroi alvéolaire reproduisant la composition, la microstructure du surfactant ainsi que les sollicitations mécaniques pendant les cycles respiratoires, a été mis au point. L'utilisation de ce modèle et les mesures associées ont permis d'élaborer une démarche d'identification des paramètres significatifs des particules qui déterminent leurs interactions avec le film de surfactant pulmonaire. Cela a permis de montrer que l'électronégativité des particules aéroportées est l'un des paramètres significatifs qui induit des changements couplés à différentes échelles, qui vont de la conformation moléculaire (nano), à la microstructure (micro) et aux propriétés mécaniques (macro) de la paroi alvéolaire, conduisant à la diminution de la capacité respiratoire. Ce modèle et les premiers résultats permettront à court terme, d'identifier les autres paramètres significatifs qui caractérisent les actions de particules d usure aéroportées sur les propriétés mécaniques et physicochimiques des parois alvéolaires. Ceci permettra de connaitre leurs effets sur la capacité pulmonaire. Par conséquent, à plus long terme, cette connaissance permettra de modifier les matériaux en contact et leurs conditions de frottement pour générer des particules satisfaisant les exigences tribologiques et biologiques, donc tribo-bio-compatibles.
Paradoxically, road safety is assured among others by the production of wear particles! Thus, almost 20 000 tons of brake linings are worn each year in France. 9000 tons are airborne wear particles. Due to their size, chemical composition and morphology these particles will interact with the alveolar wall causing pathologies. In these pathologies the most studied is the inflammatory phase that appear after the particle has passed the first protective barrier which is the pulmonary surfactant film. However, very few studies have examined the direct interaction of airborne wear particles with pulmonary surfactant film. These studies are of fundamental interest because, by its physicochemical properties, the pulmonary surfactant film control the respiratory mechanics, hence the pulmonary capacity. In this context, this thesis analyzes the interaction mechanism of model airborne wear particles on the physicochemical and mechanical properties of the alveolar wall and more particularly of pulmonary surfactant film. For this, an ex vivo model of alveolar wall reproducing the composition of the surfactant, its microstructure and the mechanical stresses during the breathing cycles has been developed. This model and the associated measures allowed to develop a method for identifying significant parameters of the particles that determine their interaction with the pulmonary surfactant film. The results showed that the electronegativity of airborne particles is one of the significant parameters which induces changes at different scales ranging from molecular conformation (nano), microstructure (micro) and mechanical properties (macro) of the alveolar wall, leading to the diminution of the pulmonary capacity. This model and the first results will allow, at short term, to identify other significant parameters which characterize the actions of airborne wear particles on mechanical and physicochemical properties of alveolar walls, allowing to know their effects on lung capacity. Therefore, at longer term, this knowledge will permit to change the materials in contact and their friction conditions to generate wear particles satisfying tribological and biological requirements, so tribo-bio-compatibles.
Mot(s) clés libre(s) : Biosciences, Biomécanique, Paroi alvéolaire, Capacité respiratoire, Surfactant pulmonaire, Particule d'usure, Biomechanics, Alveolar wall, Pulmonary capacity, Pulmonar suractant, Wear particle
 |  Notice  |  Texte intégral  |  Droits d'utilisation