Recherche avancée sur les thèses de l'INSA de Lyon

  • 441 ressources ont été trouvées. Voici les résultats 1 à 10
Tri :   Titre Date Type de contenu Auteur
Poupon Fabrice. "Parcellisation" systématique du cerveau en volumes d'intérêt : Le cas des structures profondes. 1999 / Thèses / accès à la bibliothèque (document papier)
Résumé
Résumé
L'imagerie médicale permet de rendre compte in vivo de l'anatomie et du fonctionnement du cerveau. L'analyse approfondie des mécanismes cérébraux nécessite souvent de corréler l'information fonctionnelle avec l'information anatomique sous-jacente. En particulier, l'étude des structures cérébrales profondes montre qu'elles jouent un rôle important dans certaines maladies (chorée de Huntington, maladie de Parkinson). Leur segmentation à partir d'images IRM présente un énorme intérêt à des fins de diagnostic ou de suivi thérapeutique. Dans cette thèse, nous proposons une nouvelle méthode de segmentation que nous appliquons à ces structures. Cette méthode est fondée sur un modèle topologique de l'ensemble des structures dont les déformations sont contraintes par des distributions de forme. Ces dernières reposent sur des descripteurs de forme globale correspondant aux invariants de moment 3D. Contrairement aux descripteurs les plus fréquemment utilisés, ils peuvent être mis à jour au cours des déformations à un coup relativement faible. Les distributions de forme sont déterminées à partir d'une base d'apprentissage formée de plusieurs images IRM du cerveau étiquetées manuellement par un neuroanatomiste. Les distributions fondées sur les moments sont utilisées dans un processus de segmentation multi-résolution permettant la gestion de plusieurs objets se déformant simultanément. Les premiers résultats obtenus sont encourageants et montrent l'intérêt de s'appuyer sur des connaissances sur la forme des objets dans un tel processus de segmentation.
Medical imaging allows in vivo visualization of the brain anatomy and functions. Extensive study of cerebral mechanisms often needs to correlate functional information to the underlying anatomy information. Particularly, the study of the brain deep nuclei shows that they are responsible for various diseases (Huntington chorea, Parkinson's disease). Their segmentation from MR images is of great interest for diagnostic or follow-up study in therapeutic trials. In this thesis, we present a new segmentation method dedicated to these nuclei. This method is based on a topological model of the set of nuclei which deformations are constrained by shape distributions. These distributions rely on global shape descriptors corresponding to the 3D moment invariants. In opposition to most frequently used descriptors, they can be updated during deformation at a relatively low cost. The shape distributions are determined from a learning database composed of several MR images of the brain manually labeled by a neuroanatomist. The moment-based distributions are included in a multi-resolution segmentation framework allowing the management of several simultaneously deforming objects. First results are promising and point out the advantage of adding knowledge on the object shape in such a segmentation process.
Mot(s) clés libre(s) : IMAGERIE MEDICALE, IMAGERIE RESONANCE MAGNETIQUE, IRM, SEGMENTATION, MODELE 3 DIMENSIONS, MODELE DEFORMABLE, FORME, MOMENT, INVARIANT, CERVEAU
 |  Notice

Gómez-Mendoza Juan Bernardo. A contribution to mouth structure segmentation in images towards automatic mouth gesture recognition. 2012 / Thèses / accès à la bibliothèque (document papier)
Résumé
Résumé
Ce travail présente une nouvelle méthodologie pour la reconnaissance automatique des gestes de la bouche visant à l'élaboration d'IHM pour la commande d'endoscope. Cette méthodologie comprend des étapes communes à la plupart des systèmes de vision artificielle, comme le traitement d'image et la segmentation, ainsi qu'une méthode pour l'amélioration progressive de l'étiquetage obtenu grâce à la segmentation. Contrairement aux autres approches, la méthodologie est conçue pour fonctionner avec poses statiques, qui ne comprennent pas les mouvements de la tête. Beaucoup d'interêt est porté aux tâches de segmentation d'images, car cela s'est avéré être l'étape la plus importante dans la reconnaissance des gestes. En bref, les principales contributions de cette recherche sont les suivantes: La conception et la mise en oeuvre d'un algorithme de rafinement d'étiquettes qui dépend d'une première segmentation/pixel étiquetage et de deux paramétres corrélés. Le rafineur améliore la précision de la segmentation indiquée dans l'étiquetage de sortie pour les images de la bouche, il apporte également une amélioration acceptable lors de l'utilisation d'images naturelles. La définition de deux méthodes de segmentation pour les structures de la bouche dans les images; l'une fondée sur les propriétés de couleur des pixels, et l'autre sur des éléments de la texture locale, celles-ci se complétent pour obtenir une segmentation rapide et précise de la structure initiale. La palette de couleurs s'avére particuliérement importante dans la structure de séparation, tandis que la texture est excellente pour la séparation des couleurs de la bouche par rapport au fond. La dérivation d'une procédure basée sur la texture pour l'automatisation de la sélection des paramètres pour la technique de rafinement de segmentation discutée dans la première contribution. Une version améliorée de l'algorithme d'approximation bouche contour présentée dans l'ouvrage de Eveno et al. [1, 2], ce qui réduit le nombre d'itérations nécessaires pour la convergence et l'erreur d'approximation finale. La découverte de l'utilité de la composante de couleur CIE à statistiquement normalisée, dans la différenciation lévres et la langue de la peau, permettant l'utilisation des valeurs seuils constantes pour effectuer la comparaison.
This document presents a series of elements for approaching the task of segmenting mouth structures in facial images, particularly focused in frames from video sequences. Each stage is treated separately in different Chapters, starting from image pre-processing and going up to segmentation labeling post-processing, discussing the technique selection and development in every case. The methodological approach suggests the use of a color based pixel classification strategy as the basis of the mouth structure segmentation scheme, complemented by a smart pre-processing and a later label refinement. The main contribution of this work, along with the segmentation methodology itself, is based in the development of a color-independent label refinement technique. The technique, which is similar to a linear low pass filter in the segmentation labeling space followed by a nonlinear selection operation, improves the image labeling iteratively by filling small gaps and eliminating spurious regions resulting from a prior pixel classification stage. Results presented in this document suggest that the refiner is complementary to image pre-processing, hence achieving a cumulative effect in segmentation quality. At the end, the segmentation methodology comprised by input color transformation, preprocessing, pixel classification and label refinement, is put to test in the case of mouth gesture detection in images aimed to command three degrees of freedom of an endoscope holder.
Mot(s) clés libre(s) : Endoscopie, Reconnaissance de mouvement, Vision artificielle, Segmentation d'images, Interface Homme Machine, Mouvement de la bouche, Mouvement des lèvres, Medical Imaging, Endoscopy, Movement recognition, Image segmentation, Lips segmentation, Gesture classification, Human machine modelling, Human face modeling
 |  Notice

Gómez-Mendoza Juan Bernardo. A contribution to mouth structure segmentation in images towards automatic mouth gesture recognition. 2012 / Thèses / accès à la bibliothèque (document papier)
Résumé
Résumé
Ce travail présente une nouvelle méthodologie pour la reconnaissance automatique des gestes de la bouche visant à l'élaboration d'IHM pour la commande d'endoscope. Cette méthodologie comprend des étapes communes à la plupart des systèmes de vision artificielle, comme le traitement d'image et la segmentation, ainsi qu'une méthode pour l'amélioration progressive de l'étiquetage obtenu grâce à la segmentation. Contrairement aux autres approches, la méthodologie est conçue pour fonctionner avec poses statiques, qui ne comprennent pas les mouvements de la tête. Beaucoup d'interêt est porté aux tâches de segmentation d'images, car cela s'est avéré être l'étape la plus importante dans la reconnaissance des gestes. En bref, les principales contributions de cette recherche sont les suivantes: La conception et la mise en oeuvre d'un algorithme de rafinement d'étiquettes qui dépend d'une première segmentation/pixel étiquetage et de deux paramétres corrélés. Le rafineur améliore la précision de la segmentation indiquée dans l'étiquetage de sortie pour les images de la bouche, il apporte également une amélioration acceptable lors de l'utilisation d'images naturelles. La définition de deux méthodes de segmentation pour les structures de la bouche dans les images; l'une fondée sur les propriétés de couleur des pixels, et l'autre sur des éléments de la texture locale, celles-ci se complétent pour obtenir une segmentation rapide et précise de la structure initiale. La palette de couleurs s'avére particuliérement importante dans la structure de séparation, tandis que la texture est excellente pour la séparation des couleurs de la bouche par rapport au fond. La dérivation d'une procédure basée sur la texture pour l'automatisation de la sélection des paramètres pour la technique de rafinement de segmentation discutée dans la première contribution. Une version améliorée de l'algorithme d'approximation bouche contour présentée dans l'ouvrage de Eveno et al. [1, 2], ce qui réduit le nombre d'itérations nécessaires pour la convergence et l'erreur d'approximation finale. La découverte de l'utilité de la composante de couleur CIE à statistiquement normalisée, dans la différenciation lévres et la langue de la peau, permettant l'utilisation des valeurs seuils constantes pour effectuer la comparaison.
This document presents a series of elements for approaching the task of segmenting mouth structures in facial images, particularly focused in frames from video sequences. Each stage is treated separately in different Chapters, starting from image pre-processing and going up to segmentation labeling post-processing, discussing the technique selection and development in every case. The methodological approach suggests the use of a color based pixel classification strategy as the basis of the mouth structure segmentation scheme, complemented by a smart pre-processing and a later label refinement. The main contribution of this work, along with the segmentation methodology itself, is based in the development of a color-independent label refinement technique. The technique, which is similar to a linear low pass filter in the segmentation labeling space followed by a nonlinear selection operation, improves the image labeling iteratively by filling small gaps and eliminating spurious regions resulting from a prior pixel classification stage. Results presented in this document suggest that the refiner is complementary to image pre-processing, hence achieving a cumulative effect in segmentation quality. At the end, the segmentation methodology comprised by input color transformation, preprocessing, pixel classification and label refinement, is put to test in the case of mouth gesture detection in images aimed to command three degrees of freedom of an endoscope holder.
Mot(s) clés libre(s) : Endoscopie, Reconnaissance de mouvement, Vision artificielle, Segmentation d'images, Interface Homme Machine, Mouvement de la bouche, Mouvement des lèvres, Medical Imaging, Endoscopy, Movement recognition, Image segmentation, Lips segmentation, Gesture classification, Human machine modelling, Human face modeling
 |  Notice  |  Texte intégral

Ovreiu Elena. Accurate 3D mesh simplification. 2012 / Thèses / accès à la bibliothèque (document papier)
Résumé
Résumé
Les objets numériques 3D sont utilisés dans de nombreux domaines, les films d'animations, la visualisation scientifique, l'imagerie médicale, la vision par ordinateur.... Ces objets sont généralement représentés par des maillages à faces triangulaires avec un nombre énorme de triangles. La simplification de ces objets, avec préservation de la géométrie originale, a fait l'objet de nombreux travaux durant ces dernières années. Dans cette thèse, nous proposons un algorithme de simplification qui permet l'obtention d'objets simplifiés de grande précision. Nous utilisons des fusions de couples de sommets avec une relocalisation du sommet résultant qui minimise une métrique d'erreur. Nous utilisons deux types de mesures quadratiques de l'erreur : l'une uniquement entre l'objet simplifié et l'objet original (Accurate Measure of Quadratic Error (AMQE) ) et l'autre prend aussi en compte l'erreur entre l'objet original et l'objet simplifié ((Symmetric Measure of Quadratic Error (SMQE)) . Le coût calculatoire est plus important pour la seconde mesure mais elle permet une préservation des arêtes vives et des régions isolées de l'objet original par l'algorithme de simplification. Les deux mesures conduisent à des objets simplifiés plus fidèles aux originaux que les méthodes actuelles de la littérature.
Complex 3D digital objects are used in many domains such as animation films, scientific visualization, medical imaging and computer vision. These objects are usually represented by triangular meshes with many triangles. The simplification of those objects in order to keep them as close as possible to the original has received a lot of attention in the recent years. In this context, we propose a simplification algorithm which is focused on the accuracy of the simplifications. The mesh simplification uses edges collapses with vertex relocation by minimizing an error metric. Accuracy is obtained with the two error metrics we use: the Accurate Measure of Quadratic Error (AMQE) and the Symmetric Measure of Quadratic Error (SMQE). AMQE is computed as the weighted sum of squared distances between the simplified mesh and the original one. Accuracy of the measure of the geometric deviation introduced in the mesh by an edge collapse is given by the distances between surfaces. The distances are computed in between sample points of the simplified mesh and the faces of the original one. SMQE is similar to the AMQE method but computed in the both, direct and reverse directions, i.e. simplified to original and original to simplified meshes. The SMQE approach is computationnaly more expensive than the AMQE but the advantage of computing the AMQE in a reverse fashion results in the preservation of boundaries, sharp features and isolated regions of the mesh. For both measures we obtain better results than methods proposed in the literature.
Mot(s) clés libre(s) : Imagerie numérique, Imagerie médicale, Vision par ordinateur, Objet numérique 3D, Maillage, Simplification maillage, Accurate Measure of Quadratic Error - AMQE, Symmetric Measure of Quadratic Error - SMQE, Digital imaging, Medical imaging, Computer vision, Complex 3D digital objects, Accurate measure of quadratic error - AMQE, Symmetric measure of quadratic error - SMQE, Edge collapse, Mesh simplification
 |  Notice

Ovreiu Elena. Accurate 3D mesh simplification. 2012 / Thèses / accès numérique libre
Résumé
Résumé
Les objets numériques 3D sont utilisés dans de nombreux domaines, les films d'animations, la visualisation scientifique, l'imagerie médicale, la vision par ordinateur.... Ces objets sont généralement représentés par des maillages à faces triangulaires avec un nombre énorme de triangles. La simplification de ces objets, avec préservation de la géométrie originale, a fait l'objet de nombreux travaux durant ces dernières années. Dans cette thèse, nous proposons un algorithme de simplification qui permet l'obtention d'objets simplifiés de grande précision. Nous utilisons des fusions de couples de sommets avec une relocalisation du sommet résultant qui minimise une métrique d'erreur. Nous utilisons deux types de mesures quadratiques de l'erreur : l'une uniquement entre l'objet simplifié et l'objet original (Accurate Measure of Quadratic Error (AMQE) ) et l'autre prend aussi en compte l'erreur entre l'objet original et l'objet simplifié ((Symmetric Measure of Quadratic Error (SMQE)) . Le coût calculatoire est plus important pour la seconde mesure mais elle permet une préservation des arêtes vives et des régions isolées de l'objet original par l'algorithme de simplification. Les deux mesures conduisent à des objets simplifiés plus fidèles aux originaux que les méthodes actuelles de la littérature.
Complex 3D digital objects are used in many domains such as animation films, scientific visualization, medical imaging and computer vision. These objects are usually represented by triangular meshes with many triangles. The simplification of those objects in order to keep them as close as possible to the original has received a lot of attention in the recent years. In this context, we propose a simplification algorithm which is focused on the accuracy of the simplifications. The mesh simplification uses edges collapses with vertex relocation by minimizing an error metric. Accuracy is obtained with the two error metrics we use: the Accurate Measure of Quadratic Error (AMQE) and the Symmetric Measure of Quadratic Error (SMQE). AMQE is computed as the weighted sum of squared distances between the simplified mesh and the original one. Accuracy of the measure of the geometric deviation introduced in the mesh by an edge collapse is given by the distances between surfaces. The distances are computed in between sample points of the simplified mesh and the faces of the original one. SMQE is similar to the AMQE method but computed in the both, direct and reverse directions, i.e. simplified to original and original to simplified meshes. The SMQE approach is computationnaly more expensive than the AMQE but the advantage of computing the AMQE in a reverse fashion results in the preservation of boundaries, sharp features and isolated regions of the mesh. For both measures we obtain better results than methods proposed in the literature.
Mot(s) clés libre(s) : Imagerie numérique, Imagerie médicale, Vision par ordinateur, Objet numérique 3D, Maillage, Simplification maillage, Accurate Measure of Quadratic Error - AMQE, Symmetric Measure of Quadratic Error - SMQE, Digital imaging, Medical imaging, Computer vision, Complex 3D digital objects, Accurate measure of quadratic error - AMQE, Symmetric measure of quadratic error - SMQE, Edge collapse, Mesh simplification
 |  Notice  |  Texte intégral  |  Droits d'utilisation

Salomé Murielle. Acquisition et quantification d'images du réseau trabéculaire osseux en microtomographie tridimensionnelle utilisant le rayonnement synchrotron. 1998 / Thèses / accès à la bibliothèque (document papier)
Résumé
Résumé
L'architecture de l'os trabéculaire, qui conditionne avec la densité osseuse ses propriétés mécaniques, est constituée de travées d'une épaisseur moyenne de 100 microns arrangées de façon anisotrope en trois dimensions. L'étude de cette structure demande donc idéalement une modalité d'imagerie haute résolution et tridimensionnelle (30). La tomographie X, qui permet de reconstruire de façon non destructive une image 3D d'un échantillon à partir de projections sous différents angles de vue, est une technique adaptée. Ces travaux de thèse portent sur la mise au point d'un système d'acquisition micro-tomographique utilisant le rayonnement synchrotron, spécialement dédié à l'imagerie de la structure osseuse. Grâce aux propriétés du rayonnement synchrotron, le système que nous avons développé à l'ESRF, Grenoble, fournit des images 3D d'échantillons osseux in vitro avec une résolution spatiale de l'ordre de 10 microns. Afin de mesurer sur ces images des paramètres morphologiques et topologiques représentatifs de l'architecture osseuse, nous avons développé des outils de quantification 2D et 30. Les paramètres mesurés ont été comparés à des mesures histomorphométriques conventionnelles. Nous avons également étudié l'influence de la résolution spatiale des images sur la quantification de l'architecture trabéculaire, en simulation et dans un cas réel par des mesures croisées entre notre système et un scanner micro-tomographique de plus basse résolution spatiale. Les outils d'imagerie et de quantification développés ont enfin été utilisés dans le cadre d'une étude portant sur l'évolution de l'architecture osseuse avec le vieillissement. Nous avons également abordé d'autres applications comme le suivi de l'effet structural de médicaments contre l'ostéoporose ou l'étude de l'organisation de l'os trabéculaire fœtal.
Trabecular bone architecture which determines bone density and its mechanical properties is highly anisotropic and made of trabeculae with an average thickness of 100 microns. As a consequence, the study of this structure ideally requires a high resolution three-dimensional (3D) imaging tool. X-ray tomography which allows reconstructing non-destructively a 3D image of a sample from projections taken at different .viewing angles is well ml1ted. This work deals with the development of a microtomographic imaging system using synchrotron radiation and dedicated to bone structure studies. Thanks to the properties of synchrotron radiation, the system which we have developed at ESRF, Grenoble, provides 3D images of bone samples in vitro with a spatial resolution around 10 microns. In order to measure morphometric and topological parameters representative of bone structure from these images, we have developed 2D and 3D quantification tools. These parameters have been compared to conventional histomorphometric measurements. The influence of spatial résolution on the evaluation of bone architecture has also been studied, both in simulation and in a real case by comparing measurements performed with our system and with a lower spatial resolution nùcrotomographic scanner. These imaging and quantification tools have been used in a study dealing with the evolution of the structure of trabecular bone with aging. We have also investigated other applications like the study of the structural effects of drugs against osteoporosis and the study of fetal trabecular bone
Mot(s) clés libre(s) : IMAGERIE MEDICALE, TROMOGRAPHIE TRIDIMENSIONNELLE, HAUTE RESOLUTION, RAYONNEMENT SYNCHROTRON, IMAGE TRIDIMENSIONNELLE, OS SPONGIEUX, ARCHITECTURE, VIEILLISSEMENT
 |  Notice

Trilling Lorraine. Aide à la décision pour le dimensionnement et le pilotage de ressources humaines mutualisées en milieu hospitalier. 2006 / Thèses / accès numérique libre
Résumé
Résumé
Le regroupement des blocs opératoires au sein d'un Plateau Médico-Technique (PMT) présente des enjeux dans la phase de conception (dimensionnement des ressources et choix d'organisation) et dans la phase de pilotage (planification de l'activité et affectation des ressources humaines et matérielles) face auxquels les décideurs hospitaliers manquent d'outils. En réponse à ces besoins, cette thèse propose une démarche globale d'aide à la décision pour la conception du PMT et le pilotage des ressources humaines mutualisées de ce secteur. Cette démarche aborde trois principaux problèmes. Dans un premier temps, nous nous intéressons à la modélisation des processus de PMT existants, dont le but est de faire émerger un diagnostic et d'engager une démarche d'amélioration de la performance. Ces modèles sont réutilisés dans un second temps pour la modélisation des processus cibles qui nous permettent d'obtenir, par simulation de l'activité, les courbes de charge exprimant les besoins en personnel. Nous abordons la question du dimensionnement du personnel regroupé du PMT par la construction des vacations couvrant cette charge prévisionnelle, à l'aide de la Programmation Linéaire en Nombres Entiers (PLNE) couplée à la simulation de flux. Dans un troisième temps, nous étudions deux problèmes de planification d'horaires de travail : celui des infirmiers anesthésistes et celui des médecins anesthésistes, pour lesquels nous développons plusieurs approches de résolution basées sur la Programmation Linéaire Mixte (PLM) et sur la Programmation Par Contraintes (PPC), expérimentées et validées dans lecadre d'applications réelles.
To reduce cost and optimize the use of resources, hospitals are prompted to regroup facilities and human resources, especially in the surgical suite. The principle of sharing resources from several surgical specialties in a multi-disciplinary surgical suite raises a number of issues, particularly regarding the design of the new structure (resources sizing, organizational alternatives) and its steering process (scheduling surgery, allocating human and material resources). At the moment, decision makers are lacking tools to address these challenges. This thesis proposes a global decision support methodology for designing the surgical suite and steering the pooled human resources. This methodology involves three main steps. We first carry out the process modeling of existing surgical suites, in order to elaborate a diagnosis and to initiate a methodology for performance improvement. In a second step these existing process models are used as a basis to elaborate models of the targeted process. These new models allow building up an activity simulation tool that enables to generate curves representing workforce requirements. We address the staffing problem of pooled personnel through the design of a set of shifts covering the estimated workload, using Integer Linear Programming (ILP) combined with discrete event simulation. In a third time, we focus on the anesthesiology personnel (nurses and physician), which are generally organized in pools of personnel, and propose solutions to the related scheduling problems. Approaches based on Mixed Linear Programming (MLP) and Constraint Programming (CP) have been developed, experimented and validated in real-world applications.
Mot(s) clés libre(s) : INGENIERIE, GESTION PRODUCTION, PLANIFICATION RESSOURCE, RESSOURCE HUMAINE, AIDE A LA DECISION, PROGRAMMATION LINEAIRE, PROGRAMMATION PAR CONTRAINTE, APPLICATION, BLOC OPERATOIRE
 |  Notice  |  Texte intégral  |  Droits d'utilisation

Ding Yi. Amélioration de la qualité visuelle et de la robustesse aux post-traitements des images comprimées par une approche de type "problème inverse". 1996 / Thèses / accès à la bibliothèque (document papier)
Résumé
Résumé
La compression avec perte contrôlée d'information est utilisée pour atteindre de faibles débits binaires. Les techniques usuelles de décompression utilisent un traitement inverse, symétrique de celui de la compression, et font apparaître des artefacts: effet de blocs et d'anneaux. De plus, les images ne supportent plus les posttraitements de rehaussement et de détection de contours des objets. Dans notre travail, nous proposons un schéma de décompression basé sur la théorie des problèmes inverses. La décompression restaure l'image avec des contraintes qui utilisent des informations sur l'image originale et le procédé de compression: régularité de l'image originale et borne supérieure du bruit de quantification. Ce concept est appliqué à l'algorithme normalisé JPEG dans un cadre conforme au standard puis par une méthode qui nécessite un préfiltrage de l'image originale et un postfiltrage de l'image décomprimée par l'algorithme JPEG. Cette deuxième technique est plus efficace que la première. Nous proposons également un algorithme qui consiste à adapter la taille des blocs à la distance de corrélation des images d'une classe dans le schéma JPEG et à optimiser les coefficients de la matrice de normalisation. Cette approche est très efficace pour les images médicales. La méthode de régularisation est appliquée également à la compression multirésolution par décomposition en sous-bandes. Là encore deux approches sont proposées. L'une restaure l'image comprimée à chaque niveau de résolution, l'autre est une restauration globale. Les résultats obtenus sont très satisfaisants du point de vue de la qualité visuelle et de la robustesse aux post-traitements. Pour compléter notre travail, nous comparons les performances de cette technique avec une approche non linéaire par projection sur des paraboloïdes qui est adaptée à l'atténuation de l'effet d'anneaux. Les résultats obtenus permettent d'envisager de combiner les deux algorithmes dans un seul schéma de compression.
Low bit-rate can only be attained by lossy compression techniques. Most of the lossy compression schemes proceed by blocks at the transformation or at the quantization stage. The usual decompression algorithm is a symmetric inverse processing of the compression scheme. This generates blocking artifacts and ringing noise. Furthermore, decompressed image can never support post-processing such as edge detection. In this work, we propose a decompression scheme based on the theory of inverse problems. The decompression restores the compressed image with some constraints based on information about both the original image and on the compression procedure: the image smoothness and the upper bound of the quantization error, respectively. We consider an extension of the regularized mean square approach for ill-posed problems proposed by Miller. This idea is first carried out for the JPEG algorithm. We proposed two schemes. In the first one the dequantization array is calculated in order to minimize the reconstruction error subjected to a mean regularity constraint on the whole image blacks. This scheme is in full compliance with the JPEG standard. In the second approach the original image is pre-filtered by an unsharp masking filter in order to enhance the image details before compression and post-filtered by a low-pass inverse filter after decompression to remove the blocks. The inverse filter is designed for an optimal restoration subjected to both a constraint on the image roughness and on the decompression error. This second technique is more efficient than the first one against blocking artifacts. It is also in full compliance with the JPEG standard but requires two additional processing components. The robustness of the decompressed image to edge detection was assessed for both proposed schemes. We also proposed an algorithm which adapts the block size to the correlation length of the image in JPEG and which optimizes the coefficients of the quantization array. This approach is very efficient for medical images. The regularized restoration method is also applied to the subband coding techniques that use vector quantization of the subband images. Two approaches are considered. In the first one the image is restored at each resolution level and in the second one a global restoration is applied. Experimental results prove that both methods significantly reduce blocking effects and preserve the edges of compressed images. In order to complete the research, we compare the performance of our proposal to a non-linear approach which is adapted to the attenuation of ringing noise.
Mot(s) clés libre(s) : TRAITEMENT IMAGE, COMPRESSION IMAGE, PROBLEME INVERSE, VISION, QUALITE IMAGE, REGULARISATION, DETECTION CONTOUR, RESTAURATION IMAGE, DECOMPRESSION IMAGE, ALGORITHME JPEG
 |  Notice

Zimpfer Véronique. Amélioration du traitement numérique des signaux dans les systèmes actifs en protection auditive. 2000 / Thèses / accès numérique libre
Résumé
Résumé
Afin de réaliser une atténuation active du bruit (ANR) sous un protecteur auditif actif avec un filtre numérique, il est nécessaire que ce filtre s'exécute en temps réel sur une bande fréquentielle importante avec une grande dynamique. Les filtres numériques de type RII sont les seuls à pouvoir respecter la contrainte du temps réel. Cependant l'effet de la quantification des coefficients et des signaux ainsi que la propagation de l'erreur d'arrondi réduisent les performances. Diverses solutions ont été adaptées afin de minimiser les effets de la quantification. En revanche pour augmenter la dynamique du filtre, il a été nécessaire de développer un nouvel algorithme pour les filtres de type RII. Cet algorithme appelé "algorithme adapté", a pour but essentiel de minimier la propagation de l'eereur d'arrondi entre les étapes successives. Des protections auditives actives utilisant ces filtres de compensation numériques ont donc pu être réalisées. Ce filtre numérique permet de régler le gain de la boucle ouverte afin d'avoir l'optimum pour l'atténuation active. On a pu vérifier que les protections auditives actives numériques sont maintenant aussi performantes mais plus flexibles que les protections réalisées en technologie analogique. Le fait d'utiliser un système numérique permet d'ajouter facilement des fonctionnalités annexes au système ANR, comme par exemple : l'insertion de la voie de phonie, une procédure "Marche-Arrêt" automatique et un système ANR à double filtre.
In order to realize an active noise reduction (ANR) on an active hearing protec-tor, with a digital filter, it is necessary that the filter works in real time with a broad bandwidth and a large dynamic range. Only the IIR type digital filters can comply with the real time condition. However, the quantification effect of coefficients and signals and the propagation of roundoff noise decrease the filter performance. Different solutions have been adapted in order to minimize the quantification effects. In order to increase the filter dynam-ics, it has been necessary to create a new algorithm for the IIR type filters. This algorithm is called "adapted algorithm". Its essential part is to minimize the propagation of the round-off noise to the next sampling of output signals. Hence, it has been possible to realize active hearing protectors using digital filters. The digital filter allows to adjust the open loop gain in order to have the optimum active attenuation. We have confirmed that the hearing protec-tors using digital filters are as efficient as those using analog filters. By using digital filters, the hearing protectors become more flexible than with analog filters. The use of a digital ANR system allows to easily add subsidiary functionalities to the ANR system, as for exam-ple : the insertion of a speech signal, an automatic "go-stop" procedure and an ANR system using two filters.
Mot(s) clés libre(s) : ACOUSTIQUE, PROTECTION AUDITIVE ACTIVE, LUTTE BRUIT, ANR, ACTIVE NOISE REDUCTION, ATTENUATION ACTIVE DU BRUIT, ALGORITHME FILTRAGE, FILTRE NUMERIQUE, FILTRE RECURSIF, FILTRE RII
 |  Notice  |  Texte intégral  |  Droits d'utilisation

Dupont Florent. Analyse d'images et reconnaissance des formes : application à l'identification automatique de défauts sur tôles décapées. 1994 / Thèses / accès à la bibliothèque (document papier)
Résumé
Résumé
Notre recherche porte sur le problème de contrôle de produits en défilement. L'application concerne l'industrie sidérurgique et, plus particulièrement l'identification de défauts de surface sur des tôles décapées. Dans un premier temps, nous la replaçons dans son contexte industriel et commercial. Le schéma général du système de reconnaissance est basé sur deux étapes: une identification de l'aspect de l'image, puis une identification des défauts. Les domaines de l'analyse de texture, du traitement d'image et des méthodes de discrimination ont été abordés. Nous avons constitué, avec l'aide d'un expert du domaine, une importante base d'images de défauts, sur laquelle nous avons mis en place une chaîne complète de traitements. Les taux de reconnaissance obtenus sont satisfaisants pour les deux étapes. Nous avons proposé une technique de mesure de performances du processus de reconnaissance, qui permet son optimisation, son évaluation en fonction d'un objectif de contrôle produits ou de contrôle process, ainsi que la comparaison avec d'autres systèmes. Notre méthode d'évaluation a permis de comparer objectivement plusieurs méthodes de discrimination neuronales et statistiques, et d'effectuer une sélection optimale des descripteurs de défauts. Enfin, nous avons montré la faisabilité en temps réel, de la chaîne de reconnaissance, en étudiant l'implantation matérielle ou logicielle des algorithmes.
Our research turns on the control problem of moving products. The application concerns the Iron and Steel industry, and specially the defects identification on pickled steel sheet. At first, we place the application into the industrial and commercial context. The global scheme of the recognition system is based on two stages: the image aspect identification, and then, the defects classification. Domains of texture analysis, image processing, and discrimination methods have been approached. We have made, with an expert of the domain, a significant database of defects images, on which we have constructed the entire processing sequence. Recognition rates obtained are satisfactory for the two stages. We have proposed a performance measure method of the recognition process.It allows to find its optimum, to value it for products control aim or process control aim, and to compare it with other systems. Our method allowed us to compare many statistical and neural discrimination methods and to select discriminant features of defects. Finally, the real-time feasibility of the recognition system has been showed: we have studied the implantation of algorithms in hardware or software.
Mot(s) clés libre(s) : TRAITEMENT IMAGE, RECONNAISSANCE FORME, DEFAUT SURFACE, VISION ORDINATEUR, TEMPS REEL, CONTROLE QUALITE, ANALYSE TEXTURE, RESEAU NEURONAL, CLASSEMENT, TOLE, SEGMENTATION, TELECOMMUNICATIONS. TRAIT.SIGNAL. TRAIT.IMAGE
 |  Notice