Recherche avancée sur les thèses de l'INSA de Lyon

  • 523 ressources ont été trouvées. Voici les résultats 1 à 10
Tri :   Titre Date Type de contenu Auteur
Pinet Claude. 10 clés pour la sécurité de l'information : ISO-CEI 27001, 2013. / Thèses / accès à la bibliothèque (document papier)
Résumé
Résumé
Quatrième de couverture : " Notre environnement quotidien est de plus en plus complexe et donc de plus en plus difficile à comprendre. Des techniques et des outils de plus en plus sophistiqués apparaissent et se développent. Toute organisation, avant d'entreprendre une action quelle qu'elle soit, doit se poser la question de l'évaluation des conséquences que cette action est susceptible d'entraîner. Et c'est probablement dans le domaine de l'information que l'impact des décisions et des actions peut s'avérer le plus difficile à appréhender. Or, l'absence de maîtrise des risques liés à la sécurité de l'information peut entraîner de lourdes répercussions. Dans cet ouvrage, Claude Pinet fait œuvre utile et s'adresse, d'une part, à tous les intervenants liés au système d'information et, d'autre part, à tout utilisateur de l'information afin d'améliorer la confiance dans les informations véhiculées. En s'appuyant sur la norme internationale ISO/CEI 27001, dans sa dernière mouture de 2013, il présente une approche basée sur la maîtrise des risques associés à la sécurité de l'information et sur l'amélioration continue. Il détaille et explique la structure et le contenu de la série des normes ISO/CEI 27000 qui traitent de la sécurité de l'information sans oublier de les replacer dans leur contexte. Il montre comment ces normes, bien comprises et bien mises en œuvre, constituent le référentiel pour l'élaboration et la certification d'un système de management de la sécurité de l'information (SMSI)"
Mot(s) clés libre(s) : Informatique, Système d'information, Sécurité du système d'information, Normalisation, Norme ISO/CEI 27000, Norme ISO/CEI 27001
 |  Notice

Clementini Eliseo. A conceptual framework for modelling spatial relations. 2009 / Thèses / accès numérique réservé
Résumé
Résumé
The models of spatial relations have stimulated great interest among researchers in spatial databases from the nineties. We can distinguish three different levels of representation where we can identify spatial relations: a purely geometric one, where objects are represented as point-sets and relations can be formally defined in mathematical terms; a computational level, where objects are represented as spatial data types and relations are calculated using spatial operators; a user level, where objects and relations correspond to the concepts of user context. >From a geometric point of view, we can consider a categorization of spatial relations in three groups: topological, projective, and metric. This dissertation proposes both a general framework for modelling qualitative spatial relations and presents new developments for projective relations. By providing a formal mathematical framework to a qualitative description of relations, the models are of great research interest in geographic information science. The most important geometric property that has been taken into account is the collinearity of three points. The importance of this property is such that it influences the whole approach, making ternary relations the formal basis of the models. We have developed algorithms to calculate the relations from a vector data structure and a reasoning system on ternary projective relations. We also extended the model to the three-dimensional space and the sphere. >From a user perspective, projective relations should consider context information, combining them with reference systems to avoid ambiguities in the meaning of the relation.
Les modèles pour les relations spatiales ont stimulé un grand intérêt parmi les chercheurs dans les bases de données spatiales des années 90. On peut distinguer trois niveaux différents de représentation où nous pouvons identifier des relations spatiales : un niveau purement géométrique, où des objets sont représentés comme ensembles de points et les relations peuvent être formellement définies en termes mathématiques ; un niveau informatique, où les objets sont représentés en tant que types de données spatiaux et les relations sont calculées au moyen d'opérateurs spatiaux ; un niveau utilisateur, où les objets et les relations correspondent aux concepts du contexte d'utilisateur. Du point de vue géométrique, on peut considérer une catégorisation des relations spatiales dans trois groupes : topologique, projectif, et métrique. Ce mémoire de thèse propose à la fois un cadre général pour la modélisation des relations spatiales qualitatives, et présente des nouveaux développements pour les relations projectives. En offrant un cadre mathématique formel à une description qualitative des relations, les modèles envisagés se révèlent d'un grand intérêt dans la recherche en sciences de l'information géographique. La propriété géométrique la plus importante qui a été prise en considération est la colinéarité entre trois points. L'importance de cette propriété est telle qu'elle conditionne toute l'approche, en faisant des relations ternaires la base formelle des modèles envisagés. Nous avons développé les algorithmes pour calculer les relations à partir d'une structure de données en format vectoriel et un système de raisonnement sur les relations projectives ternaires. On a aussi étendu les modèles vers l'espace trois-dimensionnelles et la sphère. Du point de vue de l'utilisateur, les relations projectives doivent envisager l'information sur le contexte, en les combinant avec des systèmes de référence pour ôter les ambiguïtés du sens de la relation.
Mot(s) clés libre(s) : INFORMATIQUE, BASE DONNEE SPATIALE, INFORMATION GEOGRAPHIQUE, MODELE GEOMETRIQUE, RELATION SPATIALE, ONTOLOGIE SPATIALE
 |  Notice  |  Texte intégral  |  Droits d'utilisation

Clementini Eliseo. A conceptual framework for modelling spatial relations. 2009 / Thèses / accès à la bibliothèque (document papier)
Résumé
Résumé
The models of spatial relations have stimulated great interest among researchers in spatial databases from the nineties. We can distinguish three different levels of representation where we can identify spatial relations: a purely geometric one, where objects are represented as point-sets and relations can be formally defined in mathematical terms; a computational level, where objects are represented as spatial data types and relations are calculated using spatial operators; a user level, where objects and relations correspond to the concepts of user context. >From a geometric point of view, we can consider a categorization of spatial relations in three groups: topological, projective, and metric. This dissertation proposes both a general framework for modelling qualitative spatial relations and presents new developments for projective relations. By providing a formal mathematical framework to a qualitative description of relations, the models are of great research interest in geographic information science. The most important geometric property that has been taken into account is the collinearity of three points. The importance of this property is such that it influences the whole approach, making ternary relations the formal basis of the models. We have developed algorithms to calculate the relations from a vector data structure and a reasoning system on ternary projective relations. We also extended the model to the three-dimensional space and the sphere. >From a user perspective, projective relations should consider context information, combining them with reference systems to avoid ambiguities in the meaning of the relation.
Les modèles pour les relations spatiales ont stimulé un grand intérêt parmi les chercheurs dans les bases de données spatiales des années 90. On peut distinguer trois niveaux différents de représentation où nous pouvons identifier des relations spatiales : un niveau purement géométrique, où des objets sont représentés comme ensembles de points et les relations peuvent être formellement définies en termes mathématiques ; un niveau informatique, où les objets sont représentés en tant que types de données spatiaux et les relations sont calculées au moyen d'opérateurs spatiaux ; un niveau utilisateur, où les objets et les relations correspondent aux concepts du contexte d'utilisateur. Du point de vue géométrique, on peut considérer une catégorisation des relations spatiales dans trois groupes : topologique, projectif, et métrique. Ce mémoire de thèse propose à la fois un cadre général pour la modélisation des relations spatiales qualitatives, et présente des nouveaux développements pour les relations projectives. En offrant un cadre mathématique formel à une description qualitative des relations, les modèles envisagés se révèlent d un grand intérêt dans la recherche en sciences de l information géographique. La propriété géométrique la plus importante qui a été prise en considération est la colinéarité entre trois points. L importance de cette propriété est telle qu elle conditionne toute l approche, en faisant des relations ternaires la base formelle des modèles envisagés. Nous avons développé les algorithmes pour calculer les relations à partir d'une structure de données en format vectoriel et un système de raisonnement sur les relations projectives ternaires. On a aussi étendu les modèles vers l espace trois-dimensionnelles et la sphère. Du point de vue de l utilisateur, les relations projectives doivent envisager l information sur le contexte, en les combinant avec des systèmes de référence pour ôter les ambiguïtés du sens de la relation
Mot(s) clés libre(s) : INFORMATIQUE, BASE DONNEE SPATIALE, INFORMATION GEOGRAPHIQUE, RELATION SPATIALE, ONTOLOGIE SPATIALE, MODELE GEOMETRIQUE
 |  Notice

Joly Adrien. A Context Management Framework based on Wisdom of Crowds for Social Awareness applications. 2010 / Thèses / accès à la bibliothèque (document papier)
Résumé
Résumé
A l'heure où les sites de réseaux sociaux transforment les usages sur le Web, les échanges entre personnes deviennent de plus en plus faciles, ludiques et riches. Le partage en temps réel de nouvelles, d'humeurs, et autres contenus (personnels ou personnellement sélectionnés) permet de tisser, de maintenir et de renforcer des liens sociaux entre personnes à des échelles encore inédites. Cependant, la quantité sans cesse croissante d'information circulant sur ces réseaux, souvent en temps réel, motive une régulation des signaux (ici appelées "interactions médiatisées"), de manière à réduire le temps nécessaire pour suivre ses réseaux sociaux, et modérer les interruptions induites, non favorables à une bonne productivité sur le traitement de tâches demandant une attention continue. Dans le cadre de cette thèse, nous avons développé un système de filtrage et de recommandation de ces signaux qui repose sur la similarité contextuelle entre utilisateurs, producteurs et consommateurs de ces signaux, pour évaluer leur pertinence. Notre approche consiste à agréger et interpréter les données de contexte sur les terminaux des utilisateurs, sous forme de mots-clés pondérés (tags), avant qu'elles ne puissent être exploitées par le serveur de recommandation, à la demande de l'utilisateur. Dans ce mémoire, nous présenterons un état de l'art couvrant la gestion de données contextuelles, les réseaux sociaux et leurs pratiques actuelles sur internet, et des techniques de recherche d'information. Ensuite, nous proposerons une formalisation de notre problématique de filtrage contextuel, l'implémentation d'une application de réseautage social d'entreprise, et nous discuterons les résultats expérimentaux obtenus auprès d'utilisateurs.
At a time when social networking sites revolutionize the usages on the Web 2.0, it has become rich, easy, and fun to share private or professional content. Sharing personal information in real-time (such as news, moods, etc ), supports the maintenance of social ties at a high scale. However, the information overload which emerged from the growing quantity of signals exchanged on these services, often in real-time, motivates a regulation of these signals (called "mediated interactions"), in order to reduce the temporal cost for maintaining social networks, and implied interruptions, which have a negative impact on productivity on tasks that require long-lasting attention. In the frame of this thesis, we have developed a filtering and recommendation system that relies on contextual similarity between users that produce and consume social signals, as relevance criteria. In our approach, contextual information is aggregated and interpreted on users' terminal(s), before being submitted on-demand to a server in the form of a set of weighted tags. In this thesis, we present a broad state of the art on context-awareness, social networks and information retrieval, we propose a formalization of our filtering problem, and we implement and evaluate its application for enterprise social networking
Mot(s) clés libre(s) : INFORMATIQUE, RECHERCHE INFORMATION, MODELISATION DONNEE, MODELISATION CONTEXTE, RESEAU SOCIAL, SYSTEME RECOMMANDATION, SURCHARGE INFORMATION
 |  Notice  |  Texte intégral

Joly Adrien. A Context Management Framework based on Wisdom of Crowds for Social Awareness applications. 2010 / Thèses / accès à la bibliothèque (document papier)
Résumé
Résumé
A l'heure où les sites de réseaux sociaux transforment les usages sur le Web, les échanges entre personnes deviennent de plus en plus faciles, ludiques et riches. Le partage en temps réel de nouvelles, d'humeurs, et autres contenus (personnels ou personnellement sélectionnés) permet de tisser, de maintenir et de renforcer des liens sociaux entre personnes à des échelles encore inédites. Cependant, la quantité sans cesse croissante d'information circulant sur ces réseaux, souvent en temps réel, motive une régulation des signaux (ici appelées "interactions médiatisées"), de manière à réduire le temps nécessaire pour suivre ses réseaux sociaux, et modérer les interruptions induites, non favorables à une bonne productivité sur le traitement de tâches demandant une attention continue. Dans le cadre de cette thèse, nous avons développé un système de filtrage et de recommandation de ces signaux qui repose sur la similarité contextuelle entre utilisateurs, producteurs et consommateurs de ces signaux, pour évaluer leur pertinence. Notre approche consiste à agréger et interpréter les données de contexte sur les terminaux des utilisateurs, sous forme de mots-clés pondérés (tags), avant qu'elles ne puissent être exploitées par le serveur de recommandation, à la demande de l'utilisateur. Dans ce mémoire, nous présenterons un état de l'art couvrant la gestion de données contextuelles, les réseaux sociaux et leurs pratiques actuelles sur internet, et des techniques de recherche d'information. Ensuite, nous proposerons une formalisation de notre problématique de filtrage contextuel, l'implémentation d'une application de réseautage social d'entreprise, et nous discuterons les résultats expérimentaux obtenus auprès d'utilisateurs.
At a time when social networking sites revolutionize the usages on the Web 2.0, it has become rich, easy, and fun to share private or professional content. Sharing personal information in real-time (such as news, moods, etc ), supports the maintenance of social ties at a high scale. However, the information overload which emerged from the growing quantity of signals exchanged on these services, often in real-time, motivates a regulation of these signals (called "mediated interactions"), in order to reduce the temporal cost for maintaining social networks, and implied interruptions, which have a negative impact on productivity on tasks that require long-lasting attention. In the frame of this thesis, we have developed a filtering and recommendation system that relies on contextual similarity between users that produce and consume social signals, as relevance criteria. In our approach, contextual information is aggregated and interpreted on users' terminal(s), before being submitted on-demand to a server in the form of a set of weighted tags. In this thesis, we present a broad state of the art on context-awareness, social networks and information retrieval, we propose a formalization of our filtering problem, and we implement and evaluate its application for enterprise social networking
Mot(s) clés libre(s) : INFORMATIQUE, RECHERCHE INFORMATION, MODELISATION DONNEE, MODELISATION CONTEXTE, RESEAU SOCIAL, SYSTEME RECOMMANDATION, SURCHARGE INFORMATION
 |  Notice

Gripay Yann. A declarative approach for pervasive environments : model and implementation. 2009 / Thèses / accès à la bibliothèque (document papier)
Résumé
Résumé
Querying non-conventional data is recognized as a major issue in new environments and applications such as those occurring in pervasive computing. A key issue is the ability to query data, streams and services in a declarative way in order to make the development of pervasive applications easier. In this thesis, we define a data-centric view of pervasive environments: the classical notion of database is extended to come up with a broader notion, the relational pervasive environment. We then define the so-called Serena algebra that enables the expression of one-shot or continuous queries homogeneously handling data, streams and services. A prototype of Pervasive Environment Management System has been implemented and experiments have been conducted in order to validate our approach.
Interroger des sources de données non-conventionnelles est reconnu comme une problématique majeure dans les nouveaux environnements comme ceux de l'informatique pervasive. Un point clé est la possibilité d'interroger des données, des flux de données et des services de manière déclarative afin de faciliter le développement d'applications pervasives. Dans cette thèse, nous définissons une vue orientée données des environnements pervasifs: la notion classique de base de données est étendue pour construire une notion plus large, l'environnement pervasif relationnel. Nous définissons également une algèbre, appelée algèbre Séréna, qui permet l'expression de requêtes continues ou ponctuelles traitant de manière homogène les données, flux de données et services. Un prototype de Système de Gestion d'Environnement Pervasif a été implémenté et des expérimentations ont été réalisées afin de valider notre approche.
Mot(s) clés libre(s) : INFORMATIQUE, BASE DONNEE, INFORMATIQUE PERVASIVE, INFORMATIQUE AMBIANTE, FLUX DONNEE, FLUX SERVICE, REQUETE
 |  Notice  |  Texte intégral

Gripay Yann. A declarative approach for pervasive environments : model and implementation. 2009 / Thèses, Ressources documentaires / accès à la bibliothèque (document papier)
Résumé
Résumé
Interroger des sources de données non-conventionnelles est reconnu comme une problématique majeure dans les nouveaux environnements comme ceux de l'informatique pervasive. Un point clé est la possibilité d'interroger des données, des flux de données et des services de manière déclarative afin de faciliter le développement d'applications pervasives. Dans cette thèse, nous définissons une vue orientée données des environnements pervasifs: la notion classique de base de données est étendue pour construire une notion plus large, l'environnement pervasif relationnel. Nous définissons également une algèbre, appelée algèbre Séréna, qui permet l'expression de requêtes continues ou ponctuelles traitant de manière homogène les données, flux de données et services. Un prototype de Système de Gestion d'Environnement Pervasif a été implémenté et des expérimentations ont été réalisées afin de valider notre approche.
Querying non-conventional data is recognized as a major issue in new environments and applications such as those occurring in pervasive computing. A key issue is the ability to query data, streams and services in a declarative way in order to make the development of pervasive applications easier. In this thesis, we define a data-centric view of pervasive environments: the classical notion of database is extended to come up with a broader notion, the relational pervasive environment. We then define the so-called Serena algebra that enables the expression of one-shot or continuous queries homogeneously handling data, streams and services. A prototype of Pervasive Environment Management System has been implemented and experiments have been conducted in order to validate our approach.
Mot(s) clés libre(s) : INFORMATIQUE, BASE DONNEE, INFORMATIQUE PERVASIVE, INFORMATIQUE AMBIANTE, FLUX DONNEE, FLUX SERVICE, REQUETE
 |  Notice

Da Silva Rafael Ferreira. A science-gateway for workflow executions : Online and non-clairvoyant self-healing of workflow executions on grids. 2013 / Thèses / accès à la bibliothèque (document papier)
Résumé
Résumé
Les science-gateways, telles que la Plate-forme d'Imagerie Virtuelle (VIP), permettent l'accès à un grand nombre de ressources de calcul et de stockage de manière transparente. Cependant, la quantité d'informations et de couches intergicielles utilisées créent beaucoup d'échecs et d'erreurs de système. Dans la pratique, ce sont souvent les administrateurs du système qui contrôlent le déroulement des expériences en réalisant des manipulations simples mais cruciales, comme par exemple replanifier une tâche, redémarrer un service, supprimer une exécution défaillante, ou copier des données dans des unités de stockages fiables. De cette manière, la qualité de service fournie est correcte mais demande une intervention humaine importante. Automatiser ces opérations constitue un défi pour deux raisons. Premièrement, la charge de la plate-forme est en ligne, c est-à-dire que de nouvelles exécutions peuvent se présenter à tout moment. Aucune prédiction sur l activité des utilisateurs n'est donc possible. De fait, les modèles, décisions et actions considérés doivent rester simples et produire des résultats pendant l exécution de l'application. Deuxièmement, la plate-forme est non-clairvoyante à cause du manque d'information concernant les applications et ressources en production. Les ressources de calcul sont d'ordinaire fournies dynamiquement par des grappes hétérogènes, des clouds ou des grilles de volontaires, sans estimation fiable de leur disponibilité ou de leur caractéristiques. Les temps d'exécution des applications sont difficilement estimables également, en particulier dans le cas de ressources de calculs hétérogènes. Dans ce manuscrit, nous proposons un mécanisme d'auto-guérison pour la détection autonome et traitement des incidents opérationnels dans les exécutions des chaînes de traitement. Les objets considérés sont modélisés comme des automates finis à états flous (FuSM) où le degré de pertinence d'un incident est déterminé par un processus externe de guérison. Les modèles utilisés pour déterminer le degré de pertinence reposent sur l'hypothèse que les erreurs, par exemple un site ou une invocation se comportant différemment des autres, sont rares. Le mécanisme d'auto-guérison détermine le seuil de gravité des erreurs à partir de l'historique de la plate-forme. Un ensemble d'actions spécifiques est alors sélectionné par règle d'association en fonction du niveau d'erreur.
Science gateways, such as the Virtual Imaging Platform (VIP), enable transparent access to distributed computing and storage resources for scientific computations. However, their large scale and the number of middleware systems involved in these gateways lead to many errors and faults. In practice, science gateways are often backed by substantial support staff who monitors running experiments by performing simple yet crucial actions such as rescheduling tasks, restarting services, killing misbehaving runs or replicating data files to reliable storage facilities. Fair quality of service (QoS) can then be delivered, yet with important human intervention. Automating such operations is challenging for two reasons. First, the problem is online by nature because no reliable user activity prediction can be assumed, and new workloads may arrive at any time. Therefore, the considered metrics, decisions and actions have to remain simple and to yield results while the application is still executing. Second, it is non-clairvoyant due to the lack of information about applications and resources in production conditions. Computing resources are usually dynamically provisioned from heterogeneous clusters, clouds or desktop grids without any reliable estimate of their availability and characteristics. Models of application execution times are hardly available either, in particular on heterogeneous computing resources. In this thesis, we propose a general self-healing process for autonomous detection and handling of operational incidents in workflow executions. Instances are modeled as Fuzzy Finite State Machines (FuSM) where state degrees of membership are determined by an external healing process. Degrees of membership are computed from metrics assuming that incidents have outlier performance, e.g. a site or a particular invocation behaves differently than the others. Based on incident degrees, the healing process identifies incident levels using thresholds determined from the platform history. A specific set of actions is then selected from association rules among incident levels.
Mot(s) clés libre(s) : Informatique, Système distribué, Plateforme scientifique, Multitraitement de données, Workflow, Détection autonome d'erreurs, Traitement des erreurs, Information technology, Distributed system, Science gateway, Data multitreatment, Autonomouserrors detection, Error correction
 |  Notice

Da Silva Rafael Ferreira. A science-gateway for workflow executions : Online and non-clairvoyant self-healing of workflow executions on grids. 2013 / Thèses / accès numérique libre
Résumé
Résumé
Les science-gateways, telles que la Plate-forme d'Imagerie Virtuelle (VIP), permettent l'accès à un grand nombre de ressources de calcul et de stockage de manière transparente. Cependant, la quantité d'informations et de couches intergicielles utilisées créent beaucoup d'échecs et d'erreurs de système. Dans la pratique, ce sont souvent les administrateurs du système qui contrôlent le déroulement des expériences en réalisant des manipulations simples mais cruciales, comme par exemple replanifier une tâche, redémarrer un service, supprimer une exécution défaillante, ou copier des données dans des unités de stockages fiables. De cette manière, la qualité de service fournie est correcte mais demande une intervention humaine importante. Automatiser ces opérations constitue un défi pour deux raisons. Premièrement, la charge de la plate-forme est en ligne, c est-à-dire que de nouvelles exécutions peuvent se présenter à tout moment. Aucune prédiction sur l activité des utilisateurs n'est donc possible. De fait, les modèles, décisions et actions considérés doivent rester simples et produire des résultats pendant l exécution de l'application. Deuxièmement, la plate-forme est non-clairvoyante à cause du manque d'information concernant les applications et ressources en production. Les ressources de calcul sont d'ordinaire fournies dynamiquement par des grappes hétérogènes, des clouds ou des grilles de volontaires, sans estimation fiable de leur disponibilité ou de leur caractéristiques. Les temps d'exécution des applications sont difficilement estimables également, en particulier dans le cas de ressources de calculs hétérogènes. Dans ce manuscrit, nous proposons un mécanisme d'auto-guérison pour la détection autonome et traitement des incidents opérationnels dans les exécutions des chaînes de traitement. Les objets considérés sont modélisés comme des automates finis à états flous (FuSM) où le degré de pertinence d'un incident est déterminé par un processus externe de guérison. Les modèles utilisés pour déterminer le degré de pertinence reposent sur l'hypothèse que les erreurs, par exemple un site ou une invocation se comportant différemment des autres, sont rares. Le mécanisme d'auto-guérison détermine le seuil de gravité des erreurs à partir de l'historique de la plate-forme. Un ensemble d'actions spécifiques est alors sélectionné par règle d'association en fonction du niveau d'erreur.
Science gateways, such as the Virtual Imaging Platform (VIP), enable transparent access to distributed computing and storage resources for scientific computations. However, their large scale and the number of middleware systems involved in these gateways lead to many errors and faults. In practice, science gateways are often backed by substantial support staff who monitors running experiments by performing simple yet crucial actions such as rescheduling tasks, restarting services, killing misbehaving runs or replicating data files to reliable storage facilities. Fair quality of service (QoS) can then be delivered, yet with important human intervention. Automating such operations is challenging for two reasons. First, the problem is online by nature because no reliable user activity prediction can be assumed, and new workloads may arrive at any time. Therefore, the considered metrics, decisions and actions have to remain simple and to yield results while the application is still executing. Second, it is non-clairvoyant due to the lack of information about applications and resources in production conditions. Computing resources are usually dynamically provisioned from heterogeneous clusters, clouds or desktop grids without any reliable estimate of their availability and characteristics. Models of application execution times are hardly available either, in particular on heterogeneous computing resources. In this thesis, we propose a general self-healing process for autonomous detection and handling of operational incidents in workflow executions. Instances are modeled as Fuzzy Finite State Machines (FuSM) where state degrees of membership are determined by an external healing process. Degrees of membership are computed from metrics assuming that incidents have outlier performance, e.g. a site or a particular invocation behaves differently than the others. Based on incident degrees, the healing process identifies incident levels using thresholds determined from the platform history. A specific set of actions is then selected from association rules among incident levels.
Mot(s) clés libre(s) : Informatique, Système distribué, Plateforme scientifique, Multitraitement de données, Workflow, Détection autonome d'erreurs, Traitement des erreurs, Information technology, Distributed system, Science gateway, Data multitreatment, Autonomouserrors detection, Error correction
 |  Notice  |  Texte intégral  |  Droits d'utilisation

Lbath Ahmed. A.I.G.L.E. : un environnement visuel pour la conception et la génération automatique d'applications géomatiques. 1997 / Thèses / accès à la bibliothèque (document papier)
Résumé
Résumé
Les Systèmes d’Information possède des domaines d’application très variés et son souvent difficilement personnalisables pour un utilisateur final non expert. De plus les données gérées dans les SIG peuvent être de nature complexe (vecteur ou rasteur). Le modèles mental de l’utilisateur final n’est pas pris en compte ni dans les langages d’interrogation existants, ni dans les méthodes de conception rencontrées. Face à ces problèmes, les principaux SIG rencontrés offrent des environnements propriétaires et des solutions « clefs en main ». Aussi a-t-il été nécessaire de mettre en œuvre un atelier visuel, nommé AIGLE, dédié à la conception et la génération automatique d’applications géomatiques portables sur plusieurs SIG. La portabilité est garantie par la définition d’un langage intermédiaire qui à été implanté dans l’atelier. La prise en compte du modèle mental de l’utilisateur se concrétise par la définition d’un environnement visuel intégré, d’une part, une méthode de conception « visuelle » orientée objet, nommée OMEGA, base sur l’utilisation de métaphores visuelles et un modèle de validation avec l’utilisateur final dès les phases d’analyse et de conception et d’autre part, la définition d’un langage d’interrogation visuel encapsulant un langage d’interrogation intermédiaire. Afin de valider notre approche, un prototype a été réalisé et validé par la génération d’une application-exemple qui a été commercialisée et installée dans un site pilote.
The Geographical Information Systems (GIS) applications domain is very large. Nowadays marketed GfS are closed regarding applications. Each geographical application needs specific development which is time consuming and which is dedicated to a specific GIS. Moreover, in GIS, manipulated spatial data could be complex (raster or vector). Mental model of the end-user is not considered in the method design aspect; it is not taken into account in the query language aspect. Regarding these problems no real solution exists and most of marketed GIS are still proprietary systems. Our aim is to develop a new visual CASE tool named AIGLE, capable of generating various applications on several GIS platforms. The problem of portability leads us to integrate an intermediate language into the CASE tool. This CASE tool supports, in one hand, a visual object oriented method named OMEGA, and, in the other hand, a visual query language. OMEGA is dedicated to the design and development of geographical end-user applications. This method uses a visual iconic metaphors for the representation of object classes and dynamic state diagrams. In the visual query language for GIS two important levels are defined: end-user level with iconic metaphors and technical level with graphical representation of class abject. The iconic metaphors could represent data or queries. For data, iconic metaphors should be defined in the design stage with OMEGA. The proposed visual language is translated into an intermediate query language before being generated into a specific target GIS. In order to validate our approach a prototype has been developed and an example of geographical application has been generated and marketed.
Mot(s) clés libre(s) : INFORMATIQUE, GEOMATIQUE, SIG, SYSTEME INFORMATION GEOGRAPHIQUE, AGL, ATELIER GENIE LOGICIEL, CONCEPTION APPLICATION, SGBD, LANGAGE VISUEL, ATELIER VISUEL, AIGLE, INTERFACE UTILISATEUR, CONCEPTION VISUELLE, OMEGA, OBJECT METHOD END-USER GEOGRAPHICAL APPLICATION
 |  Notice