RIST

Revue d'Information Scientifique et Technique

Vers la gestion des bases de données fondée sur les logiques de descriptions

Cet article décrit une approche d’enrichissement des bases de données fondée sur les logiques de descriptions. Ces dernières consistent à comprendre les aspects structurels et sémantiques des bases existantes dans le but de découvrir de nouvelles connaissances permettant le passage à des modèles plus évolués. L’hétérogénéité à différents niveaux ( sémantiques, structurels, descriptifs) implique la traduction des bases de données locales dans un modèle canonique plus riche dont le choix est fondamental car il joue un rôle important dans la comparaison des schémas locaux et dans la détection des conflits inter-schémas. Le modèle canonique est défini dans le langage de concepts, qui est développé au sein de notre laboratoire comme outil de représentation et de raisonnement. Ce langage utilise la notion de classes pour produire des descriptions qui sont, en plus, utilisées dans le raisonnement. Les logiques de descriptions décrivent la structure des objets, à un niveau terminologique, en termes de concepts et de rôles. Une sémantique ensembliste est ensuite donnée pour associer un sens aux termes utilisés dans la description.

Document joint:

pdf6

Digital image segmentation: a state of art of the différent methods

Une image est une représentation planaire d’une scène ou d’un objet situé en général dans un espace tridimensionnel. L’information élémentaire associée à chaque point de l‘image est transcrite en niveau de gris ou en couleur . L’analyse pertinentes de l’image en regard de l’application concernée, les traiter et les interpréter. La segmentation est un traitement de bas -niveau qui consiste à créer une partition de l’image en sous-ensembles appelés régions. Une région est un ensemble connexe de points images (pixel) ayant des propriétés communes ( intensité, texture,…) qui les différencient des pixels des régions voisines. Les connaissances utilisées sont le plus souvent du domaines de l’images numérique et du traitement du signal, donc sémantiquement assez pauvres. Il n’y a pas de méthodes unique de segmentation d’une image, le choix d’une technique est lié à plusieurs facteurs. Du fait de cette diversité, il est difficile de définir de manière absolu une « bonne » segmentation. La segmentation n’est pas une fin en soi, sa qualité est fonction des résultats obtenus par les traitements situés en aval qui utilisent les primitives extraites. Nous allons dans cet article faire un survol des méthodes de segmentations les plus utilisées.

Document joint:

pdf5

Validation temps réel d’algorithmes de traitement d’image sur une architecture reconfigurable : application au codage d’images et à la détection de mouvements

Nous présentons dans ce travail une expérience d’adéquation Algorithme / Architecture pour le prototypage d’un codeur d’images temps réel destiné à la télésurveillance. Ce dernier met en œuvre deux algorithmes : le premier pour la compression et le stockage des scènes surveillées, le second pour l’extraction et la transmission de la silhouette des objets mobiles. Afin de réduire les coût de développement, la technologie reconfigurable ( FPGA) a été choisie. Cette dernière permet de développer et de tester en temps réel et à moindre coût divers algorithmes de traitement d’images, sans avoir effectue trop de modifications pour passer d’une application à une autre .

Document joint:

pdf4

La formation universitaire via internet : présentation générale, ingénierie pédagogique et plates-formes

Cet article présente un guide pour la conduite d’un projet de e-learning à l’université. Celle-ci peut se diviser en deux parties distinctes : l’ingénierie pédagogique et la solution logicielle. Une présentation générale est d’abord donnée citant les avantages et les problèmes envisagés dans ce mode d’enseignement, une procédure pour le choix d’une plate-forme peuvent présenter un intérêt pour nos universités. L’une d’entre-elles ouverte et gratuite peut servir dans le cadre d’une opération pilote.

Document joint:

pdf3

Les Projets NTIC: source de performance de l’entreprise

A travers ce papier, nous essayons de montrer l’apport des NTIC (Nouvelles Technologies de l’Information et de la Communication) comme moyen moderne et incontournable pour toute entreprise qui se veut être une référence. De faire ressortir les aspects liés à l’organisation et au management basés sur une stratégie à adopter pour faire face à tout projet NTIC, tout en identifiant et mesurant les avantages et les coût de tels projets. De faire évoluer la culture et les règles de gestion des organisations en fonction des nouvelles nécessités engendrées par les Technologies de l’information et de la communication.

Document joint:

pdf2

La Cryptographie et ses principaux systèmes de références

Lorsque les entreprises et les universités n’avaient qu’un seul centre d’ordinateur, le problème de sécurité ne se pose pas. Il suffit de placer un garde à l’entrée de la salle. Maintenant avec la venue des réseaux, l’emploi des liaison satellites et l’utilisation de l’Internet la situation a radicalement changé, dans la mesure où un même message transite par plusieurs machines avant d’atteindre son destinataire. A chaque étape, il peut être copié, perdu ou altéré. Le cryptage est donc nécessaire pour que les données soit non-intelligibles sauf à l’auditoire voulu. Avant (l’apparition des ordinateurs), la cryptographie trait des crypto systèmes basés sur les lettres ou caractères. Les différents algorithmes cryptographiques remplaçaient des caractères par d’autres ou transposaient les caractères. Les meilleurs systèmes faisaient les deux opérations plusieurs fois. La cryptographie de nos jours (l’ère des ordinateurs) est plus complexe, mais la philosophie est restée la même. La différence majeure est que les algorithmes actuels manipulent les bits au lieu des caractères. Ce n’est finalement qu’un changement de taille d’alphabet on passe de 36 éléments alphanumériques à 2 éléments binaires (0 et le 1) et rien de plus. L’objectif de cette communication est d’introduire la cryptologie et les principaux systèmes de cryptage à clé secrète (DES) à clé publique (RSA) ; l’algorithme de la signature électronique (DSA) et l’algorithme à clé mixte (PGP).

Document joint:

pdf1

A Java-Web-Based-Learning Methodology, Case Study : Waterborne diseases

Les développements récents des technologies Web ont fait émerger de nouvelles approches pour l’enseignement assisté par ordinateur. En effet, l’apprenant peut apprendre indépendamment des contraintes de temps et de lieu. Plusieurs systèmes basés sur le Web ont été développés. Cependant, ils demeurent limités : ils ne peuvent pas contrôler et guider l’apprenant vu le manque d’interactivité du Web. Dans cet article, nous présentons une approche basée sur Java pour la conception de systèmes d’enseignement qui surmontent les limites des systèmes existants. Cette approche offre un apprentissage à distance, invidualisé tenant compte du rythme de l’apprenant et supportant ainsi un haut niveau d’interactivité. Une étude de cas est présentée concernant les maladies à transmission hydrique.

Document joint:

pdf8

Intégration des données multimédias dans les Systèmes d’Information Géographique

La grande croissance des besoins et des exigences des utilisateurs en terme de nouvelles applications dans le domaine des Systèmes d`Information Géographique ( SIG) obéit à une conséquence logique, due essentiellement au développement considérable de la technologie numérique, grâce à laquelle, la cohabitation du texte, de l`image , du son et de la vidéo est rendue possible. Cependant la diversité et la richesse de cette information multimédia pose le problème de son intégration, de sa gestion et de sa présentation au sein d`un même système. Dans cet article, une approche pour la prise en charge de ce problème est proposée. Elle est basée sur une gestion – création, mise à jour et exploitation – d`un réseau d`information hypermédia.

Document joint:

pdf7

Découverte des Connaissances dans les Bases de Données: une approche centrée objet

Cet article consiste à extraire automatiquement des connaissances implicites à partir d’une base de données. Ce travail relève du domaine des systèmes de découverte de connaissances dans les bases de données (Knowledge Discovery in Databases), domaine de recherche à l’intersection des bases de données, de l’intelligence artificielle, de l’apprentissage automatique et des statistiques. Pour exprimer les connaissances extraites à partir d’une base de données en termes de concepts généralisés de haut de niveau, et non en termes de données initiales, nous avons intégré des connaissances supplémentaires (connaissances du domaine d’application) qui sont données par l’expert du domaine. Cette connaissance du domaine, formalisée en terme de hiérarchie de concepts, permet de généraliser les valeurs initiales d’une base de données. Les connaissances découvertes peuvent être formalisées en termes de concepts généralisés de haut de niveau, forme symbolique facilement compréhensible par l’utilisateur, sans aucune nouvelle interprétation. Elles peuvent être utilisées pour compléter la construction d’une base de connaissances par exemple, ou aider à la prise de décision lors du processus d’une analyse symbolique numérique de données.

Document joint:

pdf6