RIST

Revue d'Information Scientifique et Technique

Fichiers logs : preuves judiciaires et composant vital pour Forensics

Ce papier est une réflexion qui adresse la fragilité de la sécurité informatique due à ses fondements préventifs. Il démontre le besoin de la sécurité préventive à une couche supplémentaire de protection à savoir un système de surveillance pouvant déterminer les attaques en cours et un cadre judiciaire permettant la résolution des attaques. C’est ainsi que les méthodes du Forensics sont introduites dans le domaine de la sécurité informatique. Network Computer Forensics est une discipline émergente comme moyen de réponse aux attaques informatiques en leur donnant une dimension judiciaire. Nous montrons que Forensics s’appuie sur le contenu des fichiers logs pour concevoir la preuve judiciaire et mener une investigation informatique. L’objectif de ce papier est de montrer que les fichiers logs qui sont souvent négligés et sans importance constituent désormais une loupe de sécurité et un patrimoine informationnel sensible et vital pour forensics.

Document joint:

pdf6

Une Approche multi-agents pour la modélisation et l’optimisation des Systèmes de gestion de transport maritime

La planification des tâches dans le transport est un problème difficile qui nécessite l’utilisation de techniques analytiques et de méthodes de modélisation issues de la recherche opérationnelle, de l’intelligence artificielle distribuée (systèmes multi-agents), de l’analyse de décision, et de bien d’autres disciplines. Notre contribution à ce problème consiste à proposer une modélisation des systèmes de gestion de transport maritime (SGTM) par un système multi-agents. Cette modélisation est basée sur la classification d’un SGTM en trois sous-systèmes : un sous-système superviseur chargé de la gestion et de la supervision de la flotte des navires, un sous-système ergonomique chargé de l’aide à la conduite et l’assistance au commandant du navire et un sous-système de planification. Pour améliorer les performances de notre système multi-agents, nous avons utilisé les algorithmes génétiques couplés avec la méthode de Recherche Taboue pour la résolution du problème de routage des bateaux et avons déployé les réseaux de neurones pour l’optimisation des opérations de chargement / déchargement.

Document joint:

pdf5

Optimisation de la compression fractale D’images basée sur les réseaux de neurones

La phase de codage de la compression fractale d’images pose un grand problème, du fait du temps qu’elle consomme, à cause du grand nombre de calcul nécessaire pour le codage. Des améliorations ont été apportées à la méthode classique (classification, partitionnement), mais ça n’a pas donné les améliorations au niveau de temps de calcul. Dans cet article on a exploité les réseaux de neurones pour accélérer la phase de codage. Le type de réseau de neurones qui a été proposé est le SOM ( Self Organizing Map ou carte auto- organisatrice ). L’idée est d’utiliser la capacité des réseaux SOM dans la classification, dans la réduction de l’espace de recherche des blocs domaines .
Le réseau de Kohonen a été appliqué avec une compression fractale utilisant l’algorithme adaptatif .L’algorithme adaptatif consiste à chercher pour un bloc source le meilleur bloc destination avec les paramètres de transformation contractante équivalente La méthode proposée par A.Bogdan et H.Meadows [2] présente deux inconvénients , tout d’abord sa lenteur puisqu’une seule itération consomme 30 minutes à cause de la grande dimension d’entrée, et son incapacité à s’adapter à un partitionnement variable.
La méthode proposée par Stephen Welstead [3] utilise ce même type de réseau de neurones, mais d’une façon améliorée en codant les blocs non pas sur la base des pixels, mais sur la base d’un petit nombre de caractères de texture et de style du bloc. Pour accélérer la phase de compression fractale utilisant les carte auto- organisatrice (SOM ) , on a pensé à réduire la dimension de l’entrée .Les vecteurs caractères sont indépendants de la taille et de la forme des blocs à partir des quels ces blocs sont extraits. Ainsi le réseau résultant pourra être utilisé pour une image différente : L’apprentissage ne se fera qu’une seule fois et le temps nécessaire pour l’apprentissage ne sera plus compté avec le temps de codage. Une autre amélioration consiste à ne pas appliquer directement l’algorithme du codage fractal utilisant les carte auto- organisatrice sur les pixels mais plutôt sur des mesures calculées sur l’ensemble des pixels du bloc sur la base d’un petit nombre de caractères de texture et de style du bloc. Le champ de recherche est réduit avec le réseau de neurones, ce qui a engendré une réduction du temps de codage. Le temps d’exécution est amélioré de un tiers par rapport à celui consommé dans la méthode de base sans le réseau de neurones.

Document joint:

pdf4

Vers Une Implémentation d’un Système d’Enseignement à Distance basé sur le filtrage

L’objectif de ce papier est de proposer une approche qui permet de modéliser et d’implémenter par la suite un système d’enseignement à distance avec différents points de vue. Certes, nous sommes tenus de formuler notre solution selon la notation de la norme UML. Cependant, la visibilité offerte par l’UML est insuffisante pour supporter l’aspect dynamique des points de vue. Pour pallier ce problème, nous avons défini un mécanisme de filtrage basé sur l’UML qui permet de filtrer les services offerts par une classe d’un système selon ses points de vue. Cet ajout permettra de compléter la visibilité UML et de mettre en œuvre le code d’un système d’enseignement à distance par la majorité des langages objets du marché tels que JAVA, C++,..

Document joint:

pdf2

La Théorie des jeux et la pensée en réseau : Dynamique hypertextuelle et réticulaire

Cette contribution cherchera à dresser un parallèle entre certains concepts basiques de la théorie des jeux en mathématique et les principes de la navigation hypertextuelle. Elle montrera aussi la spécificité de l’hypertexte appliqué par rapport à ses balbutiements que sont Memex et le microfilm. Ce retour aux sources de la pensée hypertextuelle permettra de mettre en relief les fonctionnalités multimédiatiques de la toile. En outre, elle conduira notre réflexion vers l’explication de la notion de paradigme de navigation issu de l’épistémologie. Cette discipline philosophique tisse un lien entre la formulation d’hypothèses et la prises de décisions lors d’une navigation. De plus en s’inspirant de la théorie des jeux nous proposerons les concepts de déplacement symétriques et convergents. La sémiotique des déplacements permet de faire le lien entre les stratégies heuristiques et herméneutiques mises en place par un joueur et celles employées par l’internaute dans les séances de navigation.

Document joint:

pdf1

ALGORITHME DE CONTROLE REACTIF DE LA CONGESTION SUR UN NOEUD ATM

L’ATM, est l’un des modes de transmission envisagé pour les autoroutes de l’information de l’avenir. Son étude pose de nombreux problèmes techniques ; aussi nombreux que complexes et variés. Parmi ceux-ci l’apparition de la congestion sur un nœud du réseau. Le contrôle de la congestion est l’un des aspects fondamentaux de la conception d’un réseau de transmission ATM, dont dépendent fortement les performances de ce réseau (délai, variations de délai, bande passante, etc.) et par conséquent la qualité de service. Cet article, aborde ce problème et analyse le phénomène de la congestion. Il propose un algorithme d’adaptation du débit des sources avec l’évolution de l’état de congestion du nœud par une approche réactive.

Document joint:

pdf9

LES ALGORITHMES GENETIQUES APPLICATION A LA SEGMENTATION DES IMAGES

Les algorithmes génétiques ont des propriétés qui en font des candidats de choix pour résoudre des problèmes d’optimisation dans lesquels la taille de l’espace de recherche est importante, où les paramètres interagissent de manière complexe et où très peu d’informations sur la fonction à optimiser sont disponibles. Ces propriétés ont motivé leur application à divers domaines. Dans ce papier, nous présentons les fondements des AGs ; les travaux récents effectués en analyse d’images et plus particulièrement en segmentation ; nous étudions en détails et appliquons un algorithme non supervisé de segmentation, nous l’améliorons en proposant un nouvel opérateur de mutation. Et avec le multiseuillage par Fisher, nous l’avons adapté à la détection des corps cellulaires dans des images de cellules biologiques du col.

Document joint:

pdf8

DATA MINING SPATIAL UN PROBLEME DE DATA MINING MULTI-TABLES

La principale caractéristique du data mining spatial est qu’il considère les relations spatiales. Ces relations sont à l’origine implicites et nécessitent des jointures spatiales complexes et coûteuses sur des critères spatiaux pour être exhibées. Nous avons proposé dans nos travaux antérieurs de les rendre explicites en utilisant une structure secondaire dite ²index de jointure spatiale² Erreur ! Source du renvoi introuvable.. L’idée est de pré-calculer les relations spatiales exactes entre les localisations de deux collections d’objets spatiaux et de les stocker dans une table secondaire de type (objet1, objet2, relation spatiale). Dès lors, les relations spatiales sont traduites dans un schéma relationnel
classique et les jointures spatiales s’expriment par des jointures relationnelles via l’index de jointure spatiale. Outre le fait que cette jointure via l’index est bien plus performante qu’une jointure spatiale, cette organisation relationnelle ramène la data mining spatial à un cadre plus général, dit data mining multi-tables. Contrairement au data mining classique où les données en entrée sont représentées dans une table unique où chaque tuple constitue une observation à analyser, la data mining multi-tables traite des données organisées dans plusieurs tables et exploite les liens logiques entre ces tables.
Pour résoudre ce problème multi-tables et pour faire du data mining spatial, nous proposons, dans cet article, une approche en deux étapes. La première étape transforme, grâce à un opérateur CROISEMENT que nous proposons, la structure multi-tables des données en une table unique tout en gardant des informations sur le voisinage et les relation spatiales. L’idée de cet opérateur est de compléter, et non de joindre, la table à analyser par les données présentes dans les autres tables. La seconde étape applique une méthode traditionnelle de data mining. Cet article présentera cette approche et cet opérateur. Il décrira leur application à la classification supervisée par arbre de décision spatial et il présentera les expérimentations réalisées et les résultats obtenus sur l’analyse du risque d’accident routiers.

Document joint:

pdf7

XML_GFD : UN GENERATEUR DYNAMIQUE DE FORMULAIRES XLM VALIDES DTD

Actuellement, Internet est l’outil par excellence pour la diffusion et l’échange d’informations. Il est aujourd’hui au centre d’un ensemble de nouveaux besoins qui le placent au cœur d’un ensemble de défis technologiques. Une des conditions pour accomplir ces évolutions, est que la structuration et la description des données diffusées et échangées sur le Web doivent être rigoureuses et normalisées. De nouvelles technologies sont donc nécessaires. C’est pourquoi qu’un grand espoir est bâti sur la technologie XML qui est pressentie comme une solution aux insuffisances de HTML. Toutefois, et malgré la profusion d’éditeurs XML, tout le monde s’accorde à dire qu’ils sont dans leur majeure partie complexes et destinés à des usagers ayant des connaissances et des qualifications requises dans le domaine. Par conséquent, il en résulte pour les entreprises désirant s’approprier cette technologie, un coût de production élevé qui peut leurs représenter une contrainte insurmontable. Dans cet article, nous allons présenter un générateur dynamique de formulaires pour l’édition de documents Xml valides-DTD, qui se veut une solution pour une production accessible sans contrainte de profil et à moindre coût.

Document joint:

pdf6