Magister Thesis

Permanent URI for this collection

Browse

Recent Submissions

Now showing 1 - 12 of 12
  • ItemOpen Access
    UTILISATION DES METAHEURISTIQUES POUR RESOUDRE UN PROBLEME D’ORDONNANCEMENT SUR MACHINE A CONTRAINTE DE RESSOURCE NON RENOUVELABLE
    (University of M'sila, 2006-06-10) MEHENNI, Tahar; Rapporteur: BELOUADAH, Hocine
    L’objet de cette thèse est la résolution des problèmes d’ordonnancement sur machine en présence d’une ressource non renouvelable (ou consommable). Chaque tâche nécessite une quantité de ressource pour qu’elle soit exécutée. Le problème consiste à trouver un ordonnancement qui minimise la somme pondérée des dates de fin d’exécution des tâches en satisfaisant la contrainte de ressource. Nous proposons deux métaheuristiques afin de résoudre ce problème. La première consiste à utiliser une recherche locale basée sur un voisinage obtenu par les techniques de séparation et évaluation. Deux bornes inférieures sont proposées pour permettre une évaluation de cette méthode. La seconde métaheuristique considérée est la recherche tabou qui utilise une liste taboue dynamique ainsi qu’une nouvelle technique de diversification basée sur l’utilisation d’une mémoire à long terme contenant les premières meilleures solutions non retenues lors de la recherche. Deux voisinages sont proposés pour évaluer l’efficacité de cette méthode. Enfin, nous effectuons une étude comparative des deux métaheuristiques utilisées afin de montrer leur efficacité dans la résolution de notre problème.
  • ItemOpen Access
    INDEXATION DES IMAGES DANS UN ENVIRONNEMENT DISTRIBUE (JINI)
    (University of M'sila, 2007-06-10) LAKEHAL, Meftah; Rapporteur: BOUDERAH, Brahim
    L’indexation et la recherche des images par le contenu (CBIR), constituent un domaine de recherche très varié étant donné le développement de l’image numérique. Du point de vue de l’indexation, nous proposons d’appliquer la transformé en ondelettes communément avec les moments et invariants comme des outils puissants pour le calcul de signatures en se basant sur l’information texture relative des images. Du point de vue de la recherche, nous utilisons le principe de la recherche par similarité selon lequel les images sont ordonnées à l’aide de la mesure de similarité à la requête. Cette dernière prend la forme d’une image exemple. Dans ce même cadre, nous utilisons la distance géométrique entre les signatures. aussi il y a un survol sur les architectures distribuées, où nous espérons un CBIR distribué.
  • ItemOpen Access
    INTEROPERABILITE DES BASES DE DONNEES HETEROGENES ET REPARTIES
    (University of M'sila, 2006-06-10) KADRI, Said; Rapporteur: AHMED, Nacer Mohamed
    L'interopérabilité des bases de données et des SGBD, ou d'une manière générale entre systèmes d'informations hétérogènes et répartis, est devenue une nécessité pour répondre aux besoins d'échange et de communication. elle prend aujourd'hui une large place surtout avec l'interconnexion massive des systèmes d'informations via Internet et intranet ou extranet . l'interopérabilité peut être définie par la capacité des systèmes d'informations à se collaborer, même s'ils ont des natures très différentes, afin de réaliser des fonctionnalités communes . Notre étude est concentrée sur l'interopérabilité des bases de données hétérogènes et réparties. On est arrivé à présenter un état de l'art du domaine, à exposer les différentes approches conçues pour réaliser cette interopérabilité, dont les plus connues sont : * l'approche de médiation de schémas qui met l'accent sur deux composants fondamentaux : le médiateur et l'adaptateur . * L'approche de médiation de contexte orientée sémantique, qui exploite les capacités des ontologies, des contextes de coopération, et qui peut résoudre la plupart des conflits sémantiques . * L'approche de fédération qui base essentiellement sur la notion de l'intégration des données suivant un modèle commun appelé modèle pivot . * L'approche entrepôt de données orientée beaucoup plus aux besoins des systèmes décisionnels, surtout au niveau des entreprises qui reçoivent et traitent des flux très importants d'informations . L'étude comparative sur ces différentes approches a aboutit à un résultat très évident en faveur de l'approche XML, comme étant un standard très répandu d'échange et d'interopérabilité . L'étude est terminée par la proposition d'une nouvelle approche qui combine entre les trois approches, à savoir : l'approche de médiation de schémas, de médiation de contexte, et l'approche XML, et qui adopte une architecture multi-agents .
  • ItemOpen Access
    RESOLUTION D’UN PROBLEME D’ORDONNANCEMENT SUR UNE MACHINE AVEC DATE ECHUE COMMUNE PAR LA PROGRAMMATION DYNAMIQUE ET LA RELAXATION LAGRANGIENNE
    (University of M'sila, 2007-06-10) HEMMAK, Allaoua; Rapporteur: BELOUADAH, Hocine
    L’objet de ce mémoire est l’implémentation de la méthode de la programmation dynamique appliquée à un problème d’ordonnancement intitulé : « minimisation de la somme des coûts des avances et des retards avec date échue commune sur une seule machine ». Vu le nombre exponentiel des états requis par cette méthode, on tente de développer une approche fondée sur la récursivité dynamique mais en tronquant certains états : la relaxation de l’espace des états pour trouver une solution approchée, et, dans certains cas, une solution optimale au problème posé.
  • ItemOpen Access
    Une approche à base d’ontologies floues pour la fouille de données
    (University of M'sila, 2010-06-10) Hamani, Mohamed Said; Rapporteur: Maamri, Ramdane
    La fouille de données vise à extraire des règles pertinentes à partir de bases de données volumineuses. Le processus du data mining est un processus qui est à la fois itératif et interactif, incluant le nettoyage de données, l'intégration de données, la sélection de données, la transformation de données, l'exploration de données, l'évaluation des motifs et la présentation de connaissances. Il a été observé que la plupart des algorithmes de data mining génèrent un grand nombre de motifs qui sont valides, mais évidents ou peu intéressants. Pour cette raison des méthodes de filtrage sont nécessaires pour sélectionner les motifs les plus intéressants. Les motifs sont pertinents selon des mesures d'intérêt objectives qui évaluent les propriétés statistiques des modèles extraits, ou selon des mesures d'intérêt subjectives qui confrontent les modèles extraits à des connaissances exprimées sur le domaine. L’utilisation de la connaissance préalable du domaine ou du processus dans le domaine de data mining, peut aider à choisir les informations appropriés (pré traitement), diminuer l'espace d’hypothèse (traitement), représenter les résultats d'une façon plus compréhensible et améliorer le processus (post traitement). Dans la phase (post traitement), l’intégration des connaissances du domaine dans le processus du data mining, aide à évaluer la pertinence des motifs et de les exprimer dans des termes concis et à des différents niveaux d'abstraction. Les ontologies permettent une représentation formelle d’un domaine de connaissance, sous la forme d’une terminologie hiérarchisée munie de relations sémantiques [Gru93a]. L'ontologie représente la connaissance avec les rapports entre les concepts. Elle est organisée comme une hiérarchie DAG (Directed Acyclic Graph). Les concepts hautement reliées sont regroupés ensembles dans la hiérarchie. Plus les concepts sont éloignées plus ils sont moins reliés. La connaissance par sa nature est lexicalement imprécise et non catégorique, elle contient l'ambiguïté et le floue. L'ontologie floue a été introduite pour représenter la connaissance dans tous les domaines dans lesquels les concepts à représenter ont une définition imprécise. Au lieu d’appartenir ou non complètement à un concept flou, une instance possède un degré d’appartenance. Les ontologies floues sont capables de s'occuper de la connaissance floue [WY01] où les concepts sont en relation entre eux dans l'ontologie, avec un degré d'appartenance μ (0≤μ≤1). Dans ce document on a présenté une nouvelle approche, pour classer les motifs inattendus basée sur la distance conceptuelle. Dans un réseau sémantique «IS-A», la forme la plus simple de déterminer la distance entre deux noeuds de concept élémentaires, A et B, est le chemin le plus court qui relie A et B, c'est-à-dire le nombre minimal d’arcs qui séparent A et B [RMBB89] ou la somme des poids des arcs le long de ce chemin le plus court [RS95]. L’algorithme de classement proposé utilise une ontologie floue pour calculer la distance des règles d’associations, sur laquelle se base le classement. L’idée derrière notre approche est plus la règle est décrite avec des concepts distants, plus la règle représente un degré d’intérêt élevé. Ce travail constitue une contribution pour aider l'utilisateur à identifier les motifs les plus intéressants. Une étude de cas théorique d’ontologie floue de nourriture a été présentée pour l’application de l’implémentation de notre approche, ainsi qu’une étude de cas réel de recensement du revenu. De nombreuses perspectives s’offrent à la suite de nos travaux à savoir :  L’intégration de notre approche dans l’algorithme de calcul des patterns comme l’algorithme a- priori en définissant un seuil de distance. Cela permet de réduire considérablement le nombre de règles.  La prise en compte d’autres types de relation dans le calcul de la distance interconcept et dans la pondération des arcs.  Utilisation d’autre type de distance autre que « edge counting » et d’autre catégorie de mesure tel que les mesures basées sur le contenu d’l’information.  L’étude de notre approche avec d’autre type de motifs, à savoir les motifs séquentiels.
  • ItemOpen Access
    CONCEPTION D'UNE BASE DE DONNEES DECISIONNELLE
    (University of M'sila, 2006-06-10) GHELLAB, Abdelkrim; Rapporteur: BELOUADAH, HOCINE
    Le travail s'inscrit dans la problématique générale de la modélisation conceptuelle des Entrepôt de données. Le Domaine que nous avons choisi est relatif à la dérivation d'un schéma conceptuel pour les Entrepôt de données à partir des schémas opérationnels et en particulier les schémas E/R. Dans ce mémoire, nous avons présenté une approche de conception de schéma conceptuel multidimensionnel à partir du schéma E-R opérationnel, inspiré essentiellement de l’approche de Daniel L. Moddy et Mark A.R. Kortink comme approche de base, ainsi que les travaux de B. Husemman pour son formalise, sans oublier la démarche de R. Kimball, qui s'inscrit dans le cycle de vie dimensionnel. L’objectif principal de cette approche est d’exploiter le schéma E-R initial opérationnel et déduire les faits et les dimensions en utilisant la méthode de classification des entités du schéma E-R initial en trois classes (Transactionnelle, composante, classification), et puis déterminer les différentes hiérarchies existantes, et en premier définir les spécifications des besoins sous forme d’une série des questions ou requêtes pour les futures analyses OLAP, et un tableau de spécification obtenu à partir de l’analyse du schéma E-R initial et les requêtes des décideurs pour classifier les attributs (Mesure, Dimensionnel, Optionnel), et enfin produire le modèle multidimensionnel où nous avons un large choix d'options pour la réalisation de ce modèle. Chacune de ces différentes options (Etoile, Flocon de neige, Galaxie, Plat, etc.) représente le compromis entre la complexité et la redondance, et obéit à des règles de passage du modèle E-R d’entreprise vers le modèle multidimensionnel, et nous avons défini des niveaux de restriction pour toutes les mesures le long des différents chemins d'agrégation dans chaque schéma multidimensionnel de fait.
  • ItemOpen Access
    Elaboration d’un système multidimensionnel
    (University of M'sila, 2006-06-10) DJEDDAOUI, Mohamed; Rapporteur: BOUDERAH, Brahim
    Le processus d'analyse en ligne (OLAP) décrit l'approche multidimensionnelle de l'aide à la décision. Ce processus permet de structurer et de stoker les données provenant des bases de production dans un format multidimensionnel connu sous le nom de cube de données. Ce cube organise les données selon les perspectives d'analyse et selon les niveaux de détail. Notre travail présente une démarche dédie à l'élaboration d'un système multidimensionnel basé sur le concept OLAP. Notre travail repose essentiellement sur une modélisation conceptuelle du cube de données, une mécanisme pour l'extraction de données en utilisant un graphe connexe et finalement, sur une démarche pour manipuler les données du cube en utilisant une représentation tabulaire.
  • ItemOpen Access
    RECONSTRUCTION TRIDIMENSIONNELLE A PARTIR DE COUPES SERIEES Application aux Images Médicales
    (University of M'sila, 2007-06-10) BELHADJ, FOUDIL; Rapporteur: AIT AOUDIA, Samy
    La représentation des objets 3D par un ensemble de coupes sériées 2D est de plus en plus utilisée dans de nombreux domaines en particulier dans le domaine médical. Ainsi, la nature échantillonnée des images médicales 3D, consistant en une suite discrètes de coupes 2D, ne reflète pas en réalité le vrai aspect tridimensionnel de l'objet, elle en donne une vue restreinte et partielle. L’analyse de ces coupes est prohibitive consommant beaucoup de temps du praticien pour localiser manuellement la région d’intérêt à travers toutes les coupes, de plus il est amené à reconstruire mentalement une vue 3D de l’organe. Cette vue est nécessairement subjective et erronée. L’objectif du présent travail est de remonter à une reproduction de l’objet initial connaissant ses coupes tomographiques 2D en reconstruisant un modèle 3D permettant d’assimiler l’ensemble de ses propriétés et comportements. Plusieurs étapes sont nécessaires avant l’obtention de cette représentation 3D dont la segmentation, la génération du modèle 3D et la visualisation sont les principales. La théorie des champs aléatoires de Markov se voit assez prête pour répondre aux contraintes de segmentation imposées par la nature des organes humains et les imperfections liées au matériel d’acquisition. Une version semi-supervisée de l’algorithme des K-Means est proposée. Quant à la deuxième étape, l’algorithme des Marching Cubes est un choix de référence. L’aspect anisotropique, caractérisant généralement les images médicales 3D, limite les performances du processus de reconstruction. Dans ce travail, nous avons proposé une nouvelle technique d’interpolation intercoupe permettant la récupération de l’information 3D perdue et de résoudre ainsi le problème de reconstruction de coupes anisotropiques.
  • ItemOpen Access
    Fouille de données biomédicales complexes application à la segmentation des images médicales.
    (University of M'sila, 2007-06-10) Arbouche, Nassima; Rapporteur: Moussaoui, Abd elouaheb
    L'objectif de ce travail est d'élargir le champ d'utilisation des méthodes de fouille de données pour qu'elles soient adaptées aux spécificités et aux caractéristiques des données complexes comme les données médicales. Dans ce contexte, et appliqué aux données bio- médicales, nous proposons une architecture de fusion dans un cadre possibiliste de données de type hétérogène (donnée mérique on linguistique et une image de modalite IRM). La théorie des ensembles floues a été retenue pour la représentation de la donnée numé rique issue du dossier médical; quand à la représentation de l'image, une hybridation entre Talgorit line Ant Clust basé sur une population d'agents fourmis et l'algorithmne flou FCM a été propoosée. Pour pallier aux défauts du FCM à savoir. l'initialisation et la sensibilité aux données aberrantes. Ant Clust Servira de phase d'initialisation, découvrant ainsi automatiquement le nombre de classes, quand à la sensibilité aux données aberrantes, elle est traitée lors de la phase de fusion avec la donnée issue du dossier médical.
  • ItemOpen Access
    Implémentation d’un système de reconnaissance automatique des montants numériques des chèques bancaires algériens
    (University of M'sila, 2007-06-10) BOUMEDIENE, Salah; Rapporteur: CHIBANI, Youcef
    Le présent travail est organisé en quatre chapitres : Le premier chapitre constitue une introduction à la reconnaissance de l’écriture manuscrite. Nous présentons les différents modules constituants un système standard de reconnaissance des chiffres manuscrits en mettant l'accent sur le rôle de chacun. Le deuxième chapitre décrit le classifieur utilisé fondé sur les réseaux de neurones avec ses différentes architectures. Le troisième chapitre est consacré à la présentation des différentes méthodes de génération des caractéristiques, et de la sélection des caractéristiques pertinentes pour la réduction du vecteur caractéristique. Le dernier chapitre décrit les différentes expériences réalisées sur la base de données USPS, et sur la base de données des chiffres manuscrits des montants du chèque de la Banque Nationale d’Algérie. Nous terminerons ce memoire par une conclusion, pour rappeler les résultats obtenus ainsi que les perspectives de ce travail.
  • ItemOpen Access
    Optimized XSS Vulnerability Scanner Approach
    (Université de M'sila, 2016) BOULANOUAR, SOUHIL LARBI
    The Web applications are becoming more popular with the advancement of technology. However, the web security is becoming one of the most common security issues. This report focuses on the XSS vulnerabilities which commonly present in most Web applications and can create serious security problems. In our work, we propose a black box detection approach using optimal attack vector. This method generates an attack vector automatically, optimizes the attack vector repertory using a mutation operator model, and detects XSS vulnerabilities in web applications dynamically.
  • ItemOpen Access
    Extraction des motifs séquentiels
    (Université de M'sila, 2016) Layadi, Kanza
    L’extraction de motifs séquentiels est un défi important pour la communauté fouille de données, ils se trouvent impliqués dans des domaines de plus en plus nombreux en particulier dans l’analyse de données de vente d’organisations commerciales, Le problème de la découverte des motifs séquentiels consiste, étant donné une base de données transactionnels où les transactions sont des listes d’items avec des contraintes de temps. Il est le plus difficile du domaine de la découverte des motifs séquentiels, comparativement à la recherche des règles d’association. Ce domaine utilise plusieurs algorithme pour obtenue un meilleur résultat en terme de temps d’exécution et minimiser l’espace de recherche des motifs.