Département d'Electronique

Permanent URI for this collection

Browse

Recent Submissions

Now showing 1 - 20 of 67
  • Item
    Télésurveillance : Transmission sans fil, par voie GSM, et traitement du signal électrocardiographie (ECG)
    (Université Mouloud Mammeri, 2012) Bensafia, Kahina
    L’objectif de ce travail est de proposer un système permettant l’acquisition ambulatoire du signal ECG puis, sa transmission à distance, en utilisant le réseau GSM/GPRS vers le centre de santé au niveau duquel s’effectue le traitement. Le caractère ambulatoire de la carte d’acquisition a pour objectif principale de permettre un suivi continu (surveillance) de l’état du patient se livrant ses activité quotidiennes. La carte ambulatoire est constituée d’un l’amplificateur, d’un PIC,et d’un module d’émission GM862. A la réception, le signal est ensuite traité. Ce traitement passe par deux étapes, la première a pour but d’éliminer les artefacts dûs aux mouvements du patient durant l’acquisition, pour cela nous avons opté pour les réseaux de neurones, et la deuxième consiste à détecter le complexe QRS pour en déduire d’éventuelles pathologies, nous avons utilisé deux méthodes, une est basé sur la première et la deuxième dérivée, l’autre c’est la méthode de Pan et Tompkins. Grace à l’utilisation de réseaux de neurones, nous avons pu éliminer les artefacts dûs aux mouvements. En ce qui concerne la détection des pics qui représentent les complexes QRS du signal ECG, avec la méthode des deux dérivées, nous avons détecté des pics qui correspondent aux complexes QRS, cependant, certaine pics existants ne sont pas détectés ce qui risque de fausser le calcul de la fréquence cardiaque et induire un diagnostic erroné. Pour remédier à ce problème nous avons opté pour la méthode de Pan et Tompkins. Nous avons appliqué les deux méthodes pour plusieurs signaux de la base de données MIT BI, nous avons constaté que, contrairement à la méthode des dérivées celle de Pan et Tompkins nous donne un taux de détection élevé, égale à 100% dans plusieurs cas.
  • Item
    Modélisation et analyse de sûreté des systèmes par arbre de défaillance
    (Université Mouloud Mammeri, 2011-12-11) Belal, Smail
    L'arbre de défaillance ( AdD) est une technique d'ingénierie bien connue et largement utilisée dans les études de Sûreté de fonctionnement des systèmes. Elles consiste à modéliser le système par ses ensembles minimaux. Depuis 1961 qui voit naître ce concept, un grand nombre d'algorithmes pour la recherche des ensembles minimaux ont été développés. Deux algorithmes sont cités comme référence, ce sont l'algorithme MOCUS de Fussel et Vesely pour les AdD cohérents et l'algorithme de Kumamoto et Henley pour les AdD non cohérents. L'inconvénient majeur induit par cette technique (AdD) réside dans l'espace mémoire requis au stockage de tous les ensembles minimaux obtenus et au temps d’exécution qui peut s'avérer alors prohibitif. ceci se produit notamment, lors du traitement d'arbres de grande taille. pour améliorer la performances de ces algorithmes, l'effort des chercheurs a surtout porté sur l'étape de réduction. en effet, cette dernière reste celle qui consomme le plus de temps à cause du nombre de comparaisons nécessaires pour l'obtention des ensembles minimaux. nous nous sommes intéressés dans notre travail à l'algorithme de Kumamoto et Henley auquel nous avons apporté une amélioration. l'atout majeur de notre approche, est que lors de la recherche des ensembles (implicants), un certain nombre d'entre eux ne sont pas calculés. ainsi, la réduction portera sur un nombre de termes plus restreint. à travers des exemples d'application nous montrons que cette nouvelle approche permet un gain important en espace mémoire et en temps d'exécution.
  • Item
    Compression d'images par SPIHT appliqué dans le domaine des ondelettes entières : Application aux images MSG
    (Université Mouloud Mammeri, 2010) Akrour, Leila
    La question fondamentale abordée dans ce mémoire est celle de l’élaboration de méthodes de compression pour faciliter l’archivage d’images satellitaires de grande taille avec de forts taux de compression et le minimum de distorsions. Nous présentons une nouvelle méthode de compression que nous avons élaboré pour faciliter l’archivage d’images MSG avec de forts taux de compression et le minimum de distorsions. Notre méthode est basée sur les ondelettes entières biorthogonales en utilisant le schéma de lifting avec l’ondelette CDF9/7 et les codeurs à arbres de zéros (Zerotree). Ces codeurs sont EZW (Embedded Zerotree W avelet coefficients) et SPIHT (Set Partitionning In Hierarchical Trees). L’algorithme ainsi développé a été appliquée à des images tests (Lena et Goldhill) et à une série d’images Météosat (MSG) prises dans les gammes du visible et de l’infrarouge au dessus de l’Afrique du Nord et du sud de l’Europe . Comparer aux méthodes se basant sur les ondelettes, JPEG2000 par exemple, notre méthode nous a permis d’atteindre des taux de compression de 97 ? et un PSNR de 31,87 dB. Cette méthode a été employée pour archiver des images Météosat seconde génération (MSG) collectées toutes les quinze minutes en 2007. Après décompression, les images ont été reproduites fidèlement et l’espace mémoire requis pour leur stockage, a été réduit de plus de 90 %.
  • Item
    Segmentation d'images IRM par une technique basée sur le détecteur multi échelles de Canny
    (Université Mouloud Mammeri, 2010-06-29) Slimani, Kahina
    Dans ce travail, nous présentons une segmentation d’image par résonance magnétique(IRM) basée sur le détecteur multi-échelle de canny. L’objectif visé est d’extraire une tumeur dans une IRM du cerveau d’une femme de 74 ans atteinte d’une tumeur (méningiome frontale). Nous proposons un schéma de représentation multi-échelle en utilisons les maxima d’ondelette.la transformation en ondelette est obtenu par projection orthogonal de l’image sur les espaces affines obtenu à partir de la base d’ondelette, on parle d’espace d’approximation et d’espace de détail. Les valeurs des images d’approximation et de détail sont calculées en utilisons un paramètre de dilatation et un paramètre de translation. Nous utilisons une transformation en ondelette discrète dyadique sans décimation. Ce signifie que le coefficient de dilatation utilisé est 2, l’image résultante est de la même taille que l’image originale. Apres la décomposition multi-échelle, on dispose d’un ensemble d’images d’approximation et d’images de détails. A partir de cette décomposition on calcul le module des images de détails. En extrait ensuite les maxima locaux de ces modules. Ces derniers constituent une décomposition en contours multi-échelle qui peut être traitée par les techniques classiques d’étude de contour. Pour cela nous calculons la décomposition en gradient multi-échelle suivant l’approche de canny. La détection de Canny repose sur une dérivée première d’une gaussienne. Un contour est détecté lorsque le module du gradient est maximal dans la direction du gradient. De plus, avant de calculer le gradient, il est nécessaire de lisser l’image par un noyau de convolution. Ce dernier est la dérivée d’une gaussienne. Le module des coefficients de détails est en relation direct avec le gradient de l’image.les maxima locaux correspondent aux zones de forte transition de l’image. Alors on dispose d’un ensemble de maxima à différentes échelles, l’objectif est de chaîner les contours à travers les échelles pour ne garder que les contours les plus significatifs. Cette méthode est applique aux IRM d’un cerveau sein ainsi que sur des images d’un cerveau atteint d’une tumeur, on comparant les deux résultats en aperçois bien la tumeur.
  • Item
    Segmentation contextuelle d'image de documents par analyse de texture en niveau de gris
    (Université Mouloud Mammeri, 2010-06-27) Oudjemia, Souad
    Les documents électroniques offrent la facilité de stockage et de recherche d’information, pour cela il est nécessaire de passer du format papier vers un format électronique, cette conversion est souvent réalisée par un système d’analyse et de reconnaissance de documents.Ce travail s’inscrit dans la problématique de la reconnaissance de structure physique de document imprimé complexe. Cette dernière opère sur la reconnaissance des différents constituants (texte, fond, image,….). Notre travail consiste à analyser la structure physique en utilisant les matrices de cooccurrence basées sur la texture particulière du texte, ainsi que sur l’utilisation des descripteurs en niveau de gris pour rendre compte de l’information statique mais avant cela une diffusion anisotrope est utilisée comme retraitement. Cette méthode a été appliquée sur des images tests de type latins et arabes. Nous avons pu atteindre un taux d’erreur de classification de 1.79% grâce au tests effectués pour avoir les paramètres les plus pertinent à ce type d’image et grâce au choix de la taille du bloc qui vaut 32*32. Cette division de l’image nous a permet de réduire le temps de calcule et atteindre la valeur 91.13s pour une taille d’image de 768*1074.Les résultats des tests ont montré aussi que notre méthode est insensible à l’inclinaison des documents contrairement aux autres méthodes qui ont montré leurs limites quand il s’agit des documents inclinés.
  • Item
    Etude d'un capteur de gaz à base de TCO : Cas du SnO2 obtenu par APCVD
    (Université Mouloud Mammeri, 2010-05-27) Moussouni, Mohamed Akli
  • Item
    Squelettisation en niveau de gris des images 2D : Application aux images médicales
    (Université Mouloud Mammeri, 2010-07-11) Moussouni, Fadhila
    L’ostéoporose est due à deux phénomènes : une réduction de la masse osseuse et une détérioration de la microarchitecture de tissu osseux. Dans ce travail, nous mettons en place une technique de squelettisation en niveaux de gris 2D pour l’extraction d’information morphologique permettant la description de la structure osseuse de l’image Tomographie Calculé (CT) des vertèbres. Dans la première étape, la méthode proposée consiste à extraire le squelette en niveaux de gris de la microstructure contenue dans l’image, quant à la deuxième partie qui consiste au traitement de résultat de squelettisation qui comprend la détection du nombre de nœuds, le nombre de terminaisons, le nombre de point de réseau de squelette et un test statique qui indique que la méthode proposée peut faire une discrimination entre les patients ostéoporotiques (OP) et les patients de contrôles (CP).
  • Item
    Estimation des précipitations par une approche basée sur la durée de vie des nuages à sommets froids
    (Université Mouloud Mammeri, 2010) Hameg, Slimane
    Dans ce travail, nous présentons une méthode d’estimation des précipitations basée sur le calcul des durées du nuage à sommet froid. Le traitement consiste d’abord à définir un seuil de température pour le canal infrarouge, et par la suite à comptabiliser sur chaque image les pixels dont les comptes numériques indiquent des températures inférieures à ce seuil. Puis on cumule les comptages réalisés sur des périodes à savoir, journalières, décadaires et mensuelles. On tire le coefficient d’estimation après que les comptages soient confrontés aux données pluviométriques du même moment et issues des stations météorologiques. Ensuite, une régression linéaire sera établie pour déterminer deux coefficients a1 et a0 respectivement pente et ordonnée à l’origine de la ligne de régression. Ceci est appliqué sur toute la zone d’étude, pour différentes échelles temporelles et pour différents seuils de température, entre les données brutes de pluie d’une part et les fréquences d’apparition de nuages à sommets froids d’autre part.
  • Item
    Identification des pathologie du tissu osseux par traitement d'image
    (Université Mouloud Mammeri, 2010) Driss, Djouher
    Dans ce travail, nous avons présenté deux méthodes de caractérisation qui permettent de qualifier et de quantifier la texture de la structure trabéculaire via des images IRM et Scanner en 2D prises in vivo. L’objectif recherché est de dévoiler la présence d’une dégénérescence dans l’architecture de l’os trabéculaire due à une pathologie ostéoporotique. La première, qui est une segmentation de la texture trabéculaire basée sur des concepts markoviens, a été appliquée sur des images IRM de l’os trabéculaire. Quant à la deuxième méthode, elle porte sur une étude morphologique et topologique de la structure trabéculaire. Cette dernière s’applique en deux étapes : segmentation des images puis le calcul des différents paramètres. Nous avons proposé de procéder par un prétraitement basé sur la dérivation fractionnaire suivie d’un étirement de l’histogramme afin de rehausser le contraste des images. Les résultats obtenus montrent l’effet de cette étape de prétraitement par la bonne discrimination des deux textures trabéculaires. Dans la première partie, la classification des textures par l’approche markovienne adoptée a permis de séparer la texture correspondante au sujet sain de celle liée au sujet pathologique sans ambiguïté. Les différences statistiques des attributs de texture observées entre ces deux groupes de sujets prouvent la présence de changements dans la structure trabéculaire de l’os indiquant une pathologie ostéoporotique. Diverses améliorations peuvent être apportées à la méthode développée, notamment dans l’étape de prétraitement, le choix de la fonction d’énergie, le choix des attributs de texture et l’adoption d’une procédure d’analyse et de segmentation multi échelle... Dans la deuxième partie de ce travail, nous avons proposé une étude morphologique et topologique de la structure trabéculaire. Plusieurs paramètres ont été calculés à savoir : quatre paramètres de Parfitt et le nombre d’Euler Poincaré. Les premiers résultats sont encourageants et permettent de discriminer les tissus saints et pathologiques en utilisant le BV/TV, Tb.N, Tb.Sp et le nombre d’Euler. Cependant, il est très important d’appliquer cette approche à une banque de données beaucoup plus riche. L’analyse du tissu osseux est une tâche difficile du fait de son hétérogénéité, de son aspect tridimensionnel et de la localisation profonde des pièces osseuses qui sont entourées de tissus mous. La résolution des images, obtenue in vivo, ne permet pas de distinguer de manière satisfaisante les différentes structures de l’os trabéculaire. Ce qui complique considérablement l’étape de segmentation qui conditionne la mesure des paramètres de caractérisation. L’idéal est de pouvoir effectuer ces mesures sur des images en niveau de gris afin de minimiser les erreurs engendrées par l’étape de binarisation.
  • Item
    Modèle basé sur le filtre de Deriche et sur la transformée de Hough et reconnaissance des formes ,Application à la vision robotique .
    (Université Mouloud Mammeri, 2010) Belguesmia, Said
    La problématique générale de cette recherche est l'extraction des caractéristiques d'ensemble cohérents de primitives en robotique mobile (baliser) .le calcul d'orientation des primitives est une données importantes dans le processus de modélisation et orientation .l'objectif est de fourmir des informations suffisamments pertinentes et concices à fin de facilitér les traitements intérieurs pour la reconnaissance .nous présantant
  • Item
    Diagnostic de pannes d'un système de pompage photovoltaîque
    (Université Mouloud Mammeri, 2010-12-19) Bandou, Farida
    Le Sahara algérien recèle d’importants gisements énergétiques renouvelables, caractérisé par un potentiel solaire fort appréciable et une population repartie d'une manière très éparse. L'installation des systèmes photovoltaïques sert à exploiter une partie de ce gisement. Le système de pompage photovoltaïque est une solution bien adaptée pour une grande partie de ces régions. En effet,dans ces régions il existe un potentiel hydraulique important et pas forcément trop profond sous terre. Un système de pompage photovoltaïque (PVPS) se compose généralement d'un générateur photovoltaïque (PV), d’un onduleur,d'un sous-ensemble moteur-pompe et d'un réservoir d'eau. Malheureusement les systèmes de pompage PV ne sont pas toujours fiables, des pannes peuvent surgir (par exemple défaillance des robinets, pannes dues aux moteurs, onduleurs, fuites des tuyaux, les modules PV, etc.). Dans le cadre de notre travail, nous nous intéressons au diagnostic de pannes de la mini station de pompage photovoltaïque du CDER, qui fait partie de l’étude des comportements des systèmes de pompage photovoltaïque pour assurer le bon fonctionnement de l’équipement. Pour résoudre un problème de diagnostic de pannes, nous avons proposé d’utiliser la méthode orientée connaissance de conception de diagnostic par le raisonnement à partir de cas, et une démarche de capitalisation des connaissances pour pallier le manque d’expertise, en exploitant des outils des sûretés de fonctionnement. Deux modèles ont été mis en place: un modèle fonctionnel de l’équipement et une taxonomie des composants associés à une base de cas issue de l’exploitation d’un historique de pannes, d’une AMDEC et de données expertes concernant l’équipement à maintenir. L’ontologie du domaine et une étape de manipulation à l’aide du raisonnement à partir de cas(RàPC). Le management de ces connaissances par la méthode de raisonnement à partir de cas, nous a permis de développer une base de cas manipulée par différentes phases de traitement à savoir:la remémoration et l’adaptation.Ces deux phases sont liées entre elles. Pour cela, nous avons ainsi proposé d’utiliser une méthode de remémoration guidée par l’adaptation en mettant en place deux mesures, à savoir : la mesure de remémoration et la mesure d’adaptation. Ces mesures permettent de choisir le cas le plus facilement adaptable lors de la phase de remémoration. Ensuite, nous avons mis en place un algorithme d’adaptation qui prend appui sur les relations de dépendance des descripteurs de problèmes et de solutions.
  • Item
    Modèles de Markov Cachés : Application à La Reconnaissance Automatique de la Parole.
    (Université Mouloud Mammeri, 2014) Berbeche, Kamal
  • Item
    Etude des propriétés de surface des TCO par microscopie à champ proche
    (Université Mouloud Mammeri, 2009) Medjnoun, Kahina
    Dans notre travail nous avons fait l’étude des microscopies à champ proche. Nous nous sommes intéressés dans une première partie à la maîtrise des phénomènes physiques sur lesquels sont basées ces techniques. Nous avons étudié aussi les aspects expérimentaux des appareillages c'est-à-dire les microscopes en eux-mêmes. Nous nous sommes aussi intéressés aux modes de fonctionnement et aux adaptations nécessaires à leurs utilisations pour la caractérisation des morphologies de surface des matériaux. Dans un premier temps notre étude a concerné la microscopie à effet tunnel dans laquelle le mode de fonctionnement à hauteur constante s’est révélé être meilleur pour des surfaces ne présentant pas d’aspérités ; cependant le mode à courant constant est préféré pour les autres cas (présentant des non uniformités, tels que les îlots, les marches,etc...). est donc nécessaire dans l’utilisation du microscope STM de commencer la caractérisation de la surface, dans une première étape systématiquement par le mode à courant constant. La STM s’avère être un outil très utile pour la caractérisation à l’échelle locale des matériaux et donc pour la détermination d’éventuels défauts à la surface. L’inconvénient de la STM est que, vu son principe, elle ne peut servir à la caractérisation des isolants. Pour les matériaux isolants la caractérisation est assurée par le microscope à force atomique AFM. Dans le cadre de l’application de ces microscopies, nous avons présenté des images de surface des différents TCO réalisés par différentes techniques d’élaborations, pour l’observation de surfaces pouvant aider à une compréhension des phénomènes de croissance des couches minces en relation avec les conditions de réalisation de ces couches. L’étude et la caractérisation des surfaces peuvent être complétées par la détermination des propriétés électroniques, tels que la valeur du gap, les concentrations en porteurs libres, la conductivité, le travail de sortie,…des matériaux caractérisés ; cela pourra se réaliser à l’aide de la spectroscopie STM. En perspective de ce travail, la maîtrise des techniques de spectroscopie STM peut permettre avec le développement de l’application microscope a effet tunnel, dans le cas d’émission de champ, à réaliser des dépôts à l’échelle atomique de matériaux avec des propriétés structurales et électroniques contrôlées
  • Item
    Etude de la fiabilité d'un microcapteur anemometrique en technologie MEMS
    (Université Mouloud Mammeri, 2009-12-03) Sidi Said, Amel
  • Item
    Etude de l'éffet couronne sur le silicium multicristallin
    (Université Mouloud Mammeri, 2009) Boudia, Ouerdia