Thèse soutenue

Echantillonnage et identification paramétriques adaptatifs pour des signaux bidimensionnels à échantillons manquants

FR  |  
EN
Auteur / Autrice : Khaled Asswad
Direction : Jacques Oksman
Type : Thèse de doctorat
Discipline(s) : Physique
Date : Soutenance en 2002
Etablissement(s) : Paris 11

Mots clés

FR

Mots clés libres

Résumé

FR  |  
EN

Dans cette thèse, nous posons le problème de la modélisation et de l'identification des signaux bidimensionnels à échantillonnage non uniforme (SENU-2D), avec une période cachée. Notre objectif est un traitement en temps réel. Il s'agit de la restitution des échantillons manquants d'une part, et de l'échantillonnage non uniforme d'autre part dans le but de minimisation de volume de données (compression). Nous supposons le mode classique de balayage pour l'acquisition de données, duquel résultent plusieurs types de causalités (QP, NSHP, SC, et NC sont les plus classiques). Nous proposons la modélisation paramétrique AR-2D pour la représentation des SENU-2. Pour l'identification du modèle, nous proposons l'utilisation des extensions au cas des SENU-2D des algorithmes du type LMS et MCR. Lors de choix de causalité et de critère à minimiser pour les extensions du type LMS, il faut prendre en compte a) le problème des échantillons manquants, b) la nature des signaux 2D, c) le mode d'acquisition du signal. Nous proposons donc, l'utilisation de 3 types de critères quadratique de : 1) l'erreur de prédiction locale, 2) l'erreur sur une fenêtre croissante, 3) l'erreur sur une fenêtre glissante. En combinant une causalité avec un critère nous obtenons un nouvel algorithme. Dans la zone de régression, les échantillons manquants sont remplacés par leur valeur prédite. Quant à l'extension du type MCR, un critère quadratique de l'erreur sur une fenêtre croissante est utilisé, et nous recommandons l'utilisation d'une fenêtre glissante sur une seule ligne. Les algorithmes obtenus sont testés et leurs résultats sont comparés et commentés. Nous proposons quelques applications des méthodes obtenues aux images. La première est la reconstruction des images à échantillons manquants, où il y est montré que jusqu'au taux de perte aléatoire de 90%, l'image reconstruite est parfaitement reconnaissable. La deuxième application est l'échantillonnage non uniforme (compression avec perte), où la qualité de reconstruction est supérieure à la norme JPEG jusqu'au gain de 84%. La troisième application concerne la quantification et la transmission non uniforme conjointement. Le résultat de cette application est qu'au lieu d'envoyer le signal quantifie entièrement en assumant le niveau d'erreur de quantification, on peut envoyer moins d'échantillons de ce signal quantifié et on obtient moins de l'erreur de quantification du départ. Un gain jusqu'à 24. 7% de volume de données et jusqu'à 3. 7 [dB] de qualité. La dernière application est introduction de ces méthodes dans un système de compression sans perte déjà existant (FELICS et JPEGLS). Le résultat de cette application est que le rendement de ces compresseurs a été amélioré.