Archives de catégorie : [:fr]traitement d’images[:en]image processing

Relaxations de fonctionnelles non-convexes

Nous étudions différentes relaxations pour minimiser des fonctionnelles non convexes qui apparaissent en traitement d’images. Des problèmes comme la segmentation d’image peuvent en effet s’écrire comme un problème de minimisation d’une certaine fonctionnelle, le minimiseur représentant la segmentation recherchée.

Différentes méthodes ont été proposées pour trouver des minima locaux ou globaux de la fonctionnelle non convexe du modèle de Mumford-Shah constant par morceaux à deux phases. Certaines approches utilisent une relaxation convexe qui permet d’obtenir des minima globaux de la fonctionnelle non convexe. On rappelle et compare certaines de ces méthodes et on propose un nouveau modèle par bande étroite, qui permet d’obtenir des minima locaux tout en utilisant des algorithmes robustes qui proviennent de l’optimisation convexe. Ensuite, on construit une relaxation convexe d’un modèle de segmentation à deux phases qui repose sur la comparaison entre deux histogrammes donnés et les histogrammes estimés globalement sur les deux régions de la segmentation.

Des relaxations pour des problèmes multi-étiquettes à plusieurs dimensions comme le flot optique sont également étudiées. On propose une relaxation convexe avec un algorithme itératif qui ne comprend que des projections qui se calculent exactement, ainsi qu’un nouvel algorithme pour une relaxation convexe sur chaque variable mais non convexe globalement. On étudie la manière d’estimer une solution du problème non convexe original à partir d’une solution d’un problème relaxé en comparant des méthodes existantes avec des nouvelles.

Colorisation d’images

La colorisation est un enjeu important pour la restauration des documents anciens par exemple, mais également pour l’industrie du divertissement. Les méthodes se divisent en deux catégories, les méthodes manuelles et les méthodes dites basée-exemple pour lesquelles l’utilisateur fournit une image en couleur qui sert de source d’information. La comparaison des textures permet d’extraire la couleur. Il faut ensuite régulariser, ce que l’on effectue dans notre cas par la minimisation d’une fonctionnelle non convexe. Proposer un modèle raisonnable pour la colorisation ainsi qu’un algorithme efficace pour minimiser la fonctionnelle proposée a constitué l’essentiel du début de la thèse.

Néanmoins, les méthodes basée-exemple présentent une difficulté qui est la recherche d’une image source pertinente. Il est difficile de trouver l’image source pertinente pour une colorisation donnée, et la méthode échoue fréquemment, il suffit par exemple qu’une couleur ne soit pas présente dans l’image source, ou encore d’avoir deux parties lisses ou des textures similaires devant exprimer une couleur différente. Afin d’éviter ces écueils, nous avons proposé une méthode de colorisation dite collaborative, qui se présente comme une méthode interactive dans laquelle l’utilisateur tiens un rôle de superviseur du résultat. Il a la possibilité d’intégrer des points de couleurs dans le résultat là où le résultat ne lui semble pas satisfaisant. Cette nouvelle information est intégrée dans le processus en exploitant la non convexité du modèle.

Illustration de Colorisation

Super-résolution et inpainting

Moncef Hidane a effectué un post-doctorat de 2013 à 2014 dans le cadre du Labex CPU. Il a au préalable effectué une thèse de doctorat au laboratoire GREYC à Caen, sur la problématique de décompositions de signaux sur graphes. Il est aujourd’hui enseignant chercheur à l’INSA Centre Val de Loire.

Le sujet du post-doc porte sur la reconstruction d’images 3D à partir d’une acquisition complète en basse résolution et d’une acquisition partielle en très haute résolution. Il s’agit donc d’un problème inverse de super-résolution.

Le modèle adopté pour l’acquisition basse résolution est celui d’une convolution suivie d’un opérateur de sous-échantillonage spatial ou spectral. Dans un premier temps, la réponse impulsionnelle du capteur est supposée connue. Un bruit blanc additif est intégré au modèle.

Le modèle adopté pour l’acquisition haute résolution est celui d’une occlusion dont le support est connue. Un bruit blanc additif est également intégré au modèle.

La première piste suivie est celle d’une régularisation à l’aide d’un a priori de variation totale isotrope. Deux versions sont envisagées : d’une part avec des contraintes d’inégalité, d’autre part avec des contraintes d’égalité. Dans ce cadre, une partie importante du travail concerne la minimisation des critères dans chaque cas. Du fait de la non différentiabilité de la mesure variation totale, des algorithmes issues de l’optimisation convexe non lisse sont considérés. Le but est de pouvoir disposer d’algorithmes rapides et robustes pour le calcul des solutions.

La deuxième piste suivie est un régularisation à l’aide d’un opérateur non local. L’idée est tirer partie à la fois du volume basse résolution et des images haute résolution pour construire un a priori de régularisation de type variation totale non locale.

La figure suivante illustre la problématique ainsi que les résultats obtenus avec les deux approches précédentes.

(a) image originale 256 x 256; (b) image BR (facteur 4); (c) image HR partielle; (d) interpolation bicubique de (b) (psnr=24.43); (e) reconstruction TV (psnr=29.52); (f) recontruction par régularisation non locale (psnr=30.16).

(a) image originale 256 x 256; (b) image BR (facteur 4); (c) image HR partielle; (d) interpolation bicubique de (b) (psnr=24.43); (e) reconstruction TV (psnr=29.52); (f) recontruction par régularisation non locale (psnr=30.16).

Etude des méthodes parcimonieuse pour la tomographie

Dans le cadre de la tomographie avec un nombre limité d’angles, le problème inverse résultant est mal conditionné. Les algorithmes « classiques », analytiques et algébriques, produisent de nombreux artefacts. Les méthodes d’optimisation permettent de résoudre ce problème à l’aide d’une régularisation. Dans mes travaux, je suppose les images parcimonieuses ou parcimonieuses dans une représentation donnée. Une image parcimonieuse est une image qui possède peu de composantes non nulles. Pour promouvoir cette parcimonie, je vais régulariser le problème avec une norme \ell^1 et résoudre l’un des deux problèmes équivalents ci dessous.

(1)   \begin{equation*} \underset{x\in \mathbb{R}^n}{\text{min}}\ \|x\|_1 \text{ s.t. } \|\mathbf{A}x-y\|_2\le \delta \end{equation*}

(2)   \begin{equation*} \underset{x\in \mathbb{R}^n}{\text{min}}\ \frac{1}{2}\|\mathbf{A}x-y\|_2 + \lambda \|x\|_1 \end{equation*}

Mon travail consiste à évaluer les limites théoriques de ces problèmes tout en étant le plus proche de la réalité. De récents travaux [3] ont mis en lumière des conditions suffisantes assurant la reconstruction de l’image par minimisation \ell^1 et fournissent une erreur de cette reconstruction [1]. Ces conditions nécessitent l’existence d’un vecteur particulier appelé certificat dual. Selon les applications, il peut être possible de calculer un candidat qui sous condition sera un certificat dual [2,4].

Mes travaux couvrent essentiellement la construction de tels candidats. Je propose, dans mes travaux, une approche gloutonne de calculer un candidat qui est un certificat dual pour presque toutes les images « reconstructibles » et minimisant l’erreur théorique de reconstruction.

[1] Charles Dossal and Remi Tesson. Consistency of l1 recovery from noisy deterministic measurements. Applied and Computational Harmonic Analysis, 2013.

[2] Jean-Jacques Fuchs. Recovery of exact sparse representations in the presence of bounded noise. Information Theory, IEEE Transactions on, 51(10) :3601–3608, 2005.

[3] Markus Grasmair, Otmar Scherzer, and Markus Haltmeier. Necessary and sufficient conditions for linear convergence of l1-regularization. Commun. Pure and Appl. Math., 64(2) :161–182, 2011.

[4] Samuel Vaiter, Gabriel Peyré, Charles Dossal, and Jalal Fadili. Robust sparse analysis regularization. 2011.

Transport Optimal en Traitement d’Images

Le transport optimal est désormais un outil majeur en vision par ordinateur et en traitement d’image. Il peut être utilisé pour calculer des similarités entre descipteurs, appareiller et moyenner des descripteurs (transport discret) ou encore recaler des images (transport continu). Un défaut majeur de cet outil vient du manque de régularité des plans de transports qui entraine une faible robustesse aux données aberrantes. Le coût de calcul du transport optimal est aussi une limitation pratique à son utilisation pour des problèmes de grande dimension. Dans cet axe, nous nous intéressons donc à la définition de nouveaux algorithmes permettant de calculer des solutions de problèmes de transport optimal généralisés intégrant des contraintes de régularité.

Modèles non locaux

Les systèmes imageurs utilisés dans de nombreuses applications fournissent de grands volumes d’images aux dégradations complexes et à faible rapport signal sur bruit. Des méthodes de restauration adaptées à ces spécificités doivent être développées. La puissance de calcul aujourd’hui disponible a permis l’émergence de nouveaux paradigmes, tel que celui du « non-local » (Buades et al., 2005) offrant de très bons résultats (voir, Lebrun et al. 2012; Milanfar, 2013). Cependant, l’extension de ces méthodes, issues des mathématiques appliquées, à certaines modalités d’images est non-triviale. Cet axe s’intéresse à l’extension de ces méthodes de restauration à des modalités d’images non-conventionnelles (imagerie à faible luminosité, imagerie cohérente, tomographie, …) : présence de dégradations complexes (flou, données manquantes, bruit non-gaussien, non-stationnaire et corrélé) et besoin de calculs rapides sur de grands volumes de données.

Sélection de modèle pour l’image

Un point critique des approches en restauration d’images concerne le réglage de leurs paramètres. Lorsque l’on simule des données dégradées à partir d’une image de référence, on peut comparer l’image de référence à celle restaurée par de telles approches, et ainsi sélectionner les paramètres qui offrent la meilleure qualité de restauration. Ce réglage est bien moins évident dans le cas de données réelles pour lesquelles il n’y a pas d’image de référence. Dans le cas de dégradations simples, des outils de statistique permettent d’estimer l’erreur quadratique de restauration quand bien même l’image de référence est inconnue, on parle d’« estimation de risque ». Optimiser cette estimation par rapport aux paramètres de la méthode permet alors d’obtenir une calibration proche de l’optimal. L’estimateur de risque non-biasé de Stein (SURE, Stein 1981) est l’un des exemples les plus connus, appliqué avec succès pour calibrer des méthodes de restauration d’images en présence de bruits gaussiens (par ex., Ramani et al., 2008). Nous nous intéressons dans cet axe au développement d’estimateurs dérivés du SURE pour la calibration des paramètres intervenant dans les méthodes récentes, potentiellement hautement paramétriques, pour la restauration d’images aux dégradations complexes (flou, données manquantes, bruit non-gaussien, non-stationnaire et corrélé).

Voir:
Stein Unbiased GrAdient estimator of the Risk
Stein Consistent Risk Estimator for hard thresholding
Local Behavior of Sparse Analysis Regularization

Stein Unbiased GrAdient estimator of the Risk

Les algorithmes de régularisation variationnelle résolvant des problèmes inverses mal posés impliquent généralement des opérateurs qui dépendent d’un ensemble de paramètres continus. Lorsque ces opérateurs bénéficient d’une certaine régularité (locale), ces paramètres peuvent être sélectionnés en utilisant l’estimateur non-biasé de Stein (SURE). Bien que cette sélection est généralement effectuée par une recherche exhaustive, nous abordons dans ce travail le problème de l’utilisation du SURE pour l’optimisation efficace d’une collection de paramètres continus du modèle. Lorsque l’on considère des regularizations non lisses, comme la norme l1 populaire correspondant au seuillage doux, le SURE est une fonction discontinue de paramètres qui empêchent l’utilisation de techniques d’optimisation de descente de gradient. Au lieu de cela, nous nous concentrons sur une approximation du SURE sur la base de différences finies comme proposé dans (Ramani et al., 2008). Sous des hypothèses modérées sur l’estimateur, nous montrons que cette approximation est une fonction faiblement différentiables des paramètres et que son gradient faible (SUGAR), fournit asymptotiquement (par rapport à la dimension de données) une estimation non biaisée du gradient du risque. En outre, dans le cas particulier de seuillage doux, SUGAR est avéré être aussi un estimateur consistent. Le SUGAR peut alors être utilisé comme une base pour effectuer une optimisation de type quasi-Newton. Le calcul de SUGAR repose sur la forme explicite de la différenciation (faible) de la fonction non-lisse. Nous fournissons son expression pour une large classe de méthodes proximales itératives et appliquons notre stratégie à des régularisations impliquant des pénalités convexes non lisse. Des illustrations sur divers problèmes de restauration d’image et de complétion de matrices sont donnés.

Publications et codes sources associés :

Charles-Alban Deledalle, Samuel Vaiter, Gabriel Peyré and Jalal Fadili
Stein Unbiased GrAdient estimator of the Risk (SUGAR) for multiple parameter selection,
Technical report HAL, hal-00987295 (HAL)

MATLAB source codes available from GitHub.

NL-SAR: Non-Local framework for (Pol)(In)SAR denoising

Logiciel ouvert distribué sous licence CeCILL pour l’estimation adaptative et non-locale d’images (Pol)(In)SAR (réduction de speckle). Interface disponible en ligne de commande, IDL, Matlab, Python et en tant que bibliothèque dynamique C. Plug in pour PolSARpro disponible.

Téléchargement ici