Archives de catégorie : [:fr]axes de recherche[:en]research areas

Axe 9 : Estimation nonparamétrique et statistique des processus

Dans cet axe, une direction de recherche est centrée sur la statistique nonparamétrique et semi-paramétrique pour la construction d’estimateurs optimaux (dans le sens minimax, ou bien à partir d’inégalités oracle) pour des problèmes d’inférence statistique en grande dimension (modèles déformables en traitement du signal, estimation de matrice de covariance, problèmes inverses).

Dans cette optique, une première partie se focalise sur la minimisation de l’estimateur non-biaisé du risque de Stein (SURE) pour des modèles issus du cadre variationnel. Une première difficulté théorique est de construire de tels estimateurs lorsque les fonctionnelles mises en jeu ont un caractère non-lisse, non-convexe voire discontinu. Une deuxième difficulté concerne la mise en place d’algorithmes efficaces pour le calcul et la minimisation du SURE lorsque les solutions de ces modèles sont elles mêmes issues d’un algorithme d’optimisation. Finalement, une dernière difficulté concerne l’extension du SURE à des problèmes complexes d’inférence (problèmes mal-posés, bruits non blanc gaussien, etc.).

Une autre partie de cet axe porte sur les modèles de régression semi-paramétrique où la fonction de régression est estimée par un estimateur de type Nadaraya-Watson récursif. Dans ce cadre, un contrat région Aquitaine a été obtenu en 2014 pour 3 ans. Il porte sur le développement de nouvelles méthodes d’estimation non paramétrique avec applications en valvométrie et sciences de l’environnement.

Axe 8 : Grandes déviations et inégalités de concentration

Cet axe de recherche est constitué de deux parties. La première partie porte sur les propriétés de grandes déviations de formes quadratiques de processus gaussiens et de diffusions browniennes. On peut également citer des travaux récents portant sur les grandes déviations des estimateurs des moindres carrés des paramètres inconnus de processus d’Ornstein-Uhlenbeck avec shift. La seconde partie est dédiée aux inégalités de concentration pour les sommes de variables aléatoires indépendantes et les martingales. Un livre est à paraître, comportant quelques applications des inégalités de concentration en probabilités et statistiques, en particulier sur le processus autorégressif, les permutations aléatoires et spectre de matrices aléatoires.

Axe 7 : EDP : approches stochastiques

Cet axe de recherche consiste à étudier des propriétés de certaines classes d’EDPs (existence, unicité, comportement en temps long, régularité…) à l’aide de processus stochastiques. L’étude de systèmes d’équations différentielles stochastiques progressives-retrogrades (EDS-EDSR) permet par exemple d’obtenir une représentation probabiliste pour ces EDPs, représentation que l’on appelle communément formule de Feynman-Kac. Cette représentation permet en outre de construire et d’étudier la convergence d’algorithmes probabilistes pour résoudre numériquement ces EDPs.

Les EDS-EDSR permettent également de modéliser des équations de l’hydrodynamique, et leur résolution approchée donnent de nouvelles méthodes de simulation. Leur combination avec des méthodes variationnelles permettent de répondre à des questions d’existence de flots généralisés avec des conditions initiale et finale. Les EDSR sont aussi un outil prometteur pour le lissage et le débruitage de signaux, via la construction de martingales de valeur terminale donnée.

Axe 6 : Algorithme d’optimisation : méthodes déterministes et stochastiques

En géométrie de l’information, les données statistiques prennent leurs valeurs dans des ensembles munis d’une structure de variété riemannienne, de dimension finie ou infinie. Les estimateurs de quantités relatives à ces données sont des moyennes, des médianes, ou plus généralement des p-moyennes de ces données. Des algorithmes stochastiques pour trouver ces p-moyennes sont très utiles pour toutes les applications pratiques qui ont été développés dans les publications citées ci-dessous. On peut en particulier citer des applications au traitement des signaux radar stationnaires. Un enjeu très important est de pouvoir considérer des signaux non stationnaires. Pour cela il faut pouvoir travailler sur des espaces de chemins dans des variétés riemanniennes, et développer une bonne notion de métrique, de distance, et de moyenne pour ces chemins.

Des nouveaux algorithmes stochastiques de type Robbins-Monro sont également proposés afin d’estimer plus efficacement les paramètres inconnus de modèles de déformation. Ces procédures d’estimation sont mises en oeuvre sur des données réelle d’ECG afin de détecter des problèmes d’arythmie cardiaque.

Les méthodes proximales ont connu un très grand succès en traitement d’images pour proposer des algorithmes efficaces pour calculer les solutions des problèmes considérées. Un thème majeur de l’équipe est l’étude de la convergence de tels algorithmes, de leur vitesse, et de leur robustesse aux erreurs.

Axe 5 : Calcul stochastique, probabilités et statistique sur des variétés

Cet axe concerne l’utilisation de toutes les méthodes du calcul stochastique, en particulier l’analyse fine des trajectoires de processus, de leurs probabilités, de leurs variation, les couplages, avec pour objectifs :

  • l’analyse des semi-groupes de diffusion et des équations d’évolution dans les variétés (équation de la chaleur, équation de courbure moyenne, flot de Ricci), et leur exploitation en traitement du signal, de l’image,
  • obtenir des inégalités fonctionnelles,
  • l’étude des bords de Poisson,
  • les calculs de sensibilité de prix dans des modèles financiers,
  • les inégalités de transport,
  • les algorithmes de recherche et d’optimisation dans les variétés pour l’exploitation en signal-image.

Sont également étudiées des problèmes d’existence et d’unicité de martingales à valeur terminale donnée dans des variétés. Plusieurs contributions portent aussi sur la notion de moyenne de Fréchet qui est une extension du barycentre euclidien usuel à des espaces munis de distances non-euclidiennes. Dans ce cadre, de nombreuses propriétés statistiques de la moyenne de Fréchet ont été établies dans des modèles déformables de signaux.

Axe 4 : Approches parcimonieuses, non-locales, par patchs et analyse harmonique

Cet axe de recherche est motivé par la problématique de l’analyse de données en grande dimension (signaux et images) organisées sous la forme de vecteurs ou matrices de grande taille.

Une première partie de cet axe porte sur les approches parcimonieuses permettant l’analyse de données en grande dimension lorsque celles-ci peuvent être bien approchées dans un espace de faible dimension. On s’intéresse alors à l’élaboration de modèles variationnels qui promeuvent naturellement cette parcimonie pour une représentation choisie au préalable (ondelettes, champs de gradients, etc.) ou appris sur un jeu de donnée externe. Cette représentation (l’espace de faible dimension) peut être aussi sélectionnée par le modèle lui-même, on parle alors d’apprentissage de dictionnaires qui généralement s’exprime comme un problème de factorisation de matrices. A titre d’exemples, nous nous intéressons aux méthodes d’approximation par seuillage d’ondelettes en traitement d’images, ainsi qu’aux problèmes de sélection de variables par Lasso (pour Least Absolute Shrinkage and Selection Operator). Au delà de l’élaboration de tels modèles, on cherche à comprendre leur comportement. En particulier, dans le premier exemple, on s’intéresse aux conditions assurant qu’une signal puisse être reconstruit, ou bien que son erreur de reconstruction puisse être bornée (robustesse). Dans le second exemple, on se focalise sur les conditions assurant l’identification des bonnes variables.

Une seconde partie concerne, l’analyse des motifs récurrents dans le cas des images ou de signaux multidimensionnels. Ces récurrences fournissent en effet une information clé pour le traitement ou l’interprétation de l’information. En particulier, on s’intéresse aux approches non-locales en imagerie qui s’appuient sur la similarité des motifs via des patchs (petites fenêtres généralement rectangulaires de taille 8 par 8 pixels). Le terme non-local signifie ici que seul le contenu du patch est pertinent, peu importe sa localisation spatiale. Une part de notre travail porte sur la construction et le choix des métriques pour la mise en correspondance robuste des motifs ainsi que sur la mise en place d’algorithmes de recherche efficaces. On s’intéresse par la suite à l’analyse de ces récurrences, typiquement sur le graphes des connections. Finalement, on cherche à élaborer puis étudier de nouveaux modèles variationnels prenant compte de ces informations non-locales.

Axe 3 : Le guidage des thérapies par l’imagerie

Ces activités s’inscrivent dans le cadre de la radiologie interventionnelle, discipline en plein essor, pour laquelle la France se range au premier plan dans le monde. La possibilité de déposer localement une énergie de manière non-invasive ouvre une nouvelle voie vers des stratégies thérapeutiques pour les tumeurs malignes plus fiables, moins agressives pour les patients, qui permettront une réduction des temps et des coûts d’hospitalisation. Dans ce cadre, une activité de l’équipe IOP s’est orientée autour des méthodes de traitements d’images en temps réel, permettant le guidage par imagerie (IRM ou échographique) d’un traitement de manière mini ou non-invasive (ablation thermique ou radiothérapie), permettant aussi le dépôt local de médicaments.

Axe 2 : Transport optimal pour le traitement du signal et des images

Cet axe est centré sur le développement de nouvelles méthodologies pour l’analyse de données de grande taille tels que des histogrammes, images ou nuages de points, à partir de concepts issus de la théorie du transport optimal. Cette méthodologie conduit à l’utilisation de métriques non-euclidiennes (du type distances de Wasserstein) afin d’extraire de l’information géométrique en présence de sources de variabilité non-linéaires dans des données. Dans ce cadre, une nouvelle méthode d’Analyse en Composantes Principales basée sur la distance de Wasserstein a été récemment proposée avec des applications pour l’analyse statistique d’histogrammes.

L’utilisation du transport optimal a également été proposée pour différents problèmes de traitement d’images. En généralisant les distances de transport par régularisation des plans de transport associés, de nouvelles méthodes d’interpolations d’images ont été développées pour des applications en océanographie. La distance de Wasserstein a également été considérée pour des problèmes plus classiques d’image tels que la segmentation ou le transfer de couleur.

Axe 1 : Méthodes variationnelles et régularisation

Les méthodes variationnelles sont très utilisées en traitement d’image. Elles permettent en effet de proposer des modèles tenant compte des spécificités des problèmes considérés. Elles permettent aussi l’étude des propriétés des solutions. Les fonctionnelles proposées en traitement d’image sont non lisses (pour tenir compte de la présence d’interfaces), et pas nécessairement convexes. Il se pose naturellement des questions d’existence de solutions, d’unicité éventuelle, de calcul (rapide) des solutions. Le choix de la régularisation est souvent basé sur une hypothèse de parcimonie (e.g., du gradient, ou dans un domaine transformé). Les interactions non locales et la notion de patch interviennent classiquement dans la construction des fonctionnelles. Enfin, toutes ces approches reposent en principe sur la pondération entre le terme d’attaches aux données et le terme de régularisation, ce qui conduit à la question de l’estimation fiable de ce paramètre.