Bayesian inference for image deblurring at a large scale - ParisTech Accéder directement au contenu
Thèse Année : 2022

Bayesian inference for image deblurring at a large scale

Inférence bayésienne pour la restauration d'images en grande dimension

Yunshi Huang
  • Fonction : Auteur
  • PersonId : 1219931
  • IdRef : 267140525

Résumé

Image deblurring is an essential image restoration problem arising in several fields from astronomy to medical science. It amounts to restoring an image from a degraded, blurry and noisy, version of it. Bayesian image deblurring seeks for the posterior distribution of the image (and blur kernel, when unknown) given an observation model and some prior knowledge on the unknowns. Closed form for the posterior distribution can rarely be computed analytically, so Bayesian approximation tools are deployed to derive an estimation of it. This thesis brings novel contributions in that topic, by introducing novel Bayesian methods for tackling two important scenarios of image deblurring problems. First, we are interested in the so-called blur identification problem, of estimating spatially varying blur kernels given a clean image and its degraded version. We construct a probabilistic state-space model accounting for the smoothness among the neighboring blur kernels, and propose a novel algorithm based on bootstrap PF (BPF) to sample weighted particles, and thus construct the sought posterior distribution. Numerical experiments on various spatially-variant blur maps and images illustrate the benefits and good stability of our approach. Second, we focus on the blind image deblurring problem of jointly estimating the image and blur kernel given the blurry noisy image. We adopt the variational Bayesian approach, to build an appropriate approximation of the posterior distribution. We introduce majorization steps to maintain closed form updates even for non conjugate priors and non-Gaussian noise. This yields the variational Bayesian algorithm (VBA). We then propose to unfold VBA over neural network layers, following the recently introduced deep unrolling paradigm. This yields the unfolded VBA, benefiting from reduced parameter tuning, fast computations on GPU architecture, and improved quantitative restoration results. The superiority of unfolded VBA over state-of-the-art blind deblurring techniques is illustrated on three datasets involving color/grayscale natural images and various blur shapes
La déconvolution d'image est un problème essentiel de restauration d'image qui se pose dans plusieurs domaines allant de l'astronomie à la médecine. Cela consiste à restituer une image à partir d'une version dégradée, floue et bruitée de celle-ci. La déconvolution d'image dans un cadre bayésien s'intéresse à rechercher la distribution postérieure de l'image (et du flou, lorsqu'il est inconnu) étant donné un modèle d'observation et des connaissances préalables sur les inconnues. La forme explicite de la distribution postérieure peut rarement être calculée analytiquement, de sorte que des outils d'approximation bayésienne sont déployés pour en obtenir une estimation. Cette thèse apporte de nouvelles contributions dans ce domaine, en introduisant de nouvelles méthodes bayésiennes pour aborder deux scénarios importants de déconvolution d'image. Tout d'abord, nous nous intéressons au problème d'identification du flou, consistant à estimer des noyaux de flou variant spatialement étant donné une image originale et sa version dégradée. Nous construisons un modèle d'espace d'état probabiliste tenant compte de la régularité entre les noyaux de flou voisins et proposons un nouvel algorithme basé sur le filtrage de particules bootstrap pour échantillonner des particules pondérées, et ainsi construire la distribution postérieure recherchée. Des expériences numériques sur divers exemples de flou spatialement variants illustrent les avantages et la stabilité de notre approche. Ensuite, nous nous concentrons sur le problème de déconvolution aveugle d'image, consistant à estimer conjointement l'image et le noyau de convolution à partir d'une image bruitée et floue. Nous adoptons une approche bayésienne variationnelle, pour construire une approximation appropriée de la distribution postérieure. Nous introduisons des étapes de majoration pour permettre des mises à jour explicites des variables même pour des a prioris non conjugués et un bruit non gaussien. Cela donne l'algorithme bayésien variationnel. Nous proposons ensuite de dérouler cet algorithme sur des couches de réseaux de neurones, en suivant le paradigme de déroulement profond récemment introduit dans la littérature. L'algorithme obtenue bénéficie d'un nombre réduit de paramètres à régler, d'une exécution rapide sur carte GPU et fournit des meilleurs résultats de restauration. La supériorité du la méthode est illustrée sur trois jeux de données impliquant des images naturelles en couleur ou niveaux de gris et diverses formes de flous
Fichier principal
Vignette du fichier
TH2022UEFL2028.pdf (10.58 Mo) Télécharger le fichier
Origine : Version validée par le jury (STAR)

Dates et versions

tel-03957192 , version 1 (26-01-2023)

Identifiants

  • HAL Id : tel-03957192 , version 1

Citer

Yunshi Huang. Bayesian inference for image deblurring at a large scale. Image Processing [eess.IV]. Université Gustave Eiffel, 2022. English. ⟨NNT : 2022UEFL2028⟩. ⟨tel-03957192⟩
82 Consultations
38 Téléchargements

Partager

Gmail Facebook X LinkedIn More