Optimisation Robuste Pour La Segmentation Avec Des - Gif-sur-Yvette, France - Université Paris-Saclay GS Sciences de l'ingénierie et des systèmes

Sophie Dupont

Posté par:

Sophie Dupont

beBee Recruiter


Description
**Optimisation robuste pour la segmentation avec des annotations incertaines // Robust Optimization for Segmentation with Uncertain Labelling**:

- Réf
- **ABG-118376**

**ADUM-51671**
- Sujet de Thèse- 23/11/2023- Université Paris-Saclay GS Sciences de l'ingénierie et des systèmes- Lieu de travail- Gif sur Yvette - France- Intitulé du sujet- Optimisation robuste pour la segmentation avec des annotations incertaines // Robust Optimization for Segmentation with Uncertain Labelling- Mots clés- Optimisation Robuste, apprentissage automatique, segmentation, étiquettes bruitées
- Robust Optimization, machine learning, segmentation, noisy labels**Description du sujet**:

- Souvent en apprentissage automatique, on est confronté à des ensembles de données imparfaits qui sont affectés par des erreurs sous forme d'étiquettes incorrectement appliquées. Ceci a des conséquences en aval pour les classificateurs ou les modèles génératifs dont les paramètres sont sélectionnés en résolvant des problèmes d'optimisation largement basés sur ces ensembles de données. L'optimisation robuste fournit un cadre permettant de prendre en compte et de surmonter ces erreurs en modélisant l'incertitude dans les données de manière probabiliste et en optimisant sur le pire cas attendu. Plusieurs méthodes pour intégrer ces incertitudes ont été explorées récemment ; en estimant les distributions d'étiquettes conjointement pendant le processus d'optimisation [7], en optimisant sur toutes les distributions d'étiquettes qui sont proches des étiquettes observées au sens de la métrique de Wasserstein ou d'autres divergences entre distributions de probabilité [5], ou en ajoutant un régularisateur entropique au problème d'optimisation initial pour sélectionner la solution la plus robuste par rapport aux données observées [1].
- Nous proposons de revoir ces approches dans le contexte des problèmes de segmentation d'images, où des travaux récents ont montré une haute sensibilité aux perturbations. D'abord, nous proposons d'étudier le problème de l'extension des classificateurs supervisés standard, par exemple la régression logistique ou SVM, aux problèmes de segmentation. En utilisant des formulations d'optimisation de niveau bilatéral pour fixer les hyperparamètres (par exemple, les paramètres de régularisation) nous pouvons équilibrer de manière optimale la robustesse et la fidélité des données, même pour des modèles non lisses. Ceci sera accompagné par des garanties rigoureuses de convergence en utilisant des avancées récentes en différentiation implicite non lisse [2, 3] et en déroulement non lisse [4]. Ensuite, nous proposons d'étendre ces approches aux réseaux neuronaux profonds, en exploitant la compatibilité de ces avancées [2,3,4] avec la différentiation automatique et la rétropropagation. En particulier, les réseaux obtenus en déroulant des algorithmes d'optimisation ou avec des couches d'optimisation définies implicitement [2] seront étudiés. Enfin, nous étudierons les extensions possibles de ces méthodes au cas supervisé faiblement.
Often in machine learning, one deals with imperfect datasets that are affected by errors in the form of incorrectly applied labels. This has downstream consequences for classifiers or generative models whose parameters are selected by solving optimization problems based heavily on these datasets. Robust optimization provides a framework that allows one to account for and overcome these errors by modeling uncertainty in the data in a probabilistic way and optimizing over the expected worst-case. There are several ways to incorporate these uncertainties that have been explored recently; by estimating the label distributions jointly during the optimization process [7], by optimizing over all label distributions that are close to the observed labels in the sense of the Wasserstein metric or other divergences between probability distributions [5], or by adding an entropic regularizer to the initial optimization problem to select the most robust solution with respect to the observed data [1].
- We propose to revisit these approaches in the context of image segmentation problems, where recent works have shown high sensitivity to perturbations. First, we propose to study the problem of extending standard supervised classifiers, e.g. logistic regression or SVM, to segmentation problems. Using bilevel optimization formulations to set hyperparameters (e.g., regularization parameters) we can optimally balance robustness and data fidelity, even for nonsmooth models. This will be accompanied by rigorous convergence guarantees using recent advances in nonsmooth implicit differentiation [2, 3] and nonsmooth unrolling [4]. Then, we propose to extend these approaches to deep neural networks, leveraging the compatibility of these advances [2,3,4] with automatic differentiation and backpropagation. In particular, networks obtained by unrolling o

Plus d'emplois de Université Paris-Saclay GS Sciences de l'ingénierie et des systèmes