Soutenances

Apprentissage sous contraintes linéaires : application à l'équité algorithmique

by Gayane Taturyan (LAMA - UMR8050, Université Gustave Eiffel)

Europe/Paris
Bâtiment Copernic (Université Gustave Eiffelstitut de Mathématiques de Toulouse)

Bâtiment Copernic

Université Gustave Eiffelstitut de Mathématiques de Toulouse

5 Bd Descartes, 77420 Champs-sur-Marne
Description

Dans cette thèse, nous abordons le problème de l'apprentissage sous contraintes système.

Tout d'abord, nous nous intéressons au problème de la régression sous contrainte de parité démographique, même en l'absence d'accès aux attributs sensibles lors de l'inférence. Nous présentons un algorithme de post-traitement généraliste qui, en utilisant des estimations précises de la fonction de régression et un prédicteur d'attribut sensible, génère des prédictions satisfaisant la contrainte de parité démographique. Notre méthode repose sur la discrétisation et la minimisation stochastique d'une fonction convexe lisse. Elle est adaptée au post-traitement en ligne et aux tâches de classification multi-classes, en ne nécessitant que des données non étiquetées pour le post-traitement. Contrairement aux méthodes précédentes, notre approche est entièrement fondée sur la théorie. Elle requiert un contrôle précis de la norme du gradient de la fonction convexe, ce qui nous amène à utiliser des techniques plus avancées que la descente de gradient stochastique standard. Notre algorithme est accompagné d'une analyse en échantillons finis et de bornes de post-traitement, avec des résultats expérimentaux qui valident nos conclusions théoriques.

Nous généralisons ensuite l'approche proposée afin de traiter une large gamme de problèmes multi-classes sous diverses contraintes. Nous étudions le problème de la classification multi-classes sous contraintes au niveau système, exprimables comme des fonctionnelles linéaires sur les classifieurs aléatoires. Nous proposons encore une fois une méthode de post-traitement qui ajuste un classifieur de base donné afin de satisfaire des contraintes générales sans réentraînement. Notre méthode formule le problème comme un programme stochastique à contraintes linéaires sur des classifieurs aléatoires, et utilise la régularisation entropique et des techniques d'optimisation duale pour construire une solution admissible. Nous fournissons des garanties en échantillons finis sur le risque et la satisfaction des contraintes sous des hypothèses minimales. Ce cadre permet de traiter une grande variété de contraintes, incluant l'équité, l'abstention, et les exigences de stabilité (churn).