BEGIN:VCALENDAR
VERSION:2.0
PRODID:-//CERN//INDICO//EN
BEGIN:VEVENT
SUMMARY:Inférence statistique pour la régression PLS et ses variantes
DTSTART:20250709T120000Z
DTEND:20250709T140000Z
DTSTAMP:20260504T060600Z
UID:indico-event-14597@indico.math.cnrs.fr
DESCRIPTION:Speakers: Luca Castelli\n\nLe jury sera composé de :- M. Clé
 ment MARTEAU\, Université Claude Bernard Lyon 1\, Directeur de thèse\,- 
 Mme Irène GANNAZ\, Université Grenoble Alpes\, Directrice de thèse\,- M
 me Liliana FORZANI\, Université Nationale du Littoral - Santa Fe (Argenti
 ne)\, Rapportrice\,- M. Vincent RIVOIRARD\, Université Paris Dauphine\, R
 apporteur\,- Mme Sophie LAMBERT-LACROIX\, Université Grenoble Alpes\, Exa
 minatrice\,- Mme Sophie DABO-NIANG\, Université de Lille\, Examinatrice\,
 - Mme Véronique MAUME-DESCHAMPS\, Université Claude Bernard Lyon 1\, Exa
 minatrice\,- M. Mohamed HEBIRI\, Université Gustave Eiffel\, Examinateur.
 \n \nRésumé :\nCette thèse est consacrée aux propriétés statistique
 s de l’estimateur de régression des moindres carrés partiels (PLS). La
  régression PLS est une technique de réduction de la dimension connue po
 ur traiter les cas de haute dimension et de multicolinéarité. Cette mét
 hode projette les covariables sur un sous-espace bien choisi\, en considé
 rant les corrélations successives avec la variable à expliquer\, dans le
  but d’améliorer la qualité prédictive. Nous décrivons les différen
 tes formes d’algorithmes PLS\, en détaillant leurs propriétés mathém
 atiques et en soulignant le lien avec la méthode du gradient conjugué. P
 ar ailleurs\, les propriétés algébriques du sous-espace calculé sont a
 nalysées et approfondies dans notre contexte. Certains liens avec la stru
 cture des valeurs propres de la matrice de covariance sont également éta
 blis. Nous commençons par fournir une borne supérieure non asymptotique 
 pour l’estimateur PLS sur la perte quadratique dans le cas d’une seule
  composante. Nous étendons ces résultats dans un contexte parcimonieux p
 our la sparse PLS (sPLS) où les bornes obtenues sont similaires à celles
  obtenues pour l’algorithme Lasso. Nous généralisons ensuite la borne 
 donnée au cas de l’estimateur PLS avec K composantes. La borne est obte
 nue grâce à une hypothèse sur la norme des composantes PLS de Krylov. N
 ous assouplissons cette hypothèse en introduisant une étape de régulari
 sation Ridge dans l’estimateur PLS afin d’obtenir des bornes similaire
 s. Enfin\, nous nous concentrons sur l’estimation de projections aléato
 ires. Ce travail découle de l’intérêt porté à la régression PLS\, 
 où le sous-espace calculé est aléatoire et représente une estimation d
 ’une version théorique. Nous fournissons une borne supérieure non asym
 ptotique sur la norme d’opérateur de la différence entre l’opérateu
 r de projection et son estimation.\n\nhttps://indico.math.cnrs.fr/event/14
 597/
LOCATION:Salle Fokko du Cloux (Bâtiment Braconnier)
URL:https://indico.math.cnrs.fr/event/14597/
END:VEVENT
END:VCALENDAR
