Journées Proba-Stat Bordeaux-Toulouse-Montpellier

Europe/Paris
Bât S, amphi MS001 (Toulouse School of Economics)

Bât S, amphi MS001

Toulouse School of Economics

Manufacture des Tabacs, 21, Allée de Brienne 31015 Toulouse Cedex 6 FRANCE
Registration
Journées Proba-Stat Bordeaux-Toulouse-Montpellier
Participants
  • Abdelaati Daouia
  • Agnès Lagnoux
  • Aldéric Joulin
  • Armando Arredondo Soto
  • Cathy Maugis-Rabusseau
  • Clément Steiner
  • Cécilia Lancien
  • fabien gensbittel
  • Franziska Kühn
  • Josué Corujo
  • Jérôme Renault
  • Manon Costa
  • Max Fathi
  • Mireille Capitaine
  • Nathalie Vialaneix
  • Philippe BERTHET
  • Pierre Neuvial
  • Sébastien Gadat
  • Thierry Klein
  • Willy RODRIGUEZ
  • Xavier Gendre
  • Monday, 12 November
    • 09:30 10:30
      A family of functional inequalities: Lojasiewicz inequalities and displacement convex functions 1h

      For displacement convex functionals in the probability space equipped with the Monge-Kantorovich metric we prove the equivalence between the gradient and functional type Łojasiewicz inequalities. We also discuss the more general case of λ-convex functions and we provide a general convergence theorem for the corresponding gradient dynamics. Specialising our results to the Boltzmann entropy, we recover Otto-Villani's theorem asserting the equivalence between logarithmic Sobolev and Talagrand's inequalities. The choice of power-type entropies shows a new equivalence between Gagliardo-Nirenberg inequality and a nonlinear Talagrand inequality. Some nonconvex results and other types of equivalences are discussed.

      Speaker: Jérôme Bolte (TSE)
    • 10:30 10:50
      Pause café 20m
    • 10:50 11:40
      Autour de la structure des processus max-stables 50m

      Les processus max-stables jouent un rôle fondamental dans la modélisation spatiale des événements rares, e.g., inondations, vagues de chaleur… Dans cet exposé nous allons repartir de zéro en nous intéressant à leurs représentations spectrales ; représentation qui n’est rien de plus qu'une construction probabiliste simple de cette classe de processus. Par la suite, nous nous intéresserons à la structure particulière induite par cette représentation spectrale, ce qui nous permettra de parler de la difficulté de simuler (conditionnellement) ces processus, d’introduire des mesures (spatiales) de dépendance adaptées mais aussi d’inférence.

      Speaker: Mathieu Ribatet (Inst. Montpellier)
    • 11:40 12:30
      Liberté asymptotique avec amalgamation de grandes matrices aléatoires 50m

      La théorie des probabilités libres a été introduite par Voiculescu dans les années 1980 pour l'étude des algèbres de von Neumann des groupes libres. Les variables aléatoires non commutatives sont des objets abstraits, modélisés par des éléments d'une algèbre commutative équipée d'une forme linéaire. La notion de liberté remplace celle d'indépendance statistique.Les grandes matrices aléatoires jouent un rôle important en probabilités libres, puisque les limites en grande dimension de modèles élémentaires sont libres. Cependant, certains modèles élémentaires nécessitent un cadre étendue pour une analyse non commutative.La théorie des 'trafics' est un cadre mathématique qui complète celui de Voiculescu pour l'étude de ces objets. Elle vient avec une notion d'indépendance qui unifie les différentes notions d'indépendances et libertés non commutatives. Dans cet exposé, je présenterai les premiers éléments analytiques de la théorie avec la notion de liberté sur la diagonale. Ce résultat est le travail d'une collaboration avec B. Au, G. Cébron, A. Dahlqvist et F. Gabriel.

      Speaker: Camille Male (IMB)
    • 12:30 14:20
      Lunch 1h 50m
    • 14:20 15:10
      On damped second-order gradient systems 50m

      Using small deformations of the total energy, as introduced in [31], we establish that damped second order gradient systems u′′(t)+γu′(t)+∇G(u(t))=0, Turn MathJax of may be viewed as quasi-gradient systems. In order to study the asymptotic behavior of these systems, we prove that any (nontrivial) desingularizing function appearing in KL inequality satisfies φ(s)⩾cs√ whenever the original function is definable and CC. Variants to this result are given. These facts are used in turn to prove that a desingularizing function of the potential G also desingularizes the total energy and its deformed versions. Our approach brings forward several results interesting for their own sake: we provide an asymptotic alternative for quasi-gradient systems, either a trajectory converges, or its norm tends to infinity. The convergence rates are also analyzed by an original method based on a one-dimensional worst-case gradient system. We conclude by establishing the convergence of solutions of damped second order systems in various cases including the definable case. The real-analytic case is recovered and some results concerning convex functions are also derived.

      Speaker: Pascal Bégout (TSE)
    • 15:10 16:00
      Distribution quasi-stationnaire: convergence et approximations 50m

      Pour un processus de Markov possédant un état absorbant, l'état d'équilibre est trivial. Il est donc plus intéressant de regarder le processus conditionnellement à la non-absorption. Si ce dernier converge en loi vers un équilibre, on appelle cette équilibre une distribution quasi-stationnaire (QSD). Nous verrons dans cet exposé, des critères récents pour l'existence et la convergence vers les QSD (notamment développés par Champagnat et Villemonais) et des algorithmes performants pour son approximation. Ces derniers sont basés sur des méthodes de type descente de gradient stochastique au contraire des systèmes de particules de type Fleming-Viot.
      Nous illustreront les résultats avec des exemples de dynamique de populations (naissances, morts...) mais aussi avec des applications en MCMC. En effet, nous verrons que l'usage des QSD permet la simulation exacte à moindre coût.

      Speaker: Bertrand Cloez (INRA Montpellier)
    • 16:00 16:30
      Pause 30m
    • 16:30 17:20
      Estimées de valeurs propres d'ordre supérieure pour des opérateurs de diffusion en dimension 1 50m
      Speaker: Michel Bonnefont (IMB)
  • Tuesday, 13 November
    • 09:30 10:30
      Local limit theorem for Robbins Monro algorithms 1h

      The Robbins-Monro algorithm is a recursive, simulation-based stochastic procedure to approximate the zeros of a function that can be written as an expectation. It is known that under some technical assumptions, a Gaussian convergence can be established for the procedure. Here, we are interested in the local limit theorem, that is, quantifying this convergence on the density of the involved objects. The analysis relies on a parametric technique for Markov chains converging to diffusions, where the drift is unbounded.

      Speaker: Lorick Huang (INSA / IMT)
    • 10:30 10:50
      Pause café 20m
    • 10:50 11:40
      Quelques résultats nouveaux sur les EDSRs obliquement réfléchies et applications à des problèmes de switching randomisés 50m

      Dans cet exposé je présenterai quelques résultats nouveaux d'existence et d'unicité pour des équations différentielles stochastiques rétrogrades obliquement réfléchies. Ces équations apparaissent naturellement lorsque l'on traite des problèmes de contrôle stochastique de type switching. Je présenterai également un nouveau problème de contrôle stochastique appelé switching randomisé.

      Speaker: Adrien Richou (IMB)
    • 11:40 12:30
      Un modèle de Markov déterministe par morceaux pour détecter la rechute des patients 50m

      On s'intéresse à un patient en rémission suivi régulièrement (par exemple par une prise de sang de contrôle des marqueurs) pour
      détecter au plus tôt une éventuelle rechute. La quantité d'intérêt (par exemple le nombre de cellules cancéreuses dans le sang) est un processus continu qui n'est observé que ponctuellement et typiquement au travers d'un proxy (marqueurs). Le médecin souhaite être en mesure de détecter la rechute le plus tôt possible, et si possible le type de rechute. Nous proposons un modèle de Markov déterministe par morceau qui se ramène à un problème d'arrêt optimal pour résoudre le problème. Les équations de programmation dynamique obtenues ne sont malheureusement pas calculables numériquement, aussi nous
      proposons une double discrétisation des processus en jeu par quantification afin d'établir une stratégie optimale.

      Speaker: Alice Cleynen (Inst. Montpellier)
    • 12:30 14:20
      Lunch 1h 50m
    • 14:20 15:10
      Un outil général de modélisation linéaire généralisée en grande dimension: les composantes supervisées 50m

      L'estimation des modèles linéaires généralisés en grande dimension nécessite leur régularisation. Pour que le prédicteur linéaire soit interprétable, il est en outre indispensable que celui-ci soit relié à un nombre réduit de dimensions d'interprétation simple. La pénalisation LASSO permet certes de réaliser régularisation et réduction dimensionnelle, les dimensions trouvées étant les variables sélectionnées. Mais LASSO est instable lorsque les colinéarités sont nombreuses parmi les variables explicatives, et risque de sélectionner, à la place d'une variable véritablement explicative, une variable qui lui est très corrélée. A contrario, nous proposons de conserver a priori toutes les variables explicatives, mais de chercher un nombre restreint de dimensions, appelées composantes supervisées, qui soient à la fois très liées aux variables explicatives (donc facilement interprétables) et fortement prédictives des réponses. La recherche de ces dimensions permet également de régulariser le modèle. La méthodologie des composantes supervisées étend, en l'assouplissant, la régression PLS à tous les modèles linéaires généralisés. Les intervalles de confiance bootstrap sur les coefficients permettent une sélection a posteriori des variables participant à la prédiction. Nous présentons l'adaptation de cette méthodologie aux GLMM et au modèle de Cox, en montrant qu'elle constitue un pont pratique entre exploration et modélisation des données.

      Speaker: Xavier Bry (Inst. Montpellier)
    • 15:10 16:00
      Optimisation par essaims particulaires : quelques résultats de convergence en loi 50m

      L'algorithme PSO (Particle Swarm Optimization) est une méta-heuristique stochastique d'optimisation introduite à la fn des années 90, généralement classée dans la famille des algorithmes génétiques. Elle est basée sur un comportement "social" de particules parcourant un domaine sur lequel on cherche à optimiser une fonction de coût. L'allure des trajectoires et le mouvement des particules ont donné leur nom à la méthode. La méthode d’optimisation PSO dispose de certaines caractéristiques : elle s'accommode d'espaces de recherche de grande dimension, ne nécessite pas de calcul de gradient. Mais sa convergence n'est pas assurée et elle convient surtout à des problèmes où les appels à la fonction à optimiser sont peu coûteux (le contraire du Computer Experiment).
      Dans cet exposé nous nous plaçons dans le cas où PSO converge. Notre objectif est de donner des intervalles de confiance pour le point de convergence de l'algorithme. Nous sommes amenés à considérer deux situations : un cas où les particules oscillent entre un minimum local et le minimum global; et un second cas où un unique minimum global ou local est détecté, entraînant une convergence à vitesse exponentielle. Nous établissons des théorèmes centraux limites pour chaque particule dans ces deux contextes, l'asymptotique étant liée au nombre d'itérations. Nous obtenons aussi des inégalités de concentration pour tout l'essaim de particules à itération fixée. Les résultats théoriques sont étayés par des simulations.

      Speaker: André Mas (Inst. Montpellier)
    • 16:00 16:30
      Pause 30m
    • 16:30 17:20
      Étude du processus empirique avec informations auxiliaires 50m

      Dans ma thèse j’étudie le comportement asymptotique du processus empirique, objet intervenant dans de nombreuses statistiques, quand on lui injecte une information auxiliaire, c’est-à-dire une information que l’on aurait a priori. Cet objet qui est au départ centré subit une modification et n’a plus de raison de le rester. Néanmoins on s’attend à un biais asymptotiquement nul et surtout à une baisse de la variance plus ou moins importante selon l’information apportée. Je présenterai des résultats de convergence faible, d’approximation forte et l’expression des processus limites dans le cas où l’information est donnée par la probabilité des ensembles d’une partition et dans le cas de la connaissance des probabilités de plusieurs partitions (méthode du Raking-Ratio). Je montrerai également de quelle manière il est possible d’appliquer la méthode du bootstrap, méthode statistique de rééchantillonage, permettant
      ici de simuler la loi du processus empirique avec informations auxiliaires. Je finirai avec une nouvelle approche de l’information
      auxiliaire, lorsque celle-ci est donnée par la connaissance d’espérance ou de covariances et non de probabilités.

      Speaker: Mickael Albertus (IMT)