Séminaire des Doctorants et Doctorantes

Existence d'une solution pour les Equations Différentielles Stochastiques non-linéaires Réfléchies

par Romain Ravaille

Europe/Paris
salle 435 (ENS Lyon)

salle 435

ENS Lyon

Description

En machine learning, la descente de gradient est un outil encore très utilisé (en particulier pour les réseau de neurones), pourtant elle est souvent un outil situationnel (nécessitant la convexité de la fonction de coût pour trouver le minimum global). Il y a plusieurs propositions d'amélioration de la descente de gradient, mon angle d'attaque est de modifier un peu l'équation différentielle très simple derrière la descente de gradient : on ajoute un mouvement Brownien, une non-linéarité et une Réflexion pour avoir une Equation Différentielle Stochastique non-linéaire Réfléchie. L'idée est que cette nouvelle équation permettrait de trouver le bon minimum, plus vite que si on ajoute seulement le mouvement Brownien. Je propose dans cet exposé de présenter (avec des conditions de base simples) la preuve de l’existence d'une solution à une telle équation.