On étudie les implications de la propriété de "non regret" pour les procédures à temps discret ou continu utilisées en apprentissage en ligne, pour des dynamiques en théorie des jeux et en optimisation convexe. Après avoir rappelé l'origine du sujet, on en décrit quelques conséquences, notamment en termes de calibration et d'inéquations variationnelles. L'analyse proposée inclut les méthodes du premier ordre comme le gradient projeté, la descente en miroir et le dual averaging.