Nous considérons des réseaux de neurones profonds pour l'apprentissage des processus faiblement dépendants. Le cadre considéré est assez général et comprend : la régression, la classification, la prédiction des séries temporelles,...
La consistance de l'algorithme de minimisation du risque empirique dans cette classe des réseaux de neurones profonds est prouvée.
Nous établissons une borne de généralisation, qui admet une vitesse de convergence proche de celle obtenue sur des observations indépendantes.
Une application au problème de classification est considérée.
En collaboration avec Modou Wade.