L’optimisation multidisciplinaire est un domaine de l’ingénierie impliquant l’intégration de méthodes numériques, d’outils d’ingénierie et de modèles mathématiques afin de résoudre des problèmes d’optimisation impliquant plusieurs champs disciplinaires. Les approches MDO visent à améliorer la qualité de la solution, la robustesse et si possible réduire les coûts de calculs du processus global en prenant en compte les interdépendances et l'aspect organisationnel des différents modèles impliqués. Si les méthodes MDO ont montré leur intérêt dans plusieurs domaines d’ingénierie, tout d’abord en aéronautique puis dans d’autres domaines tels que l’automobile ou le dimensionnement d’éoliennes, plusieurs verrous restent à lever pour profiter pleinement des capacités MDO en haute dimension. Parmi ces verrous, on retrouve la formalisation mathématique d’architectures MDO, c’est-à-dire une reformulation du problème d’optimisation et une suite de calcul associée. En particulier pour les architectures distribuées, dans lesquels plusieurs sous-problèmes d’optimisation sont définis, qui sont réputées pour avoir de moins bonnes propriétés de convergence. Un autre verrou important est l’intégration efficace de modèles de substitution, moins couteux, pour réduire les temps de calcul globaux.
La première partie de la thèse porte sur l’élaboration d’une nouvelle architecture bi-niveau, dans lequel deux problèmes d’optimisation sont imbriqués. Dans celle-ci, les variables partagées, entrées pour toutes les disciplines et peu nombreuses, sont optimisées avec un algorithme sans gradient, tandis que les variables locales, entrées d’une unique discipline et plus nombreuses, sont laissées à un sous-problème d’optimisation imbriqué dans le premier. L’originalité de cette architecture étant de résoudre le sous-problème par blocs, en utilisant un algorithme de minimisations alternées, le block-coordinate-descent (ou BCD). Sous certaines hypothèses de bonne définition et séparabilité des blocs, un résultat de convergence locale de l’algorithme est obtenu, améliorant les propriétés de régularité des fonctions et la convergence. Plusieurs applications sur des cas test classiques de MDO illustrent ces propriétés, ainsi que la meilleure scalabilité en fonction du nombre de couplages, contraintes et variables locales des approches bi-niveau par rapport aux architectures monolithiques quand les dérivées couplées de l'ensemble du système ne sont pas disponibles, tel que dans certains contextes industriels. La seconde partie du manuscrit se porte sur l’application des méthodes multi-fidélités dans des processus MDO. Ces méthodes exploitent à la fois un modèle haute-fidélité, de grande précision mais au coût élevé, et un ou plusieurs modèles approchés, de basses fidélités, moins couteux mais à la précision amoindrie. Pour le bon fonctionnement de ces méthodes il est souvent nécessaire de choisir des niveaux de basse-fidélité adéquats, c’est-à-dire des modèles possédant un rapport coût/précision intéressant. Ceci est d’autant plus critique dans le cadre de la MDO étant donné les nombreux moyens de générer ces modèles de basse-fidélité dont l’impact de leur introduction dans l’optimisation n’est pas connu a priori. Les contributions de ce chapitre portent sur la classification d’un grand nombre de modèles de basse-fidélité, notamment par l’introduction de deux critères d’estimation d’erreur ne nécessitant pas de statistiques couteuses. Le parti pris étant que, étant donné le très grand nombre de modèles à classer, une approximation grossière est suffisante pour espérer un gain en temps de la multi-fidélité. De petits cas test de MDO sont considérés pour illustrer ces critères en exploitant les spécificités de la MDO pour rapidement générer des modèles de basse-fidélité. Les modèles de fidélité sont ensuite choisis selon les critères proposés et une optimisation multi-fidélité, basée sur une approche de raffinement, démontre l’impact de ces choix sur son efficacité.