- Indico style
- Indico style - inline minutes
- Indico style - numbered
- Indico style - numbered + minutes
- Indico Weeks View
Ce congrès vise à offrir la possibilité aux jeunes qui avaient prévu de présenter leurs travaux à la communauté lors du CANUM 2020 de le faire par visio-conférence. Suite à la crise sanitaire que nous traversons de nombreuses manifestations scientifiques ont dû être annulées ou repoussées ou adaptées. Ainsi, le CANUM, dans sa version présentielle, a été repoussé de deux ans. Ce congrès est souvent l'occasion pour les jeunes de faire connaître leurs travaux de recherche à la communauté. La SMAI a donc décidé de mettre en place une version allégée en distanciel afin de leur offrir cette possibilité. Ce congrès virtuel aura lieu les 3 et 4 décembre 2020 par visio-conférence. Il est ouvert à tous les adhérents de la SMAI (l'adhésion est gratuite pour tous les jeunes). |
Florence HubertDiscrete Duality Finite Volume schemes and applications to biology |
Florence Hubert, professor at the Institute of Mathematics of Marseille, is working on the developpement of numerical tools for biological issues. Her main research interests are developping new models in oncology to better understand processes as the angiogenesis, the metastatic spreading, cell migration and the impact of the anti-cancer drugs on these spreadings. She also has developped efficient finite volumes schemes for non linear elliptic operator that have found applications to medical imagery and cell migration. |
Yvon MadayQuelques éléments de plus que j'ai appris sur la modélisation de l'épidémie Covid 19 |
Professeur à Sorbonne Université et à l’Institut Universitaire de France en mathématique appliquée, j’ai toujours eu a coeur de développer les mathématiques en lien avec des secteurs d’application variés dans un contexte interdisciplinaire bien marqué. Je suis heureux d’avoir initié avec Frédéric Coquel en 1996 la série des CEMRACS qui est maintenant une activité portée par la SMAI. Parmi les activité actuelle, outre la création et la direction du Tremplin Carnot Smiles, je suis l’un des porteurs de l’ERC synergy EMC2, sur la simulation numérique pour des problèmes de chimie computationnelle et fondateur de deux projets sur le virus SARS Cov 2 : Obepine et Pandémia. |
Sylvie MéléardAdaptation to a gradual environment - Research of lineages |
Sylvie Méléard, professor at the Ecole Polytechnique, is interested in mathematical modeling for life sciences, more particularly with probabilistic tools but also in relation to partial differential equations.
The field of applications is extremely large, multi-scale, and leads to mathematical questions that are often original and a bit unexpected. I am interested in the evolution of species, in particular in the way mutations can settle in a population when the environment changes, whether it is under the action of other individuals who change the resource, or of a climate change, an antibiotic or a chemotherapy.
|
Christophe PrudhommeSome collaborative research projects at Cemosis: Methods |
Christophe Prud'homme is a Professor in Applied Mathematics at the University of Strasbourg. He's passionate about mathematics and their endless applications in industry, sciences in particular health and environmental sciences. |
Cet évènement est organisé par la SMAI et des membres du comité d'organisation de CANUM2020
|
CLIQUER ICI POUR REJOINDRE LA PLENIERE
Président.e de session :
Modérateur.trice : Nicolas Forcadel
Après l’exposé que j’avais intitulé "Deux ou trois choses qui sont nées du groupe de travail Maths-4-Covid-19 “ au séminaire du Laboratoire Jacques-Louis Lions en juin dernier
(voir https://www.youtube.com/watch?v=QphZv1kytnQ&list=PL2W1YCsKIaN5g7x9QtirnR14jPxFAWYTV&index=3),
ma connaissance sur le sujet a bénéficié de la collaboration avec plusieurs collègues dans le cadre de projets dont j’aimerais présenter certains résultats récents. Le cadre de cette initiative de la SMAI du “CAN-J-2020” me semble approprié puisqu’elle parle de mathématiques, d’applications, de cadre industriel et d'interdisciplinarité.. plus précisemment je parlerai de modèle d’épidémie, de reduction de complexité, de bases réduites, avec une touche de parareel et aussi un peu de sondages et barres d’erreur….
CLIQUER ICI POUR REJOINDRE LA SALLE 2
Président.e de session : Fanny Delebecque
Modérateur.trice : Nicolas Vauchelet
Algal Bloom is a natural process of rapid population growth of cyanobacteria (a group of photosynthetic bacteria) in aquatic environments, this is a consequence of the artificial enrichment caused by human activity. Our main objective is to build a hydro-ecological model to understand the dynamics of cyanobacteria in aquatic environments, taking into account the various essential factors for its development.
In this presentation we focus on the modelling of cyanobacteria dynamics. Light aside, the main growth limitations of cyanobacteria are phosphorus and nitrogen in their inorganic form. One of the main sources of phosphorus and nitrogen for the growth of cyanobacteria comes from rivers (external loading). But specific hydrodynamic conditions (wind, strong currents) lead to the resuspension of the sediment which provide a second source of phosphorus and nitrogen (internal loading), mainly in their organic form. One survival mechanism of cyanobacteria is the production of an enzyme that transforms the organic phosphorus into inorganic phosphorus when the concentration of inorganic phosphorus is low.
To simulate the cyanobacteria dynamics, we use two-dimensional hydrodynamic models. The hydrodynamics part is based on shallow water equations and is implemented in the SW2D software of the LEMON-INRIA team, to which we added some transport and reaction terms. For the ecological part, we implemented the WASP (Water Quality Analysis Simulation Program) model in which are represented the cycle of Carbon, Phosphorus and Nitrogen of the ecosystem.
To improve the model, we added some terms and equations to represent the liberation of the enzyme by the cyanobacteria and its enzymatic activity based on the model of Michaelis Menten.
The coupled hydro-ecological model was applied on the study case of Lake Taihu in the framework of the French-Chinese ANSWER project funded by the ANR.
Microalgae are photosynthetic organisms whose potential has been proven in the last decade for several biotechnological applications (e.g.,Y. Chisti. Biodiesel from microalgae, Biotechnology Advances, 2007). These micro-organisms can be massively cultivated in closed or open photobioreactors. In this talk, we focus on the cultivation of algae in a raceway pond, where a paddle wheel is considered to set in motion the water and mix the microalgae (D. Demory et al. How do microalgae perceive light in a high-rate pond? Towards more realistic Lagrangian experiments, The Royal Society, 2018). We consider a coupled physical-biological-mixing model describing the growth of microalgae in raceway ponds cultivation process. Our approach combines a biological model (based on the Han model), shallow water dynamics equations that model the fluid in the raceway pond and a permutation matrix which models a mixing device to exchange the algae layers at each new lap. We present an adjoint-based optimization procedure which includes the constraints associated to the shallow water regime. This approach enables us to deal with the topography and the mixing strategies to maximize the biomass production.
On the contrary to a widespread belief, we show that a flat topography is the optimal in a periodic regime with no mixing strategy. However, non trivial topographies can be obtained associated with some specific mixing strategies (O. Bernard et al. Shape optimization of a microalgal raceway to enhance productivity, Preprint, 2020). We prove that whatever the order of the considered permutation is, the periodic system have a period corresponding to one lap (O. Bernard et al. Optimizing microalgal productivity in raceway ponds through a controlled mixing device, Preprint, 2020). The numerical results show that though non-flat topographies may slightly enhance the production, an appropriate mixing strategies can improve it significantly.
Swimming simulations are performed to study the performance of an active immersed body according to its shape and deforming movements. The deformation velocity of the body is usually imposed using a proper analytic formulation to model simple deforming movements. In the literature, more complex motions can be derived to model food, and prey captures (Bergmann et al.2011). To our knowledge, only a few studies tried to extract the body deformations directly from actual data, using the optimal transport theory (Bergmann et al.2016) or experimental observations (Li et al.2012). Here, we aim to model a real-like three-dimensional (3D) eleuthero-embryo zebrafish shape and applying the actual deformation extracted from experimental images to simulate the very stereotyped escape response, the so-called C-start routine. In the biology field, only swimming kinematics were approximated to analyze the escape behavior and compare different zebrafish swimming altered by drugs or chemical compounds. Biologists use the zebrafish as an animal model to study the effects of neurotoxicants on locomotion and develop pharmacological treatments. However, the kinematic analysis may not be sufficient to describe accurately the locomotion. The computational fluid dynamics model provides the full computation of the flow and enlightens the amount of energy expended by the zebrafish during the different swimming stages. The solution of incompressible Navier-Stokes equations is approximated on a Cartesian mesh using a penalization method combined with a level-set method. After conducting a Procrustes Analysis on experimental data, we reconstructed and deformed a 3D zebrafish model by using optimal transportation and midline kinematics, to provide Lagrangian deformation velocities for 3D numerical simulations. We then used the fully-parallel computational model to give an insight into the energetic performance of challenged zebrafish escape swimming. As a result, the complex zebrafish escape swimming behavior has been successfully reproduced after computing experimental deformations.
Glioblastoma Multiforme (GBM) is the deadliest and the most frequent brain tumour, only 5% of patients survive more than 5 years after being diagnosed. Patients go through emergency surgery and are being treated with both chemotherapy (Temozolomide) and radiotherapy. But those treatments still remain inefficient with that cancer because of the cellular heterogeneity.
In this work, the goal is to model and simulate the evolution of the tumorigenesis and the therapeutic response of the GBM. Multiple phenomena are modelled: tumour diffusion, chemotaxis, haptotaxis and reaction. They all correspond to biological systems: the cellular cycle, apoptosis, autophagia or angiogenesis.
The resulting model is a non-linear system with 4 equations and 4 unknowns:
$$\begin{equation}
\frac{\partial u}{\partial t}-\nabla.(\Lambda(x)a(u)\nabla u)+\nabla.(\Lambda(x)\chi(u)\nabla c)=\rho_1 u(1-u-u_e)-\beta_1 u -T(u) \\
\frac{\partial c}{\partial t} - \nabla.(D_2\nabla c) = \rho_2 u_e -\beta_2 c-\gamma_2 uc \\
\frac{\partial u_e}{\partial t} - \nabla.(\Lambda(x)a(u_e)\nabla u_e) + \nabla.(\Lambda(x)\chi(u_e)\nabla V) = \rho_3 u_e(1_u-u_e) - \beta_3 u_e \\
\frac{\partial V}{\partial t} - \nabla.(D_4\nabla V) = \rho_4(c) -\beta_4 V-\gamma_4 u_eV
\end{equation}$$
To solve numerically the previous system on a MRI, a nonlinear Control Volume Finite Element scheme is used on a mesh fitting the geometry of the brain and the tumour. The numerical scheme is implicit in time.
Numerical simulations of this scheme have been done and the usual treatments (surgery, chemotherapy and radiotherapy) are used to understand the behaviour of the tumour-response to treatments.
Optic neuropathies such as glaucoma are often late-onset, progressive and incurable diseases.
Despite the recent progress in clinical research, there are still numerous open questions regarding the etiology of these disorders and their pathophysiology.
Furthermore, data on ocular posterior tissues are difficult to estimate noninvasively and their clinical interpretation remains challenging due to the interaction among multiple factors that are not easily isolated.
The recent use of mathematical models applied to biomedical problems has helped unveiling complex mechanisms of the human physiology.
In this very compelling context, my PhD thesis was devoted to designing a mathematical and computational model coupling tissue perfusion and biomechanics within the human eye.
I have developed a patient-specific Ocular Mathematical Virtual Simulator (OMVS), which is able to disentangle multiscale and multiphysics factors in an accessible environment by employing advanced and innovative mathematical models and numerical methods.
The proposed framework may serve as a complementary method for data analysis and visualization for clinical and experimental research, and a training application for educational purposes.
In my presentation, I would like to introduce this complex framework and its clinical, numerical and computational challenges.
Subsequently I will report some interesting results produced by a variance-based sensitivity analysis performed on this mathematical model. In particular, I will focus on the effect of intraocular pressure and systemic blood pressure on the ocular posterior tissue vasculature.
The combination of a physically-based model with experiments-based stochastic input allows us to gain a better understanding of the physiological system, accounting both for the driving mechanisms and the data variability.
Additionally, the results obtained with this analysis support the validity of the model and its clinical application.
Cardiac mitochondria are intracellular organelles that play an important role
in energy metabolism and cellular calcium regulation.
This is done through intra mitochondrial reactions and ionic fluxes across the
inner mitochondrial membrane.
In particular, cardiac mitochondria influence the excitation-contraction cycle of the heart cell.
We proposed previously a mathematical model of cardiac mitochondria to better understand their underlying role.
With 32 parameters, our model is simple in comparison with models in the literature, yet it is still impossible to be calibrated to experimental data.
In this work, we aim to calibrate our model to experimental data that consists of measures of oxygen consumption rates of mitochondria controlled by external ADP additions.
For this reason, and to quantify the effects of uncertainties on the parameters of the model, we performed a global sensitivity analysis based on Sobol indices.
Firstly, we highlighted the parameters with little influence on fluxes governing the activity of the mitochondria, which are internal components of our model.
Secondly, with these parameters fixed in their range of uncertainty, we repeated the analysis on the oxygen consumption rate of the model, taking into consideration only the influential parameters from the first step. The latter analysis showed that only six parameters have an important influence on the oxygen consumption rate of the mitochondria.
Finally, using a genetic optimization algorithm, we calibrated these six parameters, using five different experimental datasets, which describe oxygen concentration variation in time.
Results show that our model is able to reproduce both respiration rates of mitochondria and transitions between its different states (before and after the ADP addition), with very low variability of the parameters between each experiment (<2%).
CLIQUER ICI POUR REJOINDRE LA SALLE 1
Président.e de session : Yvon Maday
Modérateur.trice : Nicolas Forcadel
Reduced basis methods (RBM) is part of model reduction methods which
are used more and more in the industrial framework for rapid numerical
simulations without a loss of the accuracy. They can be considered as an
additional feature for a more classical simulation tool based on e.g.
finite element or finite volume, since the reduced basis is constructed
from these classical tools. One drawback of these approaches is the fact
that their (offline/online) implementation is intrusive, in the sense
that some elementary RBM bricks of the approximation needs to be
assembled offline from the original code and this requires to modify
lines in the code. Non Intrusive versions are thus interesting if the
user does not want or has not the possibility to "enter" in the original
code. The two-grid process which is a "Non Intrusive Reduced Basis"
(NIRB) method combines the concept of reduced basis methods by
postprocessing a coarse classical approximation. The online part, which
is computed in a short time, proposes a second approximation that is as
accurate as the solution that would have been obtained by using the
reference code on a very fine grid (but without computing it). This
method will first be presented and various follow up results will be
explained both from a theoretical point of view and illustrated
numerically. These results underline that retrieving the fine mesh
accuracy without computing on the fine mesh is possible in a non
intrusive way.
Les systèmes dissipatifs sont présents en physique et en biologie, par exemple les modèles cinétiques avec collisions, ou les modèles de population mélangeant migration rapide et démographie lente. Simuler ces systèmes de façon numérique présente un défi, à cause de la gamme de valeurs que peut prendre la raideur $1/\varepsilon$ : les méthodes usuelles subissent une réduction d'ordre en régime raide et les méthodes d'analyse asymptotique (e.g. [1]) ont une erreur élevée en régime non-raide.
Nos travaux [3] présentent une manière de simuler certains de ces problèmes, avec un coût et une erreur indépendants du paramètre de raideur $\varepsilon$, c'est-à-dire avec une précision uniforme. Nous obtenons ce résultat grâce à une méthode de décomposition micro-macro issue de [2], valide à l'origine pour des problèmes hautement oscillants. Cette décomposition détermine un nouveau problème pour lequel la raideur ne se manifeste qu'à partir d'un certain ordre de dérivation, ce qui permet de le résoudre avec une précision uniforme en utilisant des méthodes IMEX. Ce résultat est illustré avec des méthodes exponentielles Runge-Kutta.
Cet exposé se concentrera sur la construction du problème, notamment la partie macro (qui détermine la partie micro). Nous nous efforcerons de transmettre l'idée et l'intuition derrière la méthode, pour mettre en avant ses forces et ses failles. La méthode s'étend partiellement aux EDP, et cela est illustré sur un problème de Burgers relaxé et un problème de télégraphe. La construction de la partie macro nécessite alors une régularisation qu'on choisit de type Rosenau.
[1] François Castella, Philippe Chartier, and Julie Sauzeau. “A formal series approach to the center manifold theorem”. In: Foundations of Computational Mathematics (2016), pp. 1–38.
[2] Philippe Chartier, Mohammed Lemou, Florian Méhats, and Gilles Vilmart. “A new class of uniformly accurate numerical schemes for highly oscillatory evolution equations”. In: Foundations of Computational Mathematics 20.1 (2020), pp. 1–33.
[3] Philippe Chartier, Mohammed Lemou, and Léopold Trémant. “Uniformly accurate numerical schemes for a class of dissipative systems”. submitted. May 2020. url: https://hal.inria.fr/hal-02619512.
Many electromagnetic and acoustic applications require the ability to explore all solutions in a given frequency window. When the problem is large scale, strategies based on computing a large number of solutions from successive solver calls usually lead to prohibitive computational costs. This is especially the case when the solver relies on integral equations discretized using the boundary element method (BEM), as this amounts to solving numerous complex, unsymmetric and fully populated linear systems.
The reduced basis method (RBM) is an efficient approach to rapidly and accurately approximate any solution within a given frequency window [1, 2]. In the context of frequency sweeps with the BEM, the success of the RBM critically depends on the ability to decouple the frequency from the kernel of the underlying integral equation.
In this talk, we present a novel approach based on approximating the kernel by its projection onto locally adaptive subspaces [3]. Compared to previous approaches [4], we are able to reconstruct the frequency-dependent kernel with much less basis functions overall, which contributes to reducing the costs of generating a reduced basis.
[1] M Fares, Jan S Hesthaven, Yvon Maday, and Benjamin Stamm. The reduced basis method for the electric field integral equation. Journal of Computational Physics, 230(14):5532–5555, 2011.
[2] Jan S Hesthaven, Benjamin Stamm, and SHUN Zhang. Certified reduced basis method for the electric field integral equation. SIAM Journal on Scientific Com- puting, 34(3):A1777–A1799, 2012.
[3] Yvon Maday and Benjamin Stamm. Locally adaptive greedy approximations for anisotropic parameter reduced basis spaces. SIAM Journal on Scientific Computing, 35(6):A2417–A2441, 2013.
[4] Jens L Eftang and Benjamin Stamm. Parameter multi-domain ‘hp’ empirical interpo- lation. International Journal for Numerical Methods in Engineering, 90(4):412–428, 2012.
La simulation numérique directe (DNS) à nombre de Reynolds élevé du comportement d'un fluide décrit par les équations de Navier-Stokes est couteuse. Pour cette raison, on utilise des techniques comme la méthode de simulation des grandes échelles (LES) où l'on n'a pas besoin de résoudre l'intégralité de toutes les échelles, mais où l'effet des plus petites échelles sur les échelles résolues sera modélisé. On décompose la solution $\bf u $ sous la forme: $\bf u(t,\bf x)=\bar {\bf u}(t,\bf x)+{\bf u'(t,\bf x)}$ où $ \bar {\bf u}$ représente les grandes échelles et est obtenue par convolution de $\bf {u}(t,\bf x)$ avec un filtre de largeur $\delta$. D'autre part, l'effet des échelles fluctuantes ${\bf u'}= \bf u- \bar {\bf u} $ sur l'évolution de $\bar {\bf u} $ est modélisé par un terme supplémentaire, dit de diffusion turbulente. L'équation du problème filtré est
$$
\frac{\partial \bar {\bf u}}{\partial t} - \nu \Delta \bar {\bf u}- \nabla \cdot ( \nu_t \mathbb{D}( \bar {\bf u})) +
\bar {\bf u} \cdot \nabla ( \bar {\bf u}) + \nabla \bar { p} =
\bar {\bf f} \mbox{ dans } ]0,T[ \times \Omega. \hspace{1cm} (1)
$$
On utilise le modèle de Smagorinksy qui exprime la viscosité turbulente en fonction des échelles résolues sous la forme:
$$
\nu_t= c \delta^2 || \mathbb{D}(\bar { \bf u})||_F,\mbox{ où }
|| A||_F = ( \sum_{i,j=1}^{2} a_{ij}^2)^{1/2} \, \mbox{ et } \mathbb{D}( \bar {\bf u}) =\displaystyle \frac { \nabla \bar {\bf u }+ \nabla \bar { \bf u}^T}{2}.
$$
C'est donc le système composé de (1) et de la contrainte d'incompressibilité qui sera approché numériquement. La taille du filtre est choisie localement: $\delta = h_K$, où $h_K$ est le pas du maillage dans la cellule $K$. Notons $(\bar {\bf u}_h, \bar p_h)$ la solution discrète calculée. On présente une méthodologie permettant d'obtenir des estimations a posteriori qui estime l'erreur $||{\bf u} - {\bar { \bf {u}}}_h|| + || p - {\bar p}_h||$:on s'intéresse donc aux erreurs dues à la discrétisation spatiale et temporelle, mais aussi aux erreurs dues au changement de modèle par l'ajout d'une diffusivité turbulente.
Des tests numériques sont présentés où on utilise la méthode d'Euler implicite pour la discrétisation en temps et la méthode des éléments finis ($P_1+\mbox{bulle},P_1$) pour la discrétisation en espace. Pour rendre la simulation plus efficace, on adapte les maillages et les pas de temps en fonction des indicateurs d'erreur locaux. L'ensemble est implémenté dans FreeFem++.
In this work, we examine a hybrid Monte-Carlo/deterministic resolution for the parabolic time-dependent diffusion equation as a toy problem. The aim is to treat neutron transport problems where these Monte-Carlo resolutions are most often called for.
We consider two different solvers: a “coarse” solver based on a deterministic finite-element resolution and a “fine” solver based on a Monte-Carlo resolution. We use a hybrid “parareal in time” algorithm based on these two solvers to reduce the computational time of the full Monte-Carlo simulation.
In the numerical experiments, we compare our parareal strategy with a standard full Monte-Carlo solution of the diffusion equation. In particular, we show that for a large number of processors, our adaptive strategy significantly reduces the computational time of the simulation. The convergence properties of the proposed Monte-Carlo/deterministic parareal strategy are also discussed in this work.
CLIQUER ICI POUR REJOINDRE LA SALLE 3
Présidente de session : Brigitte Bidegarray.
Modérateur : Francky Luddens.
Our work deals with the construction of a second-order well-balanced Lagrange-projection scheme applied to the 1D Blood Flow Equations [Formaggia, Quarteroni, Veneziani 2009]. We study the model in the particular case in which the cross-sectional area at rest and the wall stiffness of the blood vessel could be not constant in space. Indeed, there exist physiological and pathological situations in which geometrical and mechanical parameters can vary locally, as in presence of stenoses or aneurysm and tapering of blood vessels [Ghigo, Delestre, Fullana, Lagrée 2017]. However, to consider non-constant parameters leads to the presence of a non-null source term and, consequently, we aim to develop a numerical scheme for the resulting hyperbolic system of balance laws.
The Lagrange-projection formalism [Morales De Luna, Castro Díaz, Chalons 2020] entails a decomposition of the mathematical model into two different systems: the acoustic/Lagrangian one, which takes into account the (fast) acoustic waves, and the transport/projection step based on the (slow) transport waves. This proves to be useful and very efficient when considering subsonic or low-Mach number flows. In such situations the CFL restriction of Godunov-type schemes is driven by the acoustic waves and can be very restrictive. Thus, this kind of decomposition allows the design of very efficient implicit-explicit numerical schemes.
In particular, in order to solve the acoustic system, we delineate an approximate Riemann solver. To be able to do that, first we exploit the Suliciu relaxation approach [Bouchut 2004]. Then, following Gallice [Chalons, Kestener, Kokh, Stauffert 2017], we easily solve the associated Riemann problem as the resulting hyperbolic system is composed of only linearly-degenerate waves. The numerical source term is included in such a way that it is consistent in the integral sense and, at the same time, the scheme is well-balanced, namely able to preserve the zero-velocity stationary solution, the so-called "man at eternal rest" solution.
Finally, in order to reach second-order of accuracy in space and time, we make respectively use of polynomial reconstruction and Runge-Kutta TVD scheme. However, as the usual reconstructed polynomial would prevent the scheme to be well-balanced, we modify the slopes in such a way that they cancel when the "man at eternal rest" condition is satisfied. This is achieved by making use of the so-called fluctuations [Morales De Luna, Castro Díaz, Chalons 2020].
In this work, we study the existence of solutions for a diagonal hyperbolic system, that is not necessarily strictly hyperbolic, in one space dimension, considering discontinuous $BV$ initial data without any restrictions on the size of its norm. This system appears naturally in various physical domains, particularly in isentropic gas dynamics and dislocation dynamics in materials. In the case of strictly hyperbolic systems, Bianchini and Bressan (2005) presented a global existence and uniqueness result assuming the initial data has small total variation. In the case where the system is not necessarily strictly hyperbolic, El Hajj and Monneau (2012), have shown the global existence and uniqueness of a continuous solution considering large non-decreasing initial data. Let us also mention that a global existence result of a continuous solution has been made by El Hajj, Ibrahim and Rizik (2018), where they considered certain monotony on the velocities of the system and the initial data. In our work, we show the global in time existence of discontinuous viscosity solutions to a diagonal hyperbolic system that is not necessarily strictly hyperbolic, for every initial data of bounded total variation, without the assumption that the system is strictly hyperbolic, and without any monotony supposition on the velocities. Up to our knowledge, this is the first global existence result of large discontinuous solutions to this system.
In this work, we consider diagonal non-conservative hyperbolic systems in one space dimension with monotone and large Lipschitz continuous data. Under a certain nonnegativity condition on the Jacobian matrix of the velocity of the system, global existence and uniqueness results of a Lipschitz solution for this system, which is not necessarily strictly hyperbolic, was proved in El Hajj, Monneau (2013). We propose a natural implicit scheme satis?ying a similar Lipschitz estimate at the discrete level. This property allows us to prove the convergence of the scheme without assuming it strictly hyperbolic.
More precisely, we present a convergence result for an implicit Upwind scheme considering the framework of hyperbolic systems, which are not necessarily strictly hyperbolic. Related to this work, it is worth noting that, in Monasse,Monneau (2014) the authors have proved a similar result for a semi-explicit scheme in the case of non-conservative strictly hyperbolic systems. Moreover, their result was only valid in the class of vanishing viscosity solutions, introduced by Bianchini and Bressan (2005). Here, we show the convergence taking only Lipschitz continuous solutions, without any other restriction concerning the class of solutions.
Note that we choose the implicit scheme since it naturally preserves the Lipschitz estimates, proved in El Hajj, Monneau (2013), at the discrete level, which is neither the case of the explicit scheme nor that of the semi-explicit scheme.
The Shallow water equations (also called Saint-Venant's equations) are the usual model governing fluid flow in the rivers, channels or the oceans. They are used, for example, for the protection of the environment, the prediction of tides and storm urges, the transport of the sediment or the study of floods. Some references in the literature propose an improvement of the Shallow water equations to take into account the vertical profile of the horizontal velocity.
The objective of this work is to develop a scheme of the model with two velocities in the vertical profil based on an analysis of the Riemann problem. We look for a scheme able to exactly recover any subcritical steady solution in 1D over arbitrary topography.To do so, first we analyse the steady solutions following the Bernouilli's principle, even for supercritical regime. We then propose a well-balanced Riemann solver following a strategy proposed in a previous study. Finally, we validate our results with numerical simulations.
Hydrodynamic transport problems often take the form of hyperbolic conservation law systems (see e.g. [6, 5]). In this work we will focus on the Saint-Venant system which is still the utmost important model in maritime or fuvial hydraulics simulations, it governs the free surface shallow water flows. It was obtained from Navier-Stokes equations using adequate assumptions see [7]. Due to their widely recognized experimental validity and numerical effciency, the Saint-Venant equations are now widely used for many current simulations: environmental protection, environmental pollution, natural disasters, climate change, dam failure, tidal calculations, flood studies, sedimentology, etc. We are mainly interested in the numerical resolution of this system using a robust scheme called FVC. This scheme is accurate, conservative and solve the non-linear conservation laws without Riemann Solvers, it has been presented in several works e.g. [8, 3, 2].
In this paper, we will compare our FVC approach, using unstructured 2-D meshes, to some exact solutions for shallow water system, present in the literature, under the infuence of the gravity, the Coriolis force, and other frictional forces effects see [4, 1].
Key-words: Shallow water system, Free surface fows, Finite volume method, Exact solutions , FVC.
References:
[1] F. Alcrudo and F. Benkhaldoun. Exact solutions to the riemann problem of the shallow water equations Computers & Fluids, 30(6):643{671, 2001.
[2] F. Benkhaldoun, S. Sari, and M. Seaid. Projection ?nite volume method for shallow water fows. Mathematics and computers insimulation, 118:87{101, 2015.
[3] F. Benkhaldoun and M. Seaid. A simple ?nite volume method for the shallow water equations. Journal of computational and applied mathematics, 234(1):58{72, 2010.
[4] O. Delestre, C. Lucas, P.-A. Ksinant, F. Darboux, C. Laguerre, T.-N.-T. Vo, F. James, and S. Cordier. Swashes: a compilation of shallow water analytic solutions. International Journal for Numerical Methods in Fluids, 72(3):269{300, 2013.
[5] E. Godlewski and P.-A. Raviart. Numerical approximation of hyperbolic systems of conservation laws, volume 118. Springer, 1996.
[6] R. J. LeVeque and R. J. Leveque. Numerical methods for conservation laws, volume 132. Springer, 1992.
[7] A. d. Saint-Venant, D. Barr?e, J. Saint-Cyr, V. de Saint, AA. SAINT-VENANT, D. BARR?E, and J. Saint-du mouvement non-permanent des eaux, avec application aux crues des rivi?eres et ?e l'introduction. 1871.
[8] M. Ziggaf, M. Boubekeur, F. Benkhaldoun, I. El Mahi, et al. The fvc scheme on unstructured meshes for the two-dimensional
shallow water equations. In International Conference on FV for Complex Applications, pages 455{465. Springer, 2020.
L’étude mathématique des structures solides flottantes à la surface de l’eau contribue à une meilleure compréhension du potentiel énergétique des vagues. En ingénierie navale ou environnementale, une partie de la communauté utilise les équations d’Euler de la mécanique des fluides couplées avec les équations de Newton de la mécanique du solide, une autre partie s’intéresse à une équation intégro-différentielle, l’équation de Cummins. Cette dernière souffre néanmoins de justification théorique, car les paramètres qui y figurent sont calibrés à partir d’expériences empiriques et non de la dynamique même du fluide. L'expérience en question est du retour à l'équilibre : initialement le fluide est au repos et le solide est lâché d’une position initiale différente de l’équilibre. Cette équation sera dérivée à partir de l’interaction vagues/structure flottante quand cette dernière est astreinte à se mouvoir uniquement verticalement. Le mouvement du solide est décrit par l’équation de Newton avec pour forces extérieures la gravité et la pression du fluide et la dynamique des vagues est modélisée par le système de Boussinesq-Abott. Ce dernier correspond à une approximation de l’équation d’Euler à bords libres en eaux peu profondes et faiblement non-linéaire. Il est une perturbation dispersive de Saint-Venant (Shallow-water). La dispersion régularise la solution en créant une couche limite dispersive qui permet de s’affranchir de conditions de comptabilités pour établir le caractère bien posé (à l’opposé de Saint-Venant). Nous montrerons qu'il est possible d'obtenir une EDO sur le déplacement du solide sans avoir besoin de résoudre le système de Boussinesq dans trois approximations.
- Non-linéaire et non dispersif. Dans ce cas, les équations des vagues peuvent être diagonalisée avec l’introduction des invariants de Riemann. Il en résultera une EDO non linéaire.
- Linéaire et dispersif. Dans ce cas, il en résultera une EDO linéaire intégro-différentielle. Le terme de retard est une justification théorique de ce qui est habituellement admis empiriquement.
- Approximation BBM. Nous pouvons considérer les équations de Benjamin-Bona-Mahony à la la place des équations de Boussines-Abbott. Les premières sont une approximation des secondes quand les vagues se dirigent du solide flottant vers l’extérieur. Il en résultera une EDO non linéaire et intégro-différentielle qui généralise les EDOs des deux approximations précédentes.
CLIQUER ICI POUR REJOINDRE LA SALLE 1
Président.e de session : Nicolas Forcadel
Modérateur.trice : Thierry Horsin
A multi-scale finite element method (MsFEM) is a finite element approach that allows to solve partial differential equations (PDEs) with highly oscillatory coefficients on a coarse mesh, that is, a mesh with elements of size much larger than the characteristic scale of the oscillations [1, 2]. To do so, MsFEMs use pre-computed basis functions adapted to the differential operator that comprizes the small scales of the problem. The numerical analysis of these methods exploits homogenization theory to obtain an error estimate in terms of the small parameter of the problem and the mesh size used. Not all specific settings are covered by the numerical analyses in the existing literature (see e.g. [1, 3]). The main purpose of this contribution is to consider, for the specific, classical variant of MsFEM called ''linear MsFEM'', the case of rectangular meshes and to comment on the Hölder continuity assumption for the coefficients.
To start with, we will recall in this talk the main ideas of MsFEM and the theoretical background necessary to study its convergence. Then we will state a precise convergence result and outline its proof, in a way that differs from the existing literature. The convergence can next be deduced from standard arguments of finite element analysis and a suitable application of homogenization results to the exact solution and to the basis functions of the MsFEM. Our treatment includes explicitly the differences between triangular and rectangular meshes. An ongoing research effort is devoted to further improving the error estimate. The basic ingredients this is based on will be briefly approached toward the end of the talk. We refer to [4] for more details.
The work described in this communication is partly joint work with Alexei Lozinski (Université de Besançon), Frédéric Legoll and Claude Le Bris (Ecole des Ponts and Inria). The support of DIM Math INNOV and INRIA is gratefully acknowledged.
References
[1] Y. Efendiev and T. Hou, Multiscale Finite Element Methods. Berlin: Springer-Verlag, 2009.
[2] T. Hou and X.-H. Wu, "A multiscale finite element method for elliptic problems in composite
materials and porous media," Journal of Computation Physics, vol. 134, pp. 169-189, 1997.
[3] T. Hou, X.-H. Wu, and Z. Cai, "Convergence of a multiscale finite element method for elliptic
problems with rapidly oscillating coeffcients," Mathematics of Computation, vol. 68, no. 227,
pp. 913-943, 1999.
[4] R. A. Biezemans, Phd thesis. In preparation.
Dans cette communication, je considérerai un problème d'homogénéisation pour l'équation de diffusion $-div\left(a(./\varepsilon) \nabla u_{\varepsilon} \right) = f$ où le coefficient $a$ décrit une géométrie périodique perturbée par un défaut non localisé mais devenant rare à l'infini. Plus précisément, l'ensemble des coefficients étudiés s'écriront comme la somme d'un coefficient périodique $a_{per}$ et d'une perturbation $\tilde{a}$ se comportant comme des fonctions de $L^2(\mathbb{R}^d)$ au voisinage de points séparés d'une distance exponentiellement croissante lorsqu'on s'éloigne de l'origine.
Dans un cadre fonctionnel adapté au problème, on peut montrer l'existence d'une solution $w$ de l'équation du correcteur $-div(a(\nabla w +p)) = 0$ posée sur tout l'espace $\mathbb{R}^d$, dont le gradient partage la même structure "périodique + perturbation rare à l'infini" que le coefficient $a$. Ce correcteur permet alors d'identifier la limite homogénéisée de la suite $u^{\varepsilon}$ et d'établir des taux de convergence vers cette limite.
Ce travail s'inscrit directement dans la continuité de plusieurs travaux [1,2,3] dans lesquels les auteurs ont développé une théorie de l'homogénéisation similaire dans un cadre où le défaut $\tilde{a}$ décrit une perturbation localisée de la géométrie périodique et appartient à un espace $L^r(\mathbb{R}^d)$ pour $r\in ]1, + \infty[$.
Références
[1]. X. Blanc, M. Josien, C. Le Bris, Precised approximations in elliptic homogenization beyond the periodic setting, Asymptotic Analysis, 116(2), 93–137, 2020.
[2]. X. Blanc, C. Le Bris, P-L. Lions, On correctors for linear elliptic homogenization in the presence of local defects, Communications in Partial Differential Equations 43, no.6, pp 965-997, 2018.
[3]. X. Blanc, C. Le Bris, P-L. Lions, A possible homogenization approach for the numerical simulation of periodic microstructures with defects, Milan Journal of Mathematics 80, no.2, pp 351-367, 2012.
[4]. R. Goudey, thèse en prépration. A periodic homogenization problem with defects rare at infinity, Preprint.
The objective of this talk is to study the homogenization of the Poisson equation in a non periodically perforated domain (see [1]). In this setting, the size of the perforations is proportional to the distance between neighbouring cells and scales like $\varepsilon \ll 1$. More precisely, we consider the problem
$$
\begin{cases}
\begin{aligned}
- \Delta u_{\varepsilon} & = f \quad \mathrm{in} \quad \Omega_{\varepsilon} \\
u_{\varepsilon} & = 0 \quad \mathrm{on} \quad \partial \Omega_{\varepsilon},
\end{aligned}
\end{cases} \quad \quad \quad \quad (1)
$$
where $\Omega_{\varepsilon}$ is a local perturbation, at the microscopic scale, of a given periodically perforated domain. From an application point of view, Equation (1) covers more realistic situations than the pure periodic one. Inspired from [2] in the periodic case, we prove the existence of classical objects of the homogenization theory such as correctors and we show convergence of $u_{\varepsilon}$ to its two scale expansion as well as convergence rates in both $W^{1,p}$, $1 < p < +\infty$ and $L^{\infty}$ norms. The main difficulty of this work is that the loss of periodicity in the domain implies that the PDEs defining the correctors are posed in an unbounded perforated domain. We will explain how to overcome this point. We will also emphasize that the convergence rates obtained are optimal when we use the ad hoc non-periodic correctors.
[1] Xavier Blanc and Sylvain Wolf. Homogenization of the Poisson Equation in a non periodically perforated domain. Submitted, 2020.
[2] Jacques-Louis Lions. Asymptotic expansions in perforated media with a periodic structure. The Rocky Mountain Journal of Mathematics, 10(1):125-140, 1980.
In our work, the three-scale homogenization methods are proposed to study the electrical behavior of the cardiac tissue structure with multiple heterogeneities at two different levels. The first level associated with the mesoscopic structure such that the cardiac tissue is composed at extracellular $\Omega_e$ and intracellular $\Omega_i$ domains separated by cellular membrane $ \Gamma=\partial \Omega_e \cap \partial\Omega_i.$ The second level associated with the microscopic structure in such a way that the intracellular medium can only be viewed as periodical layout of unit cells. We know that the cardiac tissue is viewed at macroscopic scale as a single domain to be the superposition of the intracellular and extracellular media. Finally, we obtain the macroscopic bidomain model independent on $\varepsilon$ and $\delta$ describing the electrical behavior of the heart.
We consider the microscopic bidomain model which consists of two quasi-static equations, for the electrical potential in the extracellular medium and intracellular media, coupled through a dynamic boundary equation at the interface of these two media (the membrane $\Gamma$) depending on two small scaling parameters $\varepsilon$ and $\delta$:
\begin{equation}
\begin{aligned}
-\nabla_{x}\cdot\left( \mathrm{M}{e}\left( x,\dfrac{x}{\varepsilon}\right)\nabla{x} u_{e}^{\varepsilon} \right) &=0 &\text{ in } \Omega_{e}, &\quad \text{(extra quasi-stationnary conduction)}
\ -\nabla_{x}\cdot\left( \mathrm{M}{i}\left( x,\dfrac{x}{\varepsilon},\dfrac{x}{\varepsilon \delta}\right)\nabla{x} u_{i}^{\varepsilon,\delta}\right) &=0 &\text{ in } \Omega_{i}, & \quad \text{(intra quasi-stationnary conduction)}
\-\mathrm{M}{i}^{\varepsilon,\delta}\nabla{x} u_{i}^{\varepsilon,\delta} \cdot n_i=\mathrm{M}{e}^{\varepsilon}\nabla{x} u_{e}^{\varepsilon} \cdot n_e & =\mathcal{I}m &\ \text{on} \ \Gamma, & \quad \text{(continuity equation)}
\ \varepsilon\left( \partial{t} v_\varepsilon+\mathcal{I}{ion}(v\varepsilon,w_\varepsilon)-\mathcal{I}{app,\varepsilon}\right) &=\mathcal{I}_m &\ \text{on} \ \Gamma, & \quad \text{(reaction onface condition)}
\ \partial{t} w_\varepsilon-H(v_\varepsilon,w_\varepsilon) &=0 & \text{ on } \Gamma,& \quad \text{(dynamic coupling)}
\end{aligned}
\end{equation}
where the slow variable $x$ describes the macroscopic scale, the fast variables $x/\varepsilon$ describes the mesoscopic one while $x/\varepsilon\delta$ describes the microscopic one. Here, $\mathrm{M}_{j}, \ u_{j} $ are respectively the corresponding conductivities and electrical potentials of the cardiac tissue for $j=i,e$ and the \textit{transmembrane} potential $v=(u_{i}-u_{e})_{\vert_{\Gamma}}.$ In addition, $\mathcal{I}_m$ represents the sum of all current densities across the membrane $\Gamma.$
The first homogenization method is based on a power series expansion which allows to determine the macroscopic (homogenized) bidomain model from the microscopic bidomain problem. First, we use the two-scale asymptotic expansion to homogenize the extracellular problem. Next, we apply a new three-scale asymptotic expansion in the intracellular problem to obtain its homogenzied equation at two levels. The second method based on unfolding operators which not only derive the homogenized equation but also prove the convergence and rigorously justify the mathematical writing of the preceding formal method.
In this talk, we formalize the approach originally introduced in [Cottereau, R. (2013). Numerical strategy for unbiased homogenization of random materials. International journal for numerical methods in engineering, 95(1), 71-90]. The approach aims at evaluating the effective (a.k.a. homogenized) coefficient of a medium with some fine-scale structure. It combines, using the Arlequin coupling method, the original fine-scale description of the medium with an effective description and optimizes upon the coefficient of the effective medium to best fit the response of a purely homogeneous medium.
We prove that the approach is mathematically well-posed and that it provides, under suitable assumptions, the actual value of the homogenized coefficient of the original medium in the limit of asymptotically infinitely fine structures. We also present a number of algorithmic improvements of the approach along with representative numerical experiments on several test cases that are provided in [Gorynina, O., Le Bris, C., & Legoll, F. (2020). Some remarks on a coupling method for the practical computation of homogenized coefficients. arXiv preprint arXiv:2005.09760]. This work is partially supported by EOARD under Grant FA9550-17-1-0294.
CLIQUER ICI POUR REJOINDRE LA SALLE 3
Président.e de session : Anaïs Crestetto
Modérateur.trice : Corentin Lothodé
Préserver l'énergie et les lois de Gauss au niveau discret fait partie des critères de stabilité en temps long des approximations du modèle de Vlasov-Maxwell. Diverses méthodes existent qui garantissent ces lois de conservation, dont la plupart procède par des discrétisations temporelles complètement implicites. Dans ces cas, l'intégration des trajectoires des particules met en jeu un grand nombre de résolutions non-linéaires, qui rendent le processus assez coûteux.
Néanmoins, un schéma récent, nommé ECSIM, propose une approximation semi-implicite des équations de Vlasov-Maxwell conservant exactement l'énergie discrète (G. Lapenta, J. Comp. Phys., 2017). Le caractère semi-implicite de cette méthode correspond à un pousseur de particules complètement explicite couplé à un solveur de Maxwell linéairement implicite, au coût très modéré. Pour autant, ce schéma ne préserve pas les lois de Gauss. Or, dans le cadre particulier des approximations éléments-finis compatibles particle-in-cell (FEM-PIC), une formulation générale des discrétisations conservant la charge est établie (Campos Pinto, Jund, Salmon, Sonnendrucker, CRAS-Mécanique, 2014), qui permet la préservation des lois de Gauss par un suivi local des particules.
L'idée d'appliquer ce procédé de conservation de la charge à ECSIM tout en gardant sa formulation semi-implicite linéaire a donné naissance à un nouveau schéma : ChECSIM. Celui-ci présente d'intéressantes propriétés de stabilité au prix d'une complexité très mesurée. Par sa robustesse, il permet l'utilisation de longs pas de temps qui peuvent accélérer sensiblement les calculs.
Dans le contexte industriel des sources micro-ondes, le Klystron est un composant de premier plan pour des applications à haute fréquence et forte puissance. Au sein de cet appareil, des ondes électro-magnétiques stationnaires sont couplées à un faisceau d'électrons qui traverse des cavités métalliques. Pour des raisons d'efficacité, les outils de simulations de ce phénomène reposent sur un modèle de Vlasov-Maxwell réduit, où les champs sont approchés par des équations harmoniques. Cependant, les développements récents de la technologie font émerger le besoin de simulations avec le modèle temporel complet, sous une forte contrainte de rapidité des calculs.
Cette motivation industrielle nous conduit à une nouvelle approximation de Vlasov-Maxwell dans les cas proches du régime périodique en temps. Le champ électromagnétique est décomposé en une composante périodique d'une part, et un reste temporel d'autre part. La première est approchée par Maxwell harmonique, tandis que le bruit restant est obtenu par un algorithme PIC efficace : ChECSIM.
Numerical analysis of DDFV schemes for semiconductors energy-transport models.
The energy transport system, [2,3], is composed by two continuity equations (one for the density of electrons, one for the density of internal energy), coupled with a Poisson equation for the electric potential; the two densities depend non-linearly on the unknowns, the chemical potential and the temperature. The key point of the model, presented in
[2], is a change of variables which allows to pass to entropic variables. Thanks to this, it is possible to prove an entropy estimate which gives an a priori estimate on the problem (which leads to the study of regularity and long time behavior of the solution).
We propose, as an extension to some previous works (e.g. [1]), a Discrete Duality Finite Volume scheme (DDFV for short) for the energy transport system; we reproduce at a discrete level the strategy proposed in [2], by proving, as in the continuous case, a discrete entropy-dissipation estimate. We validate our theoretical results with some numerical tests (see [4,5]).
[1] Chainais-Hillairet, C. and Peng, Y.-J., Finite volume scheme for
semiconductor energy-transport model, pp. 139–146, Birkhäuser Basel,
Basel, (2005).
[2] Degond, P. and Génies, S. and Jungel, A., A system of parabolic equa-
tions in nonequilibrium thermodynamics including thermal and electrical
effects, J. Math. Pures Appl. (1997).
[3] Jungel, A., Transport equations for semiconductors, Lecture Notes in
Physics 773 (2009).
[4] Lissoni, G., ”DDFV schemes for semiconductors energy-transport models”,
To appear in Proceeding of the 21th ALGORITMY Conference on Scientific Computing (Podbanske, Slovakia), (2020).
[5] Bessemoulin-Chatard M., Lissoni, G., Mathis H., ”Numerical analysis of DDFV schemes for semiconductors energy-transport models.”, in preparation.
The Vlasov-Poisson system is a set of PDE's that govern the evolution of a cloud of particles in astrophysics or plasma physics. Here, in a plasma physics framework, we're interested to see what happens for charged particles when we add a uniform magnetic field.
More precisely, this work deals with the propagation of moments in velocity for the 3-dimensional Vlasov-Poisson system with a uniform magnetic field $B=(0,0,\omega)$ by adapting the work of Lions, Perthame (Propagation of moments and regularity for the 3-dimensional Vlasov-Poisson system, 1991).
The added magnetic field produces singularities at times which are the multiples of the cyclotron period $t=\frac{2\pi k}{\omega}$. We get around this by noticing that our estimates depend only on the initial condition and constant parameters, which means our logarithmic estimate for the force field is true at all time. This result also allows to show propagation of regularity for the solution.
For uniqueness, we extend Loeper's result (Uniqueness of the solution to the Vlasov-Poisson system with bounded density, 2006) by showing that the set of solutions with bounded macroscopic density is a uniqueness class.
Lors de cet exposé, une classe générale d'algorithmes pour la résolution de problèmes de point fixe, baptisée accélération d'Anderson-Pulay, est introduite. Cette famille réunit la technique DIIS et sa variante parfois appelée commutateur-DIIS, toutes deux introduites par Pulay [1] dans les années 1980 pour accélérer la convergence de procédures à champ auto-cohérent en chimie quantique, ainsi que l'accélération d'Anderson, qui remonte aux années 1960 [2], et les nombreuses variantes qu'elles ont inspirées. De telles méthodes visent à accélérer la convergence de problèmes de point fixe en combinant à chaque étape plusieurs approximations précédemment obtenues afin de générer la suivante. Ce procédé d'extrapolation est caractérisé par sa profondeur, c'est-à-dire le nombre d'approximations précédentes stockées. Alors que ce paramètre est déterminant dans l'efficacité de la méthode, en pratique, la profondeur est fixée sans garantie de convergence de l'algorithme. Dans cet exposé, nous considérons deux mécanismes permettant de faire varier la profondeur au cours des itérations. Une première façon consiste à laisser la profondeur croître jusqu'au rejet de toutes les approximations stockées (à l'exception de la dernière) et de redémarrer la méthode. Une autre manière de procéder est d'adapter à chaque étape la profondeur en éliminant certaines des plus anciennes, a priori moins pertinentes, approximations.
Dans un cadre abstrait et général et sous des hypothèses naturelles, la convergence locale et l'accélération de ces deux types de méthodes d'accélération d'Anderson-Pulay adaptatives peuvent être prouvées [3]. Le comportement de ces algorithmes est testé pour la résolution numérique de la méthode de Hartree-Fock et du modèle de Kohn-Sham de la théorie de la fonctionnelle de densité. Ces expériences numériques montrent que les variantes avec redémarrage et profondeur adaptative présentent une convergence plus rapide et sont globalement moins coûteuses que la méthode à profondeur fixe, standard dans les codes de chimie quantique.
[1] P. Pulay. Improved SCF convergence acceleration. J. Comput. Chem., 3(4) :556–560,1982.
[2] D. G. Anderson. Iterative procedures for nonlinear integral equations.J. ACM,12(4) :547–560, 1965.
[3] M. Chupin, M.-S. Dupuy, G. Legendre, and E. Séré. Convergence analysis ofadaptive DIIS algorithms with application to electronic ground state calculations.arxiv :2002.12850 [math.NA], 2020.
We show that the Strang splitting method applied to a diffusion-reaction equation with inhomogeneous general oblique boundary conditions is of order two when the diffusion equation is solved with the Crank-Nicolson method, while order reduction occurs in general if using other Runge-Kutta schemes or even the exact flow itself for the diffusion part. We also show that this method recovers stationary states in contrast with splitting methods in general. We prove these results when the source term only depends on the space variable. Numerical experiments suggest that the second order convergence persists with general nonlinearities.
CLIQUER ICI POUR REJOINDRE LA SALLE 2
Président.e de session : Matthieu Aussal
Modérateur.trice : Antoine Tonnoir
Dans cet exposé, nous nous intéresserons à la résolution de problèmes de diffraction par formulation intégrale avec la présence de cavités elliptiques. Plus précisément, nous utiliserons une formulation intégrale classique, dite équation combinée des champs (Combined Field Integral Equation, ou CFIE) discrétisée par éléments de frontière et GMRes (Generalized Minimal Residual method) comme méthode de résolution itérative. L'objectif est de présenter une analyse de convergence de GMRes qui met en évidence la dépendance du nombre d'itérations en fonction de la fréquence lorsque la géométrie du problème contient une cavité elliptique.
Le choix de GMRes est naturel du fait de la nature non-normale de l'opérateur CFIE. En effet, GMRes a l'avantage de pouvoir résoudre tout problème non-singulier, et en particulier non-normal. Mais l'analyse de convergence est dans ce cas moins évidente, puisque le spectre de l'opérateur n'est plus suffisant. Des bornes sur la vitesse de convergence de GMRes ont notamment été proposées en utilisant le conditionnement des valeurs propres, l'image numérique de l'opérateur, ou encore le pseudospectrum.
Mais dans le cas où la géométrie contient une cavité elliptique, une difficulté supplémentaire vient de l'opérateur solution dont la norme croît exponentiellement à travers une séquence de fréquences tendant vers l'infini, la densité de ces fréquences de résonance augmentant avec la fréquence. Dans ce cas, le spectre de la matrice associée a la forme d'un cluster avec des outliers près de l'origine. Nous proposons alors une nouvelle analyse de la convergence de GMRes en tenant compte de cette distribution particulière du spectre.
La construction des approximations One-Way pour les systèmes hyperboliques est basée sur l’existence d’un découplage, au sens micro-local, entre les informations se propageant dans une direction choisie et son opposée. Ce découplage se traduit sous la forme d’une factorisation du système en un produit de deux équations de transport suivant le sens de propagation privilégié et son inverse. L’utilisation de ces équations permet, dans certaines circonstances, d’accéder rapidement à une bonne approximation de la solution du problème initial. La mise en œuvre d’une telle méthode nécessite, la plupart du temps, des approximations d’opérateurs pseudo-différentiels qui peuvent se révéler difficiles à expliciter, notamment pour des systèmes plus complexes comme les équations d’Euler linéarisées ou de Navier-Stokes. Towne et al. [1] ont proposé récemment une nouvelle approximation One-Way permettant de s’affranchir de ce problème. Cette approche a prouvé son efficacité sur des problèmes de mécanique des fluides pour des milieux faiblement variables suivant la direction de propagation. Nous proposons, dans le cadre de l’acoustique et de la mécanique des fluides, deux approches permettant de lever l’hypothèse de milieu/écoulement faiblement variable dans la méthode de Towne tout en conservant la contrainte de ne pas introduire explicitement d’opérateurs pseudo-différentiels. La première correspond à une déclinaison de la True Amplitude One-Way [2] permettant de récupérer de l’information sur l’amplitude de l’onde traversant une variation. La seconde correspond à une approche de type séries de Bremmer [3] permettant de prendre en compte les effets des réflexions multiples.
[1] A. Towne, Advancements in jet turbulence and noise modeling: accurate one-way solutions and empirical evaluation of the nonlinear forcing of wavepackets, Thèse de doctorat, California Institute of Technology, 2016
[2] Y. Zhang, G. Zhang, N. Bleistein, Theory of true-amplitude one-way wave equations and true-amplitude common-shot migration, GEOPHYSICS 70, 2005
[3] Maarten V. de Hoop, Generalization of the Bremmer coupling series, Journal of Mathematical Physics, 37-7, pp.3246-3282, 1996
La localisation et la reconstruction de défauts à l’intérieur de guides d’ondes acoustiques ou électro- magnétiques est un enjeux important du contrôle non destructif des structures, par exemple pour évaluer l’état de tuyaux, de fibres optiques ou de rails de trains [1]. Le problème de reconstruction d’inhomogénéités à l’intérieur d’un guide d’onde à été étudié par différents auteurs, par exemple dans [2]. Nous nous concentrons ici sur deux types de défauts, un défaut de forme ou de courbure du guide.
Dans un guide d’onde acoustique $\Omega ∈ \mathbb{R}^2$, la propagation d’une onde en régime harmonique de fréquence $k$ générée par une source $s$ est donnée par l’équation d’Helmoltz
$$∆u + k^2u = −s \qquad \text{dans} \quad Ω.$$
Pour détecter les déformations du guide d’onde $Ω$ par rapport à un guide droit $Ω_0 = \mathbb{R}×]0, 1[$, différentes ondes de la forme $e^{ikx}$ avec $k$ variable dans un intervalle $[k_0,k_1]$ sont envoyées dans le guide d’onde, et le défaut génère une onde réfléchie $u_s$ qui est mesurée sur une tranche $Σ$ à gauche du défaut.
La structure particulière de guide d’onde permet de décomposer l’onde réfléchie en somme de modes solutions d’EDP en dimension 1 sur $\mathbb{R}$. De plus, en supposant que les défauts recherchés sont de petite taille devant la largeur du guide d’onde, on justifie qu’il est possible d’effectuer une approximation de Born et trouver une expression explicite de l’onde réfléchie par le défaut. On montre alors que cette expression est inversible et on propose grâce aux mesures effectuées sur $Σ$ un algorithme d’inversion rapide basé sur la décomposition modale. On présentera le calcul de l’erreur commise par l’algorithme, et les reconstructions obtenues pour une implémentation de l’algorithme sur des données générées par éléments finis pour différents types de défauts.
Références :
[1] KHARRAT, M. and ICHCHOU, M. N. and BAREILLE, O. and ZHOU, W, Pipeline inspec- tion using a torsional guided-waves inspection system. Part 1: defectu identification, International Journal of Applied Mechanics 6, 2014.
[2] BOURGEOIS, Laurent and LUNEVILLE, Eric, The linear sampling method in a waveguide: A modal formulation, Inverse Problems 24, 2008.
Nous nous intéressons au problème de complétion de données pour les équations de Maxwell harmoniques en temps pour le champ électrique. Celui-ci consiste à reconstruire les données manquantes sur une partie inaccessible du bord d’un domaine borné à partir de mesures surdéterminées sur la partie accessible. Parmi les applications possibles, nous pouvons citer le domaine de l’imagerie médicale où les algorithmes d’inversion sont en général plus efficaces pour des données connues sur le bord du domaine tout entier. Le problème de complétion de données étant mal posé, il est nécessaire de proposer des méthodes pour le régulariser en vue de sa résolution numérique. Dans ce but, nous étudions la méthode non itérative de quasi-réversibilité (voir [5, 1]). Nous proposons différentes formulations mixtes pour les équations de Maxwell (voir [4]). Comme décrit dans [2], le principe de la méthode de quasi-réversibilité consiste à ramener le problème initial à la minimisation d’une fonctionnelle avec régularisation de type Tikhonov. Nous obtenons alors un système à deux inconnues : le champ électrique recherché et un champ auxiliaire qui joue le rôle de résidu dans la fonctionnelle à minimiser. Nous présentons des résultats numériques attestant des performances de la méthode dans diverses configurations 2D et 3D. En particulier, nous montrons l’efficacité du système de quasi-réversibilité relaxé régularisé que nous introduisons pour traiter des données bruitées. Couplée à un algorithme de localisation de perturbations (voir [3]), cette méthode peut être appliquée pour reconstruire le support d’inhomogénéités dans la permittivité et la conductivité d’un milieu à partir de mesures partielles sur la surface de l’objet.
[1] Laurent Bourgeois, A Mixed Formulation of Quasi-Reversibility to Solve the Cauchy Problem for Laplace’s Equation, Inverse Problems 21 (3), 2005, pp. 1087–1104.
[2] Laurent Bourgeois et Arnaud Recoquillay, A Mixed Formulation of the Tikhonov Regularization and Its Application to Inverse PDE Problems, ESAIM: Mathematical Modelling and Numerical Analysis 52 (1), 2018, pp. 123–145.
[3] Marion Darbas, Jérémy Heleine et Stephanie Lohrengel, Sensitivity analysis for 3D Maxwell’s equations and its use in the resolution of an inverse medium problem at fixed frequency, Inverse Problems in Science & Engineering 28(4), 2020, pp. 459–496, https://doi.org/10.1080/17415977.2019.1588896.
[4] Marion Darbas, Jérémy Heleine et Stephanie Lohrengel, Numerical resolution by the quasi-reversibility method of a data completion problem for Maxwell’s equations, publié dans Inverse Problems and Imaging, https://doi.org/10.3934/ipi.2020056.
[5] Robert Lattès et Jacques-Louis Lions, Méthode de Quasi-Réversibilité et Applications, Dunod, 1967.
The Hybrid high-order (HHO) method was originally devised for diffusion and elasticity problems [1, 2], and the realm of applications has been considerably extended since then. In this work, we consider the version of the HHO method that uses as discrete unknowns cell- and face-based polynomials of degree (k + 1) (cells) and k (faces) order with 0 ≤ k, yielding for steady problems optimal convergence of order (k + 1) in the energy norm. Firstly, we address the time second-order form of the wave equation, and we devise, analyze, and evaluate numerically an HHO scheme for the space discretization combined with a Newmark-like time-marching scheme. Secondly, for the first-order form, diagonally implicit and explicit Runge–Kutta time-marching schemes combined with the HHO method are considered, and we highlight the link with the hybridizable discontinuous Galerkin (HDG) methods [3]. Finally, we present numerical experiments recovering optimal convergence rates for smooth solutions and exhibiting robust performances in the case of contrasted media. Further insight into our results can be found in [4, 5].
REFERENCES
[1] D.A. Di Pietro, A. Ern, and S. Lemaire. An arbitrary-order and compact-stencil discretization of diffusion on general meshes based on local reconstruction operators. Computational Methods in Applied Mathematics. 14 (2014) 461-472.
[2] D.A. Di Pietro and A. Ern, A hybrid high-order locking-free method for linear elasticity on general meshes. Comput Methods Appl. Mech. Eng. 283 (2015) 1–21.
[3] M. Stanglmeier, N.C. Nguyen, J. Peraire, and B. Cockburn. An explicit hybridizable discontinuous galerkin method for the acoustic wave equation.
Computer Methods in Applied Mechanics and Engineering, 300:748–769, March 2016.
[4] E. Burman, O. Duran, and A. Ern. Hybrid high-order methods for the acoustic wave equation in the time domain. working paper or preprint, hal-02922702, Aug 2020.
[5] E. Burman, O. Duran, A. Ern, and M. Steins. Convergence analysis of hybrid high-order methods for the wave equation. working paper or preprint, hal-02922720, Aug 2020.
CLIQUER ICI POUR REJOINDRE LA PLENIERE
Président.e de session : Thierry Horsin
Modérateur.trice : Nicolas Forcadel
Florence Hubert, professor at the Institute of Mathematics of Marseille, is working on the developpement of numerical tools for biological issues. Her main research interests are developping new models in oncology to better understand processes as the angiogenesis, the metastatic spreading, cell migration and the impact of the anti-cancer drugs on these spreadings. She also has developped efficient finite volumes schemes for non linear elliptic operator that have found applications to medical imagery and cell migration.
CLIQUER ICI POUR REJOINDRE LA SALLE 1
Quelques éléments :
- Site web
- Sondage
Modérateur.trice : Mathieu Aussal
CLIQUER ICI POUR REJOINDRE LA SALLE PLENIERE
Président.e de session : Laetitia Giraldi
Modérateur.trice : Matthieu Aussal
Cemosis is the platform for mathematical collaboration at the interface with companies and other
disciplines. Collaborative research projects are essentially between mathematics and physics and
health. Recently, we had the opportunity to start new collaboration in environmental sciences.
In this talk, after a brief presentation of Cemosis, I will present briefly the context of three applications: (i) in health with the eye2brain project in collaboration with U. Descartes, U. Missouri, INRIA and Politecnico di Milano; (ii) and the swimmer project in collaboration with INRIA and UPMC (iii) in physics with the high field magnet project in collaboration with the National Lab for High Magnetic Fields; (iv) Then, for each project, I will present the mathematical models and numerical methods and some of the results obtained so far.
Finally, if I have the time, I will present the more recent IBat project, in environmental sciences, in collaboration with the company Synapse Concept and some first results.
From the modeling point of view, the presentation covers a wide range of problems, (Navier-)Stokes and Darcy flows, Heat and Moisture transfer, Elasticity and Maxwell as well as their coupling. From the methodological point of view, the presentation discusses the finite element method cG as well as hdG, fluid mechanics in moving domains with rigid bodies, PDE and ODE coupling and reduced order methods.
CLIQUER ICI POUR REJOINDRE LA SALLE 1
Président.e de session : Elise Grosjean
Modérateur.trice : Matthieu Aussal
In this work, we implement a reduced-order model-based parareal method for solving the two-dimensional nonlinear shallow water equations and we propose a modification of the method for further stability and convergence improvements.
The parareal method was firstly introduced in [1] as an approach for overcoming the trade-off between high-fidelity results and computational costs when performing numerical simulations. This method aims to reduce the computational time necessary to the numerical resolution of an accurate and expensive model, by using alongside a less accurate, but much cheaper coarser one, which allows to parallelize in time the fine simulation, in a predictor-corrector iterative fashion. The parareal method stands out for its simple, generic formulation and its successful application in many problems, mainly parabolic, diffusive ones. However, in the case of hyperbolic or advection-dominated problems, even the simplest ones as the one-dimensional advection equation, the method presents instabilities and slow convergence.
Adaptations allowing to surmount such challenges include the introduction of reduced-order models (ROMs) in the parareal algorithm. In the case of nonlinear hyperbolic problems, the ROMs are formulated using the POD-DEIM (proper orthogonal decomposition - discrete empirical interpolation method) procedure, applied to snapshots of the solutions computed along the parareal iterations [2].
However, the quality of the ROM, and thus the stability and convergence behaviour of the parareal method, depends strongly on how well representative of the fine model are the snapshots sets used as input for the ROM procedure. Misrepresentations may occur if the parareal solutions are not close enough to the fine ones along iterations, and also if there are not enough snapshots to represent the dynamics of the problem. In this work, we present a modification of the POD-DEIM parareal method consisting in the enrichment of the snapshots set with extra snapshots taken at intermediary time steps. This modification does not require any extra computational time for computing the additional snapshots.
Numerical tests consisting on the resolution of the two-dimensional nonlinear shallow water equations are presented, using the classical parareal method, the POD-DEIM-based one and our proposed modification. The objective is to compare the performance of these three variants of the parareal method in terms of computational cost and convergence towards the fine, referential solution. Our proposed method presents improved stability and speed of convergence.
Le propergol solide est l’un des principaux combustibles utilisés dans les moteurs-fusées. Il s’agit d’un matériau solide composé généralement de particules d’oxydant mélangées dans une matrice de liant. Lorsque la surface du matériau est portée à haute température (typiquement 800K), une réaction de pyrolyse et de sublimation transforme la matière en surface en espèces gazeuses qui réagissent entre elles en formant une flamme au-dessus de la surface du propergol, ce qui permet de chauffer la surface et d’entretenir la combustion.
La simulation instationnaire de ce phénomène est nécessaire pour étudier l’allumage du propergol et les instabilités de combustion. Pour simuler cela avec une approche CFD à l’échelle d’un moteur complet, il est impossible de représenter la surface du propergol de manière détaillée. En effet les réactions en proche-surface nécessitent des mailles d’une épaisseur de l’ordre de 0.1 microns, et les dimensions d’un moteur complet (plusieurs mètres de long) rendent impossible l’utilisation d’un maillage suffisamment raffiné dans l’intégralité du moteur. On a donc recours à un modèle 1D qui simule la combustion du propergol localement sur chaque facette limite du maillage représentant la surface du solide, comme présenté dans [1]. Ce modèle résout les phénomènes thermiques dans le solide et les réactions en phase gazeuse proche de la surface (typiquement sur une épaisseur de 1 millimètre). La phase gaz y est représentée comme un écoulement bas-Mach réactif à pression uniforme.
D’un point de vue mathématique, la semi-discrétisation en espace donne un système d’équations différentielles algébriques (DAE) d’index 1 avec es variables didférentielles (température...) mais aussi algébriques (champs de vitesse, variables de surface). L’intégration temporelle utilise une formulation Runge-Kutta implicite ”stiffly accurate”, assurant de bonnes propriétés de convergence pour l’intégration de DAE, et les différents sous-pas sont résolus itérativement par un solveur de Newton. Afin de minimiser le temps de calcul tout en assurant une bonne précision, des schémas temporels diagonalement implicites avec premier pas explicite (ESDIRK [1]) et adaptation de pas de temps (méthodes imbriquées) sont utilisés.
Nous présentons ici l’analyse mathématique du système d’équations, la mise en place de la stratégie d’intégration temporelle, quelques exemples de calculs 1D et une étude des ordres de convergence effectivement atteints sur les différentes variables. Le couplage du modèle avec le code CFD multiphysique CEDRE développé à l’ONERA sera aussi discuté.
[1] A. Kværnø, Singly Diagonally Implicit Runge–Kutta Methods with an Explicit First Stage, BIT Numerical Mathematics 44, p489-502, 2004.
The problem of radiative transfer describes the interaction between light and matter, therefore it appears in many astrophysical systems, such as atmospheric physics (Chandrasekhar, 1960). Instead of solving a complex equation in a seven dimensional space, one can use a moment model by averaging over the direction of propagation to follow the radiative energy, flux, pressure, etc in a five dimensional space. By using a closure relation expressing the radiative pressure as a function of radiative energy and flux, one can derive the M1 model (Dubroca and Feugeas, 1999) that is able to accurately capture the two main regimes in radiative transfer: optically thin medium in which photons are free-streaming and the optically thick medium in which photons are constantly interacting and obey a diffusion equation in the asymptotic limit (Mihalas and Mihalas, 1984)
We rewrite the M1 model similarly than Euler equations and, inspired by all-regime schemes for hydrodynamics such as Padioleau et al., 2019, we propose a new solver based on a splitting approach similar to acoustic-transport splitting for hydrodynamics. Unlike Lagrange-projection methods (Buet and Despres, 2008), the extension to the multi-dimensional case is straightforward following the all-regime approach
The implementation is done using the code ARK-RT, a fork of the code ARK developed in Padioleau et al., 2019 in order to achieve high performance computing and portability across different architectures (e.g. multi-core, many-core, GP-GPU).
Many phenomena in chemical physics involve calculating the electrostatic interaction between charged dielectric particles embedded in a polarisable continuum undergoing mutual polarisation. In order to tackle this problem, E. Lindgren et al. (J. Comput. Phys. 371 (2018): 712-731) have proposed a numerical method based on a Galerkin discretisation of a boundary integral equation (BIE) of the second kind. The proposed method is general enough to treat any homogeneous dielectric medium containing an arbitrary number of spherical particles of any size, charge, dielectric constant and position in three-dimensional space. Furthermore, numerical experiments indicate that the algorithmic complexity of the method scales linearly with respect to the number of particles thanks to the use of a modified Fast Multipole Method (FMM).
The current talk will present results on the numerical analysis of this algorithm with a focus on proving that the method is linear scaling in accuracy with respect to the number of spheres $N$, i.e., in order to compute physical quantities of interest up to fixed relative error, the computational cost of the algorithm scales as $\mathcal{O}(N)$. As a first step, we obtain $N$-independent continuity and (discrete) inf-sup constants for the BIE. This allows us to derive relative error estimates that do not explicitly depend on $N$ and to demonstrate, in addition, exponential convergence under suitable regularity assumptions. Next, we analyse the conditioning of the solution matrix associated with the Galerkin discretisation, and show that the maximum number of Krylov solver iterations required to obtain a solution (up to a given tolerance) is also independent of $N$. Combining this analysis with an FMM implementation that allows computing matrix vector products in $\mathcal{O}(N)$ yields the required linear scaling in accuracy.
Time permitting, we will also mention some extensions including linear scaling computation of the forces, and extending the model to include external electric fields and point-charges on the surfaces of the dielectric particles.
$\textbf{References:}$
Considering two random variables with different laws to which we only have access through finite size iid samples, we address how to reweight the first sample so that its empirical distribution converges towards the true law of the second sample as the size of both samples goes to infinity. We study an optimal reweighting that minimizes the Wasserstein distance [1] between the empirical measures of the two samples, and leads to an expression of the weights in terms of Nearest Neighbors [2]. The consistency and some asymptotic convergence rates in terms of expected Wasserstein distance are derived, and do not need the assumption of absolute continuity of one random variable with respect to the other. These results have some application in Uncertainty Quantification for decomposition-based estimation [3] and in the bound of the generalization error for the Nearest Neighbor Regression under covariate shift. We then outline the generalization of these results, in which we consider the successive composition of such methods to propagate uncertainty through networks of composite functions.
[1] Villani, Cédric. Optimal transport: old and new. Vol. 338. Springer Science & Business Media, 2008.
[2] Biau, Gérard, and Luc Devroye. Lectures on the nearest neighbor method. Vol. 246. Cham: Springer, 2015.
[3] Amaral, Sergio, Douglas Allaire, and Karen Willcox. "A decomposition‐based approach to uncertainty analysis of feed‐forward multicomponent systems." International Journal for Numerical Methods in Engineering 100.13 (2014): 982-1005.
CLIQUER ICI POUR REJOINDRE LA SALLE 2
Président.e de session : Gisella Croce
Modérateur.trice : Thierry Horsin
Le précédé de fabrication additive par fusion de poudre consiste à fabriquer un objet couche par couche. Sur la pièce en construction est déposé un lit de poudre métallique qu’une source d’énergie suivant une trajectoire préalablement fixée fait fondre. La solidification résulte du refroidissement de la pièce. La trajectoire de la source est essentielle: non seulement elle influe sur la vitesse de fabrication mais elle détermine aussi la répartition de chaleur au cours de la fabrication et donc la qualité finale de la pièce. Dans la littérature, cette trajectoire est souvent choisie comme un motif (zigzag ou offset du contour). Peu de travaux considèrent une optimisation complète qui permettrait d’améliorer l’efficacité du processus et de gagner en intuition à propos de l’influence de la forme de la pièce à scanner sur la trajectoire de lasage [1,2,3].
On présente ici une méthode d’optimisation de trajectoire [2]. En deux dimensions (plan de la couche) et en supposant que la source se déplace à très grande vitesse (activant ainsi toute la trajectoire instantanément) permettant l’utilisation d’un modèle stationnaire, on s’intéresse à la répartition spatiale de température. Ces choix permettent d’utiliser les techniques d’optimisation de forme pour le calcul de la sensibilité du problème à la trajectoire. On choisit enfin un modèle discret qui permet l’obtention de premiers résultats numériques. Ces derniers confirment l’importance de la forme de la pièce (coupe de la pièce dans le plan de la couche) sur le choix de la trajectoire. On met alors en place un second algorithme intégrant la méthode d’optimisation de la trajectoire à une optimisation couplée permettant de déterminer simultanément la forme de la pièce et la trajectoire. Les résultats numériques obtenus permettent un recul sur la méthode, de premières intuitions sur de nouvelles contraintes de design et, surtout, ouvrent de nombreuses perspectives.
[1] T. M. Alam, S. Nicaise, and L. Paquet, An optimal control problem governed by the heat equation with nonconvex constraints applied to the selective laser melting process, Minimax Theory and its Applications, 6 (2021).
[2] M. Boissier, G.Allaire, C. Tournier, Scanning path optimization using shape optimization tools, Structural and Multidisciplinary Optimization, 61:6, pp. 2437-2466 (2020)
[3] Q. Chen, J. Liu, X. Liang, and A. C. To, A level-set based continuous scanning path optimization method for reducing residual stress and deformation in metal additive manufacturing, Computer Methods in Applied Mechanics and Engineering, 360 (2020), p. 112719.
This work is concerned with optimization problems arising in an energy distribution system with storage. We start from the derivation of a simplified network topology model around four nodes: load aggregator, the external grid, consumption and storage, taking into account the charging (resp. discharging) efficiencies. The imported power from the external grid should balance the consumption and the storage variation. We define the merit function we want to minimize as the total price to pay in a given time interval using the external power load.
The first mathematical problem we derived is a discrete coupled linear optimization problem with some constrainst that includes bounds of storage capacity, and of charge and of discharge. We propose a simplex method as well as an interior point method to compute an effective numerical solution; we establish mathematical properties of the model. Next, we introduce a second model from the first one by taking into account power subscription possibilities. The merit function is then nonlinear and non-differentiable; we discuss two approaches to avoid a non-differentiability point and to solve numerically the problem with a non-linear method (SQP algorithm or interior point algorithm).
Finally, we introduce a sliding window algorithm that allows to reduce the computation time and to make real time simulations. Numerical results are presented on real data to highlight both models and to illustrate the performance of the sliding window algorithm.
En optimisation de forme, on s'intéresse à des problèmes de type: $$\inf_{\Omega\in F}J(\Omega),$$ où $J:\Omega\in F\longmapsto J(\Omega)\in \mathbb{R}$ est une fonctionnelle et $F$ une classe de sous-ensembles de $\mathbb{R}^n$, avec $n\ge 1$. Il est assez classique en optimisation de forme de s'intéresser à la classe des convexes: en effet cette contrainte géométrique implique en général l'existence de la solution du problème d'optimisation et peut être la source d'apparition de formes optimales assez "irregulières" comme les polygones par exemples. Dans cet exposé nous présentons différentes méthodes numériques de parametrisation de la contrainte de convexité pour les domaines du plan ($n=2$) que nous appliquons pour résoudre différents problèmes liés à des questions de géométrie spectrale.
L'optimisation topologique permet d'ordinaire l'allégement d'une pièce sans faire varier ses liaisons mécaniques à un assemblage. On propose ici une autre approche en s'autorisant à optimiser simultanément la structure d'une pièce, d'une part, et la position ainsi que le nombre de ses liaisons, d'autre part. On s'intéresse aux liaisons vissées soumises à un état de précontrainte. La technologie de la vis est idéalisée, le but étant d'obtenir une représentation fonctionnelle, mais réaliste, et peu coûteuse en termes de temps de calcul. La structure de la pièce est modélisée par le système de l'élasticité linéarisée et sa topologie est représentée par une fonction level-set. La structure est optimisée à l'aide de la méthode de variation des frontières de Hadamard [1]. Un algorithme de descente de gradient est utilisé pour optimiser la position des vis. Puis, le concept de gradient topologique [2, 4] est adapté pour générer une nouvelle vis à une position avantageuse et ainsi optimiser le nombre des liaisons. Cette méthode s'appuie sur un développement asymptotique qui traduit la sensibilité d'une fonctionnelle de coût par rapport à l'ajout d'une petite vis idéalisée. Cette optimisation couplée (structure et liaisons) est illustrée par des cas tests en 2d et en 3d pour un problème de minimisation de la masse sous contraintes. Le couplage fournit alors une structure plus performante que celle qu'offre une optimisation de forme classique avec des liaisons mécaniques invariantes [3].
[1] G. Allaire, F. Jouve, A.M. Toader, Structural optimization using sensitivity analysis and a level-set method, J. Comp. Phys., 194(1), 363-393 (2004)
[2] J. Céa, S. Garreau, P. Guillaume, M. Masmoudi, The shape and topological optimizations connection, Comput. Methods Appl. Mech. Engrg. 188, 713-726, (2000).
[3] L. Rakotondrainibe, G. Allaire, P. Orval, Topology optimization of connections in mechanical systems, Structural and Multidisciplinary Optimization, 61:2253–2269, 2020.
[4] J. Sokolowski, A. Zochowski, On the topological derivative in shape optimization, SIAM Journal on Control and Optimization, 37, 1251-1272 (1999)
Dans cet exposé nous nous intéressons à un problème de biologie dont le but est d'expliquer la forme particulière des oeufs de petits crustacés vivant dans des mares éphémères. Nous supposons que la forme des oeufs est issue d'un processus évolutif qui tend à l'optimiser vis à vis de certains critères. Pour cela nous adoptons une démarche de modélisation inverse, qui consiste à proposer un critère sur la base d'une discussion biologique, puis à la modéliser sous forme d'un problème d'optimisation de forme, puis le résoudre pour comparer la solutions aux formes obtenus.
Nous présentons ici le premier critère sur lequel nous avons travaillé, s'appuyant sur l'observation que l'animal pond des centaines d'oeufs à la fois. Ceci suggère que ces oeufs s'arrangent bien dans un sens à définir. Nous discuterons d'une modélisation possible de cette hypothèse, qui nous amène à résoudre le problème suivant:
$$\max_{K\in \mathcal{K}_{A,1}} t~d(K)+(1-t)D(K) $$ où $\mathcal{K}_{A,1}$ est l'ensemble des corps convexes du plan d'aire $A$ et de rayon du cercle inscrit supérieur ou égal à 1. $d(K)$ est la densité d'un convexe, à comprendre comme sa capacité à remplir l'espace, et $D(K)$ est le diamètre. Nous donnons la solution de ce problème et proposons une discussion de l'hypothèse au regard de la solution.
Référence:
A.Delyon, A.Henrot, and Y.Privat, Non-dispersal and density properties of infinite packings, SIAM J. Control Optim. 57(2):1467--1492, 2019.
We present a topology optimization approach for the design of fluid-to-fluid heat exchangers which rests on an explicit meshed discretization of the phases at stake, at every iteration of the optimization process. The considered physical situations involve a weak coupling between the Navier--Stokes equations for the velocity and the pressure in the fluid, and the convection--diffusion equation for the temperature field. The proposed framework combines several recent techniques from the field of shape and topology optimization, and notably a level-set based mesh evolution algorithm for tracking shapes and their deformations, an efficient optimization algorithm for constrained shape optimization problems, and a numerical method to handle a wide variety of geometric constraints such as thickness constraints and non-penetration constraints. Our strategy is applied to the optimization of various types of heat exchangers. At first, we consider a simplified 2D cross-flow model where the optimized boundary is the section of the hot fluid phase flowing in the transverse direction, which is naturally composed of multiple holes. A minimum thickness constraint is imposed on the cross-section so as to account for manufacturing and maximum pressure drop constraints. In a second part, we optimize the design of 2D and 3D heat exchangers composed of two types of fluid channels (hot and cold), which are separated by a solid body. A non-mixing constraint between the fluid components containing the hot and cold phases is enforced by prescribing a minimum distance between them. Numerical results are presented on a variety of test cases, demonstrating the efficiency of our approach in generating new, realistic, and unconventional heat exchanger designs.
CLIQUER ICI POUR REJOINDRE LA SALLE 3
Président.e de session : Geoffrey Beck
Modérateur.trice : Francky Luddens
Abstract
We consider a sharp-diffuse interfaces seawater intrusion model [3] in
coastal aquifers. This process leads to a coupled system of two nonlinear parabolic partial differential equations simulating two immiscible fluids considering the dynamics of transition zones.
To the discretization in time, we apply a cell-centred Multi-Point Flux Approximation (MPFA-O) finite volume scheme [1] for the nonlinear system on an unstructured mesh and for the time discretization, we use an implicit Euler scheme, which allows the use of large time steps and then the reduction of CPU time. It is shown that this scheme ensures the non-negativity of the discrete solution of the freshwater and seawater thicknesses, taking into account the anisotropy and heterogeneity of the coastal aquifer. Based on an apriori estimate and using a fixed point theorem, we have established the existence of the discrete solution issued from the MPFA-O scheme. After that, we proved the strong convergence of the numerical solution to the weak solution of the continuous problem due to some recent compactness arguments.
We have developed and implemented a new module in the open-source platform DuMu$^X$[4]. The efficiency and the robustness of our method are studied numerically by comparing our results with an analytical solution presented in [2]. Moreover, the comparison between our $2D$ numerical simulations and those of [3] have shown that this approach yields performant results. Our new module based on recent numerical tools is accurate, efficient and able to solve a $2 D$ seawater intrusion model tacking into account the dynamics of the transition zones. Some numerical results will be presented. Future works will mainly focus on the validation of this approach for more realistic test cases.
References
[1] I. Aavatsmark, "An introduction to multipoint flux approximations for quadrilateral grids, Computational Geosciences, vol. 6, no. 3-4, pp. 405--432, 2002.
[2] Abudawia, A.; Mourad, A.; Rodrigues, J.H.; Rosier, C. A finite element method for a seawater intrusion problem in unconfined aquifers. Appl. Numer. Math. 2018, 127, 349--369
[3] Choquet, C.; Diédhiou, M.; Rosier, C. Derivation of a sharp-diffuse interfaces model for seawater intrusion in a free aquifer, Numerical simulations. SIAM J. Appl. Math. 2016, 76, 138--158.
[4] DuMu$^X$: Dune for multi- Phases, Component, Scale, Physics, ... flow and transport in porous media, http://www.dumux.org/, last accessed December 14, 2019.
Abstract
In this work we present the mathematical model and simulations of a particular wave energy converter, the so-called oscillating water column. In this device, waves governed by the one- dimensional nonlinear shallow water equations arrive from offshore, encounter a step in the bottom and then arrive into a chamber to change the volume of the air to activate the turbine. The system is reformulated as two transmission problems: one is related to the wave motion over the stepped topography and the other one is related to the wave-structure interaction at the entrance of the chamber. We finally use Riemann invariants to discretize the transmission conditions and the Lax-Friedrichs scheme to get numerical solutions.
Main references
[1] A. Elhanafi, A. Fleming, G. Macfarlane, and Z. Leong, Numerical energy balance analysis for an onshore oscillating water column–wave energy converter, Energy, 116 (2016), pp. 539–557.
[2] - , Numerical hydrodynamic analysis of an offshore stationary–floating oscillating water column–wave energy converter using cfd, International Journal of Naval Architecture and Ocean Engineering, 9 (2017), pp. 77–99.
[3] D. Evans, Wave-power absorption by systems of oscillating surface pressure distributions, Journal of Fluid Mechanics, 114 (1982), pp. 481–499.
[4] G. Vergara-Hermosilla, D. Matignon, and M. Tucsnak, Well-posedness and input-output stability for a system modelling
rigid structures floating in a viscous fluid, submitted, 2019.
[5] T. Iguchi and D. Lannes, Hyperbolic free boundary problems and applications to wave-structure interactions, preprint arXiv:1806.07704, 2018.
[6] D. Lannes, On the dynamics of floating structures, Annals of PDE, 3 (2017), p. 11.
[7] D. Lannes and L. Weynans, Generating boundary conditions for a boussinesq system, preprint arXiv:1902.03973, 2019.
[8] G. Vergara-Hermosilla, D. Matignon, and M. Tucsnak, Well-posedness and input-output stability for a system modelling
rigid structures floating in a viscous fluid, submitted, 2019.
In the field of nuclear energy, computations of complex two-phase flows are required for the design and safety studies of nuclear reactors. In general, there exists two families of numerical methods for the simulation of two-phase flows. Firstly, colocated schemes ([2]) are usually used on unstructured meshes where the unknowns are located in the same place (cell-centered). On the other hand, staggered schemes are mainly used on structured meshes with unknows located either on edges or cell centers. This category of schemes has a good behaviour for almost incompressible flows and is commonly used within Computational Fluid Dynamics softwares. However, there are few references for their stability analysis, [1, 3, 4].
This work is dedicated to the understanding of the theoretical properties of finite volume schemes on staggered grids. We develop a rigorous framework for the linear $L^2$-stability analysis of classical staggered schemes and propose a class of conservative $L^2$-stable staggered schemes. This question is addressed by analysing their numerical diffusion operator that gives a new insight into these schemes. In addition, we derive a class of conservative entropic staggered schemes. Some analytical numerical examples will be presented on the solution of the isentropic Euler equations with the purpose of illustrating the technique and its performance. Nevertheless, the procedure derived is very general and could be applied to two-phase flows models.
References
[1] F. Berthelin, T. Goudon and S. Minjeaud, Kinetic schemes on staggered grids for barotropic Euler models : entropy-stability analysis, Mathematics of Computation, Vol. 84 (295), pp. 2221-2262 (2015).
[2] R. Eymard, T. Gallouët and R. Herbin, Finite Volume Methods, Handbook for Numerical Analysis, Ph. Ciarlet, J.L. Lions eds, North Holland, pp. 715-1022 (2000).
[3] R. Herbin, W. Kheriji and J.-C. Latché, On some implicit and semi-implicit staggered schemes for the shallow water and Euler equations, ESAIM: Mathematical Modelling and Numerical Analysis, EDP Sciences, 48 (6), pp. 1807-1857 (2014).
[4] C. W. Hirt, Heuristic stability theory for finite difference equations, J. Comp. Phys., 2, pp. 339-355 (1968).
Le problème physique concerne la propagation d'ondes scalaires dans le cadre de l'élasticité linéaire anti-plane en 2D à travers une rangée périodique d'inclusions $\cup_i\Omega_i$ intégrée dans une matrice $\Omega_m$, les deux milieux étant supposés homogènes et isotropes. La longueur d'onde $\lambda$ dans la matrice est supposée être beaucoup plus grande que l'espacement $h$ entre les inclusions. En définissant le nombre d'onde dans la matrice comme $k_m=2\pi/\lambda$, nous introduisons le rapport $\eta = k_m h$ qui satisfait $\eta \ll 1$ pour les configurations d'intérêt. Des résonances locales peuvent se produire pour un faible contraste entre les masses volumiques ${\rho_i}/{\rho_m}=\mathcal{O}(1)$ et un contraste élevé entre les modules de cisaillement ${\mu_i}/{\mu_m}=\mathcal{O}(\eta^2)$.
Ce problème microstructuré peut être remplacé par un problème homogénéisé équivalent (Pham-Maurel-Marigo, 2017). Ce dernier consiste à résoudre les équations volumiques de part et d'autre d'une interface épaissie d'épaisseur $a$ et des conditions de saut pour la vitesse et le vecteur de contrainte normale à travers cette interface élargie. Dû au caractère résonant, ces conditions de saut impliquent des coefficients effectifs dépendant de la fréquence et donnent donc lieu à un produit de convolution une fois transposées dans le domaine temporel. Une implémentation naïve sous cette forme serait très coûteuse et viendrait réduire les bénéfices de l'homogénéisation. Pour éviter cela, des champs auxiliaires sont introduits pour obtenir un ensemble d'équations sous une forme locale dans le domaine temporel.
Un schéma aux différences finies est utilisé pour résoudre numériquement ce problème homogénéisé. Un point M est dit irrégulier si le schéma au point M nécessite des points de calcul situés dans l'interface élargie où la solution n'est pas définie. Pour ces points, on utilise des valeurs fantômes dans l'interface élargie et des valeurs numériques directes en dehors. Ces valeurs fantômes sont construites comme un prolongement suffisamment régulier de la solution sur le bord de l'interface la plus proche. Leur construction, qui est le principe de l'ESIM (Explicit Simplified Immersed Method), est adaptée ici au cas résonant, en considérant ou nous une force dissipative.
Une analyse d'erreur locale de troncature est menée et des solutions analytiques sont calculées pour tester la précision de la méthode numérique ainsi construite. Une fois validée, celle-ci est utilisée pour explorer les effets des résonances et leur robustesse en cas de dissipation. Des comparaisons avec des simulations dans le milieu microstructuré de départ permettent également d'étudier la validité du modèle homogénéisé utilisé.
In this talk we present a nonlinear mathematical model of a particular wave energy converter, the so-called oscillating water column. In this device, waves governed by the one-dimensional nonlinear shallow water equations arrive from the offshore, encounter a step in the bottom topography and then arrive into a chamber to change the volume of the air to activate the turbine. The system is reformulated as two transmission problems: one is related to the wave motion over the stepped topography and the other one is related to the wave-structure interaction at the entrance of the chamber. The entry condition for the surface elevation is given and the one for the discharge is derived using the Riemann invariants as in [3]. Numerical simulations are performed using a fifth order finite volume WENO scheme based on Roe's approximate Riemann solver. This is a work in progress which follows [1] and whose well-posedness theory is a direct consequence of the one in [2].
[1] E. Bocchi, J. He, G. Vergara-Hermosilla, Modelling and simulation of a wave energy converter, Proceeding CEMRACS 2019, submitted, 2019.
[2] T. Iguchi, D. Lannes, Hyperbolic free boundary problems and applications to wave-structure interactions, to appear in Indiana University Journal of Mathematics, 2019.
[3] D. Lannes, L. Weynans, Generating boundary conditions for a Boussinesq system, Nonlinearity 33 (2020), no. 12, 6868–6889.
Les matériaux de Cosserat, introduits dans [1], comparés aux matériaux standards de Cauchy, contiennent en sus une micro-rotation locale notée $\phi$. Leur cinématique est donc plus riche et permet de faire apparaître des effets d'échelles dans certains calculs. L'utilisation des matériaux de Cosserat est par exemple indiquée dans le calcul du cisaillement de failles pour lesquels les calculs avec des matériaux standards de Cauchy ne convergent pas [2]
Traditionnellement les calculs de structure avec des matériaux de Cosserat sont effectués avec des éléments de Lagrange $P^2$ pour le déplacement $u$ et $P^1$ pour $\phi$ menant à une convergence en $O(h)$ en norme d'énergie, ce qui est sous-optimal. Nous proposons ici une approche fondée sur une adaptation de [3] qui utilise un degré de liberté vectoriel par cellule pour $u$ et un pour $\phi$. Une reconstruction consistante des gradients est ensuite utilisée pour écrire la formulation discrète. Il est alors possible de prouver un taux de convergence en $O(h)$ en norme d'énergie avec une approximation $P^0$ des variable cinématiques ce qui est plus économe que l'approche standard.
Des exemples numériques viendront confirmer les résultats théoriques énoncés.
[1] Cosserat, E., & Cosserat, F. (1909). Théorie des corps déformables. A. Hermann et fils.
[2] Stefanou, I., Sulem, J., & Rattez, H. (2016). Cosserat approach to localization in geomaterials.
[3] Marazzato, F., Ern, A., & Monasse, L. (2020). A variational discrete element method for quasistatic and dynamic elastoplasticity. International Journal for Numerical Methods in Engineering.
CLIQUER ICI POUR REJOINDRE LA SALLE 2
Président.e de session : Mathilde Boissier
Modérateur.trice : Matthieu Aussal
Soit $N, m , d \in \mathbb{N}^*$, $\Omega$ un ouvert borné régulier de $\mathbb{R}^d$, $\omega$ un ouvert inclus dans $\Omega$ et $T>0$. On considère un système linéaire parabolique de $N$ équations couplées avec contrôle interne sur $\omega$, de la forme
$$
\tag{1} \left \{
\begin{array}{l l l}
\partial_t Y - D \Delta Y &= A Y + B u \mathbf{1}_{\omega} &\text{sur } \Omega_T, \\
\frac{\partial Y}{\partial n} &= 0 &\text{sur } (0,T) \times \partial \Omega, \\
Y(0,\cdot)&=Y^0 (\cdot) &\text{sur } \Omega.
\end{array}
\right .
$$
avec $Y \in \mathbb{R}^N$, $A, D \in M_N (\mathbb{R})$ avec $D$ diagonale, $B \in M_{N,m} (\mathbb{R})$ et $Y_0 \in L^2(\Omega)^N$.
Il est établi dans [1] que le système (1) est contrôlable moyennant une condition de type Kalman sur $A$ et $B$. Aucune contrainte n'est cependant imposée sur la trajectoire $Y$ qui permet d'atteindre un état-cible donné. Or, l'état dans ce type de système est pourtant usuellement positif en réalité (températures, concentrations). Etant données une condition initiale $Y^0$ et une trajectoire cible $Y^{\mathrm{f}}$, toutes deux positives, l'objectif est donc de trouver un contrôle $u$ tel que la solution de (1) avec donnée initiale $Y^0$ vérifie $Y(\cdot,T)=Y^{\mathrm{f}}(\cdot,T)$ pour un certain $T$ et $Y(\cdot,t)\geq 0$ pour tout $t \in [0,T]$.
La recherche en contrôlabilité de systèmes avec contrainte de positivité sur l'état connaît des progrès rapides ces dernières années ; citons entre autres les résultats obtenus pour l'équation de la chaleur [2] et pour une équation parabolique scalaire semilinéaire [3].
Dans cet exposé, on énoncera deux résultats de contrôlabilité avec contrainte sur l'état pour les systèmes couplés de la forme (1) : l'un dans le cas général et un autre plus fort dans le cas où $D=I_n$. Les preuves s'appuient sur une méthode "en escalier" également employée dans [2,3]. On montrera en particulier que le temps minimal de contrôlabilité est strictement positif.
[1] F. Ammar-Khodja, A. Benabdallah, C. Dupaix et M. Gonzàlez-Burgos, A Kalman rank condition for the localized distributed controllability of a class of linear parabolic systems, Journal of Evolution Equations, 2009.
[2] J. Lohéac, E. Trélat, and E. Zuazua, Minimal controllability time for the heat equation under unilateral state or control constraints, Mathematical Models and Methods in Applied Sciences 27.09 (2017): 1587-1644.
[3] D. Pighin, E. Zuazua, Controllability under positivity constraints of semilinear heat equations, arxiv preprint: http://arxiv.org/abs/1711.07678, 2018.
In this presentation, we will talk about networks of $d \in \mathbb{N}$ scalar conservation laws with positive characteristic velocities. The interaction takes place at the boundary, where a feedback operator acts. The open loop system is given below with $H$ a square matrix given by the physics having a destabilizing effect:
\begin{equation}
\left{
\begin{array}{lll}
R_t + [f(R)]_x &=& 0 \
R(t,0) &=& HR(t,1) + u(t) \
R(0,x) &=& R_0(x)
\end{array}
\right.
\end{equation}
To stabilize this system, we design a feedback control of the form $u(t)=K R(1,t)$ where $K$ is a control gain to be designed. Such stabilization problem had been widely treated in the literature in various settings [2,3]. Nonetheless for the discretized version of the problem, it is far from being obvious that a control synthesized from the continuous theory stabilizes the discretized open-loop system.
In this talk, we focus on numerical aspects related to system (1). Using flux limiter schemes [1], we study the influence of the choice of the limiter on the $BV$ exponential stability of numerical solutions.
[1] Sweby, P. K., High resolution schemes using flux limiters for hyperbolic conservation laws, SIAM Journal on Numerical Analysis, 1984.
[2] Bastin, G. and Coron, J.-M., Stability And Boundary Stabilization Of 1-D Hyperbolic Systems, Springer International Publishing, 2016.
[3] Coron, J.-M. and Ervedoza, S. and Ghoshal, S.S. and Glass, O. and Perrollaz, V., Dissipative boundary conditions for 2×2 hyperbolic systems of conservation laws for entropy solutions in BV, Journal of Differential Equations, 2017.
We consider the infinite time horizon LQR optimal control problem for the linearized Boussinesq system. The goal is to justify the approximation by penalization of the free divergence condition in this context. More precisely, under suitable assumptions, we establish convergence results for optimal controls, optimal solutions and Riccati operators when the penalization parameter goes to zero.
The mechanical Contact between two bodies is one of the most difficult problems in solid mechanics, indeed the material non-linearity must be taken into account and the contact area is unknown. In the case of frictional contact another non-linearity must be considered and makes the problem even more difficult. There exist several algorithms to solve the contact problems [3], most of them involve the concept of master/slave, which prevents the penetration of the slave body into the master one, and therefore causes the non-symmetry of the algorithm.
In this work the contact problem is formulated into a constrained minimization one. In the first part, we will present some algorithms, developed using FreeFEM [1], treating Signorini's problem [2] (contact between a body and a rigid foundation). In the second part two algorithms treating the contact between two bodies are presented, the first algorithm uses the penalty method, and the second one uses the interior-point method. One of the advantages of these two algorithms is the symmetric behavior, in addition the Interior point optimizer (IPOPT) [4] is used in order to solve the constrained minimization problem.
Bibliography
[1] Frédéric Hecht, New development in FreeFem++, Journal of numerical mathematics, vol. 20, no 3-4, p. 251-266, 2012.
[2] Antonio Signorini, Sopra alcune questioni di elastostatica, Atti della Societa Italiana per il Pro- gresso delle Scienze, 21(II):143–148, 1933.
[3] Peter Wriggers, Computational Contact Mechanics, Second Edition, Springer-Verlag, 2006.
[4] Andreas Wächter and Lorenz T. Biegler , On the implementation of an interior-point filter line-search algorithm for large-scale nonlinear programming, Mathematical programming, Springer, vol. 106, no 1, p. 25-57, 2006.
In an homogeneous population, the basic reproduction number of an infection, denoted by $R_0$, has originally been defined as the number of cases one individual generates on average over the course of its infectious period, in an otherwise uninfected population. This number plays a fundamental role in epidemiology as it provides a scale to measure how difficult to control an infectious disease is. More importantly, $R_0$ is often used as a threshold which determines whether the disease will die out (if $R_0>1$) or whether it can invade the population (if $R_0>1$).
This latter property led to the recognition of a simple threshold theorem,mainly that if immunity is delivered at random, then the incidence of the infection will decline if the proportion of immune exceeds $1−1/R0$. Hence, this so-called herd immunity threshold, sometimes abbreviated HIT, is usually given as the targeted percentage of people that have to be vaccinated in order to acquire herd immunity.
When the contacts are not homogeneous, the basic reproduction number is defined as the number of secondary cases generated by a typical infectious individual when all the other individuals are uninfected. In heterogeneous populations, the herd immunity threshold $1−1/R0$ remains if the vaccines are delivered uniformly in the population. However, one can even achieve herd immunity with a proportion of immunized individuals lesser than $1−1/R_0$ by targeting certain group within the population. It is then natural to ask how to devise optimal allocation strategies for limited vaccines.
The aim of this presentation is to introduce an SIS infinite-dimensional model with vaccination and prove the existence of optimal vaccination strategies for this model. In the second part of the talk, I will discuss algorithms to compute these optimal allocations.
CLIQUER ICI POUR REJOINDRE LA SALLE 3
Président de session : Valentin Pagès
Modérateur.trice : Corentin Lothodé
De nombreux algorithmes existent aujourd'hui pour résoudre les équations de Kohn-Sham en calcul de structure électronique. Ils sont soit basés sur la minimisation sous contraintes de l'énergie ou sur des itérations de point fixe pour résoudre la formulation auto-cohérente du problème. Il n'est pas clair quelle classe d'algorithmes est la plus efficace et la plus robuste en fonction des situations. Nous proposons ici une première approche de la compréhension de la différence intrinsèque entre deux algorithmes simples de chaque classe : un SCF amorti et une descente de gradient projeté. Nous établissons une analyse locale de la minimisation d'une fonctionnelle régulière sur l'ensemble des projecteurs orthogonaux de rang fixé et nous dérivons des ordres de convergence explicites, confirmés par des résultats numériques.
Références:
Dans cet exposé, nous considérons l'utilisation d'intégrateurs exponentiel à un problème purement hyperbolique. Les méthodes exponentielles sont intéressantes pour résoudre des problèmes cinétiques car elles éliminent la condition de CFL induite par la partie linéaire du problème, qui en pratique est souvent la contrainte de stabilité la plus contraignante. Dans des travaux antérieurs[1], ces schémas se sont avérés très performants pour les problèmes de dérive cinétique. Cependant, malgré leur efficacité numérique, il a été observé que dans certaines situations, les intégrateurs exponentiels couramment utilisés, tels que le schéma de Cox-Matthews, nécessitent de très petits pas de temps pour assurer leur stabilité. Dans ce travail, notre objectif est d'étudier la stabilité des intégrateurs exponentiels pour des problèmes purement hyperboliques. Nous nous proposons d'étudier un problème linéarisé, permettant d'effectuer une analyse de von Neumann pour en déduire des conditions de stabilité pour différents schéma numérique en espace (WENO en s'appuyant sur les travaux [2] pour l'étude de stabilité ou différences centrées d'ordre 2). Sur la base de cette étude, nous proposons d'utiliser les méthodes de Lawson, dont on peut montrer qu'elles ne souffrent pas du même comportement erratique sur leur stabilité. Nous confirmons ces résultats en effectuant des simulations numériques pour les équations de Vlasov-Poisson.
Progresser dans la modélisation physico-numérique des effets liés à la délocalisation du transport électronique au sein des plasmas créés par laser est aujourd'hui un enjeu majeur pour la FCI (Fusion par Confinement Inertiel). On s'intéresse au transport hors équilibre thermodynamique local des électrons dans le cadre de la fermeture des équations de la MHD (Magnéto-Hydrodynamique) résistive.
S'il est bien connu qu'imposer l'équilibre thermodynamique local conduit aux fermetures de Spitzer-Härm [1] et de Braginskii [2], imposer une fermeture non-locale nécessite la résolution d'équations cinétiques (Vlasov-Fokker-Planck). Les modèles existants comme le modèle SNB (Schurtz, Nicolaï et Busquet [4]), fournissent dans certains régimes délocalisés un flux de chaleur plus proche de la référence cinétique qu'un flux de Spitzer-Härm limité comme le montrent plusieurs campagnes de test avec comparaison à des codes cinétiques [6]. Mais le domaine de validité du modèle SNB est mal défini en raison d'hypothèses de construction discutables d'une part, et d'autre part sa mise en œuvre au sein d'un code fluide est délicate.
En se basant sur [3] et [4], on présente alors un nouveau modèle quasi-cinétique basé sur une approximation angulaire de la fonction de distribution électronique $f$ justifiée par une analyse asymptotique. Le problème se ramène à la résolution d'une équation de diffusion multigroupe sur la partie isotrope de $f$ et comprenant des termes de dérivées croisées espace-vitesse. Dans un premier temps on analysera les propriétés mathématiques du modèle. Puis on présentera dans un second temps une discrétisation des équations du modèle permettant de restituer ces propriétés au niveau discret. On terminera par quelques résultats numériques.
[1] L. Spitzer & R. Härm, Transport phenomena in a completely ionized gaz, Physical Review 89(5) (1953).
[2] S. I. Braginskii. Reviews of plasma physics (1965).
[3] A. Decoster, P.A. Markowich \& B. Perthame. Modeling of Collisions. Series in applied mathematics (1998).
[4] G. P. Schurtz, Ph. D. Nicolaï, and M. Busquet. A nonlocal electron conduction model for multidimensional radiation hydrodynamics codes. Physics of Plasmas (2000).
[5] Pierre Degond and Brigitte Lucquin-Desreux. Transport coefficients of plasmas and disparate mass binary gases. Transport Theory and Statistical Physics, 25(6):595-633, October (1996).
[6] J.P. Brodick et al., Testing non-local models of electron thermal conduction for magnetic and inertial confinement fusion applications, Physics of Plasmas (2017).
We discretize the unsteady incompressible Navier-Stokes equations by means of face-based Compatible Discrete Operator (CDO) schemes in space and either monolithic or fractional time stepping methods. CDO schemes [Bonelle, Ern, M2AN, 48(2):553-581, 2014] provide low-order discretizations and are part of the so-called mimetic schemes. CDO schemes can handle polytopal, nonmatching or deformed meshes while still showing optimal orders of convergence in space and good computational performances.
For the problem at hand, the so-called face-based discretization has been retained. The velocity is hybrid and defined both at faces and cells, whereas the pressure is defined only at cells. The viscous part of the problem relies on a discrete stabilized velocity gradient reconstruction which is piecewise constant on the face-based subpyramids of each cell: some similarities may be found with the Hybrid Mixed Mimetic schemes [Droniou et al, IMA J. Numer. Anal., 36(4):1636-1669, 2015]. This gradient, which is exact for affine functions, is also the tool on which the velocity-pressure coupling is based, via a discrete divergence operator which satisfies an inf-sup condition. Finally, the discretization of the convection term is inspired by the one used in the Hybrid High-Order framework [Di Pietro, Droniou, Ern, SIAM J. Numer. Anal., 53(5):2135-2157, 2015]. The discrete convection term is proved to be dissipative, an important property for the energy balance.
Two strategies for the time stepping are analyzed. The first one hinges on the traditional strong velocity-pressure coupling and leads to saddle-point problems at each time step. An alternative hinges on the Artificial Compressibility (AC) technique and allows one to decouple velocity and pressure at the price of a relaxed incompressibility constraint. Common convection treatments (implicit, linearized or explicit convection) are considered and their conservative properties are evaluated. For all the considered strategies, both first- and second-order time-schemes are addressed: for the strong coupling a BDF2 scheme is chosen, whereas a bootstrapping technique [Guermond and Minev, SIAM J. Sci. Comput., 37(6):A2656-A2681, 2015] is considered when dealing with the AC method. Results for classical test cases validate the proposed framework in terms of convergence rates for smooth solutions. Moreover, attention is paid to experimentally explore the limits of stability when an explicit convection is used.
The Keller-Segel model is used to represent chemotaxis among living organisms. This movement is observed in a wide range of situations in nature, such as the motion of bacteria, immune and cancer cells toward biological signals.
This model is a nonlinear Fokker-Planck equation, well-known for its mathematical difficulty.
Numerous numerical techniques exist to simulate this equation. However, a lot of them fail to retrieve the energy associated with the model at the discrete level while being efficient. Here, we apply the recent Scalar Auxiliary Variable method (SAV), that has been introduced to design numerical schemes that preserve the structure of the continuous model.
The method permits to design a linear semi-implicit scheme for the Keller-Segel model that retrieves a modified energy at the discrete level.
We discuss the efficiency of this technique compared to nonlinear numerical methods and examine its limits.
This presentation is based on the two following articles:
CLIQUER ICI POUR REJOINDRE LA SALLE 1
Président.e de session : Charles-Edouard Bréhier
Modérateur : Nicolas Forcadel ou Thierry Horsin
The aim of molecular dynamics is to study the time-evolution of a microscopic system of $N$ particles in order to deduce various of its macroscopic properties. To do so, one needs to sample the Boltzmann-Gibbs measure $\mu_{V} \propto exp(-\beta V)$ where $V$ is the system's potential energy and $\beta$ is the thermodynamic beta. A classical process used in this scope is the overdamped Langevin dynamics:
$\mathrm{d} X_{t}= -\nabla V (X_{t}) \mathrm{d}t + \sqrt{2\beta^{-1}} \mathrm{d}W_{t},$
where $(W_{t})_{t \geq 0}$ is a classical $d$-dimensional Brownian motion, and $\mathcal{F}=-\nabla V$ is the interaction force. A force which is the gradient of a potential energy $V$ is said to be conservative. Note that from a PDE point of view, the law of the process $(X_{t})_{t\geq 0}$ satisfies a nonlinear Fokker-Planck equation.
Such a process has good theoretical properties, but one practical issue arises, that of metastability: the system may remain trapped in potential wells for long periods of time, and the system's law's relaxation towards the equilibrium can be far too slow. In order to avoid metastability, one relies on a reaction coordinate, namely a function $\xi$ of the position which gives a low-dimensional representation of the system. One can then consider the Adaptive Biasing Force (ABF) method [1,2], which consists in biasing the force $\mathcal{F}$ in the direction of $\xi$, and prove the longtime convergence of the algorithm [3]. A nice property of the method is the flat histogram property: the energy landscape is flattened in the direction of $\xi$. In this talk, we will present a study of the ABF method's robustness with generic -possibly non-conservative- forces. We first ensure the flat histogram property still holds, then prove the existence of a stationary state, relying on generic bounds on the invariant probability measures of homogeneous diffusions [4]. Using classical entropy techniques [5], we eventually prove the longtime convergence of the algorithm.
[1]E. Darve, A. Pohorille, Calculating free energies using average force, The Journal of Chemical Physics, volume 115, 2001
[2]J. Hénin, C. Chipot, Overcoming free energy barriers using unconstrained molecular dynamics simulations, The Journal of Chemical Physics, volume 121, 2004
[3]T. Lelièvre, F. Otto, M. Rousset, G. Stoltz, Long-time convergence of an adaptive biasing force method preprint, 2007
[4]Neil S. Trudinger, Linear elliptic operators with measurable coefficients, Annali della Scuola Normale Superiore di Pisa - Classe di Scienze, 1973
[5]T. Lelièvre, G. Stoltz Free Energy Computations, Imperial College Press, 2010
We introduce and study a notion of Asymptotic Preserving schemes, related to convergence in distribution, for a class of slow-fast Stochastic Differential Equations (SDE). We focus on an example in the so-called diffusion approximation regime: $dX^\epsilon_t = \frac{\sigma(X^\epsilon_t) m^\epsilon_t}{\epsilon} dt$, where $dm^\epsilon_t = -\frac{m^\epsilon_t}{\epsilon^2} dt + \frac{1}{\epsilon} d\beta_t$. The solution $X^\epsilon$ then converges in distribution when $\epsilon \to 0$ to the solution diffusion equation $dX_t = \sigma(X_t) \circ dW_t$, with a Stratonovitch interpretation of the noise $W$. The natural schemes fail to capture the correct limiting equation, as they give a limit scheme consistent with an Itô interpretation of the noise ($dX_t = \sigma(X_t)dW_t$). We propose an Asymptotic Preserving scheme, in the sense that the scheme converges when $\epsilon \to 0$, and that the limit scheme is consistent with the limiting equation with the correct interpretation of the noise. We also present a kinetic stochastic PDE $\partial_t f^\epsilon + \frac{1}{\epsilon} v \cdot \nabla_x f^\epsilon = \frac{1}{\epsilon^2} L f^\epsilon + \frac{1}{\epsilon} m^\epsilon f^\epsilon$, which also converge to a diffusion equation $\partial_t \rho = div(K \rho) + \rho \circ Q dW$, and some ideas on how to construct AP schemes for this SPDE.
Preprints: https://arxiv.org/abs/2011.02341, https://arxiv.org/abs/2009.10406
Le but de ce travail est de démontrer un résultat d'homogénéisation stochastique sur une jonction (homogénéisation précisée). Ce travail est motivé par les applications au trafic routier. Le trafic routier peut être modéliser à deux échelles: microscopique et macroscopique. Chaque échelle a ses propres avantages et désavantages. L'importance de l'homogénéisation précisée est de trouver des problèmes macroscopiques à partir des problèmes microscopiques en gardant en mémoire des phénomènes locaux. Récemment, il y a eu beaucoup d'attention sur l'homogénéisation des équations de HJ sur les réseaux. La plupart de ces travaux reposent sur une hypothèse de périodicité. Dans notre travail, on a démontré le cas stochastique en considérant une équation de HJ qui dépend d'une variable aléatoire. Plusieurs résultats d'homogénéisation stochastique ''classique'' sont déjà démontrés. La difficulté dans notre cas par rapport à ces résultats est que l'on considère une perturbation au voisinage de zéro. Donc d'un point de vue trafic routier le flux est limité au voisinage de zéro. La présence de la jonction empêche la stationnarité de l'équation qui est une hypothèse essentielle dans les résultats obtenus précédemment. Cela empêche en particulier d'utiliser les arguments classiques utilisés pour prouver l'homogénéisation. Pour surmonter cette difficulté nous avons utilisé un argument quantitatif.
Plus précisément, le problème que l'on considère est un cas où l'hamiltonien $H$ est égale à $H_{L}$ proche de $-\infty$ et à $H_{R}$ proche de $+\infty$, $H_{L}$ et $H_{R}$, étant deux hamiltoniens stationnaires ergodiques, avec une zone de transition (au voisinage de zéro) entre les deux. On étudie deux cas, le premier est celui où l'on passe de manière convexe de $H_{L}$ à $H_{R}$. Dans ce cas, et au sens du trafic routier, le flux n'est pas limité et on obtient un limiteur de flux déterministe. Le second est le cas où on limite réellement le flux près de l'origine. Dans ce cas on est obligé d'avoir une zone de transition avec un rayon de l'ordre $1/\sqrt\epsilon$, c.à.d de plus en plus grande quand $\epsilon \to 0$. On arrive alors à montrer que le limiteur de flux est déterministe sur des ensembles de plus en plus grands (de probabilité $<1$) et à la limite ($\epsilon \to 0$) sur un ensemble de probabilité 1.
Un contre exemple est donné pour démontrer qu'on ne peut pas trouver à la limite un problème déterministe avec un limiteur de flux déterministe si on prend une zone fixe avec une vraie limitation du flux.
Systems of interacting particles appear in a wide variety of applications, ranging from plasma physics and galactic dynamics to mathematical biology, the social sciences, dynamical density functional theory (DDFT) and machine learning. In this presentation, we study systems of interacting particles of the type
$$
{d X_t^i \over d t} = -\left(V'(X_t^i) + \theta \, \left(X_t^i-\frac{1}{N}\sum_{j=1}^N X_t^j\right)\right) + \sqrt{2\beta^{-1}} \, \xi_t^i, \qquad i = 1, \dots, N,
$$
where $N$ is the number of particles, $V(\cdot)$ is a confining potential, $\theta$ is the interaction strength and $\beta$ is the inverse temperature of the system. In contrast with most studies on the subject, and in order to better model realistic scenarios, we assume that $\xi_t^i$ are independent *colored noise processes*, i.e. noise processes with a nonzero correlation time.
There is extensive literature studying the behavior of systems of this type in the case of white noise, and it is well-known that these systems exhibit phase transitions when the confining potential $V$ admits several local minima: the associated McKean--Vlasov equation, which describes the evolution of the empirical measure of the particle system in the mean field limit, admits a unique steady-state solution for sufficiently small $\beta$, but it admits more than one steady-state solution when $\beta$ exceeds a critical value.
Our goal is to investigate the effect of the correlation time of the noise on the bifurcation diagram for the equilibrium states in the case where $V$ is the standard double-well potential. To this end, we develop a spectral numerical method based on Hermite polynomials for solving the McKean--Vlasov equation corresponding to the particle system with colored noise. We prove the spectral convergence of the numerical method in a simple setting and we corroborate our numerical findings in the small correlation time regime using perturbation theory.
Reference: S. N. GOMES, G. A. PAVLIOTIS and U. VAES, Mean field limits for interacting diffusions with colored noise: phase transitions and spectral numerical methods, Multiscale Model. Simul., 18 (3), pp. 1343-1370 (2020).
CLIQUER ICI POUR REJOINDRE LA SALLE PLENIERE
Présidente de session : Céline Lacaux
Modérateur.trice : Nicolas Forcadel
CLIQUER ICI POUR REJOINDRE LA SALLE 1
Olivier Goubet, président de la SMAI
Franck Boyer et Violaine Roussier-Michon, membres du comité d'organisation de SMAI2021.