This will be a discussion about large language models such as OpenAI’s GPT series, oriented towards physicists and mathematicians. After a brief survey of the state of the art, we describe transformer models in detail, and discuss current ideas on how they work and how models trained to predict the next word in a text are able to perform other tasks displaying intelligence.
========
Pour être informé des prochains séminaires vous pouvez vous abonner à la liste de diffusion en écrivant un mail à sympa@listes.math.cnrs.fr avec comme sujet: "subscribe seminaire_mathematique PRENOM NOM"
(indiquez vos propres prénom et nom) et laissez le corps du message vide.
Emmanuel Ullmo