J'expliquerai de façon élémentaire comment on peut établir des liens entre plusieurs points de vue (les points de vue différentiel, algébro-géométrique, métrique) sur l'étude des singularités, dans le contexte souple de la géométrie des ensembles définissables. Nous définirons d'abord ces notions et nous dirons ensuite en quoi et comment elles se correspondent.
Cet exposé est consacré à une théorie de l'homotopie des infini-catégories strictes. Cette théorie est présentée par une structure de modèles de Quillen, construite à partir d'un ensemble de cofibrations génératrices et d'une classe d'équivalences faibles. Je commencerai par des généralites sur l'algèbre homotopique pour ensuite préciser la construction de la structure de modèles en question. Finalement j'esquisserai une construction de cohomologie non-abelienne où les inifini-categories strictes servent de coefficients.
Cet exposé est consacré à la modélisation mathématique de quelques problèmes environnementaux, couvre des thématiques allant des vagues jusqu'aux avalanches de neige poudreuse et traite de différents aspects de la modélisation des tsunamis. Nous étudions toute la gamme des processus physiques de la génération, transformations d'énergie, propagation jusqu'à l'inondation des côtes. Nous verrons aussi différents aspects de la simulation numérique et de la modélisation d'inondation. Ces questions sont traitées par différentes approches: les équations de Saint-Venant, les équations de type de Boussinesq et le système de Navier-Stokes bi-fluide. Nous nous intéressons aussi à deux problèmes relevant principalement des écoulements multi-fluides, en particulier la justification formelle du modèle bifluide à quatre équations proposé avant pour la modélisation des écoulements aérés. Quelques résultats numériques présentés peuvent s'appliquer, par exemple, à la simulation numérique du déferlement. Nous proposons aussi un nouveau modèle pour les avalanches de neige poudreuse. Ce système est dérivé du Navier-Stokes bifluide classique et possède de bonnes propriétés qualitatives. Les simulations numériques d'interaction d'une avalanche avec obstacle sont présentées.
Nous nous intéressons à une classe de modèles de mouvements de foules en situation d’évacuation d’urgence basés sur les considérations suivantes : chaque personne souhaite optimiser sa propre trajectoire (en clair : sortir au plus vite du bâtiment), mais, dans le cas de situations congestionnées, le mou- vement est contraint par le simple fait que deux personnes ne peuvent pas être au même endroit au même moment. Nous présenterons une mise en équation microscopique de ces principes, où chaque personne est identifée à un disque rigide, et la vitesse effective instantanée est la projection du déplacement souhaité sur l’ensemble des vitesses admissibles, qui ne conduisent pas à un chevauchement des individus. Nous montrons que ce modèle peut s’interpréter comme un flot-gradient sur l’espace des degrés de liberté (pour une fonctionnelle d’insatisfaction définie comme la somme des insatisfactions individuelles). Nous proposerons ensuite une version macroscopique du modèle : la population est alors décrite par une densité assujettie à rester inférieure à une valeur fixée. La régularité de la vitesse effective n’étant pas contrôlée, les résultats classiques sur l’équation de transport d’une densité ne sont pas applicables. Nous montrerons comment le cadre de la métrique de Wasserstein sur les mesures (distance entre mesures associée au transport optimal) permet de redonner à ce modèle une structure de flot- gradient, de montrer l’existence d’une solution et suggère des pistes pour la simulation numérique de tels phénomènes.
Nous montrerons le rôle des fibrés vectoriels en physique par l'intermédiaire des théories de jauge, et comment des classes caractéristique peuvent intervenir, via des termes topologiques dans les Lagrangiens. Pour une théorie de jauge abélienne, nous verrons comment les monopôles magnétiques et l'effet Bohm-Aharonov peuvent s'interprèter comme une première classe de Chern, et pour les théories non abéliennes, le nombre d'instanton est une deuxième classe de Chern (dans la version euclidienne de la théorie de Yang et Mills).
Let $P(x,z)= z^d +sum_{i=1}^{d}a_i(x)z^{d-i}$ be a polynomial, where $a_i$ are real analytic functions in an open subset $U$ of $R^n$. If for any $x in U$ the polynomial $zmapsto P(x,z)$ has only real roots, then we can write those roots as locally lipschitz functions of $x$. Moreover, there exists a modification (a locally finite composition of blowing-ups with smooth centers) $sigma : W to U$ such that the roots of the corresponding polynomial $tilde P(w,z) =P(sigma (w),z),,win W $, can be written locally as analytic functions of $w$. Let $A(x), , xin U$ be an analytic family of symmetric matrices, where $U$ is open in $R^n$. Then there exists a modification $sigma : W to U$, such the corresponding family $tilde A(w) =A(sigma(w))$ can be locally diagonalized analytically (i.e. we can choose locally a basis of eigenvectors in an analytic way). This generalizes the Rellich's well known theorem (1937) for one parameter families. Similarly for an analytic family $A(x), , xin U$ of antisymmetric matrices there exits a modification $sigma$ such that we can find locally a basis of proper subspaces in an analytic way.
La première difficulté en géométrie réelle consiste à définir un cadre de travail. On ne peut en effet se restreindre à l'étude d'objets lisses (ce serait exclure l'ensemble pourtant simple formé par l'union de deux droites concourantes), mais les objets singuliers peuvent s'avérer trop compliqués pour être étudiés avec les outils de géométrie différentielle classiques (tout fermé de Rn est l'intersection de deux variétés lisses). Nous verrons comment les structures o-minimales répondent à cette problématique, en évitant les « monstres », tout en gardant un niveau de généralité élevé. Nous parlerons ainsi, selon ce que le temps permet, de la géométrie modérée qu'elles définissent, des pathologies qu'elles autorisent, des liens qu'elles entretiennent avec la théorie des modèles, et des questions qui s'y posent.
En 1932, Paley et Zygmund démontrent que les séries trigonométriques aléatoires sur le tore sont presque surement plus régulières que ce a quoi on s'attendrait. Ce type de résultat a par la suite été étudié par de nombreux auteurs dans un contexte d'analyse harmonique (Pisier et Kahane notamment). Curieusement, pendant longtemps, les spécialistes des EDP ne se sont pas interessés à ce type de questions. L'objet de cet exposé est précisement de montrer quelques applications des idees directement inspirées de Paley et Zygmund, au contexte des EDP. Plus précisément, on montrera que pour certaines équations des ondes et de Schrodinger, pour des données initiales aléatoires, la situation est bien meilleure en termes d'existence et de comportement en temps longs, que pour des données initiales fixées. Il s'agit de travaux en collaboration avec N. Tzvetkov (Cergy) et L. Thomann (Nantes).
Les théories de la calculabilité (que peut-on calculer ?) et de la complexité algorithmique (quelle est la difficulté intrinsèque d'un problème calculable ?) sont deux piliers de la science informatique. L'objectif de cet exposé est de donner un aperçu des concepts, des principaux résultats et des grands problèmes ouverts de ces théories. Selon le temps, nous parlerons de fonctions récursives, d'ensembles diophantiens, de pavages du plan, d'applications affines par morceaux, d'identités polynomiales, etc, avec le secret espoir de convaincre l'auditoire que la notion de calcul est avant tout protéiforme et peut s'immiscer dans de nombreux objets mathématiques ``classiques''.
Faut pas le dire, mais l'enseignement supérieur des sciences (à Nice?), ça marche pas top (taper Objectif70 dans Google). Faut pas le dire, mais nous, les universitaires (niçois?), on n'a pas trop le temps de s'occuper de ce problème, on est débordés. Et les autres, ministres et recteurs, gare à eux s'ils s'avisaient de se méler de nos affaires. Par exemple on ne cherche pas trop à enseigner la rigueur autrement que par la méthode dite de Léo Lacroix (``faites comme moi''), qui a largement fait ses réfutations. Ceux qui essaient de faire autrement, forcément, ils y arrivent pas du premier coup, et ils se font casser bien avant d'y arriver. Coqweb (à taper dans Google pour voir) propose une nouvelle méthode. C'est une interface web pour Coq, principalement développée par Loïc Pottier pour l’enseignement. Il permet aux enseignants de proposer des énoncés sous une forme suffisamment familière. Les étudiants sont invités à démontrer ces énoncés essentiellement en cliquant. Des indications peuvent être données en langage naturel, et dans ce cas, l’interface vérifie que l’étudiant a bien compris l’indication. On dira un peu de ce qu'il ne faut pas dire, puis on racontera comment Coqweb marche bien et ce qu'on a fait avec.
L'équipe EDP organise une demi-journée en la mémoire de Thomas Lachand-Robert (18/12/1966--23/02/2006).
Programme:
-- 13h50-14h00. Petite introduction''. <p> -- 14h00-15h00. François Hamel (Université de Marseille). <p>
Inégalités de réarrangement et optimisation de formes''.
-- 15h00-15h30. Pôt en la mémoire de Thomas Lachand-Robert.
-- 15h30-16h30. Serguei Nazarov (St Petersburg).
A criterion of the continuous spectrum for elliptic systems on peak-shaped domains
.
L'estimation et l'approximation de grandeurs topologiques ou géométriques associées à des formes dont on ne connait qu'une approximation posent des problèmes pratiques et théoriques délicats en calcul géométrique. Ces problèmes ont été largement étudiés depuis plusieurs années dans le cas de la reconstruction d'hypersurfaces lisses dans R^n : à partir d'un nuage de points mesurés sur une forme lisse, on souhaite 'reconstruire' la surface de cette forme en garantissant que le résultat produit possède la même topologie que celle de la forme échantillonnée. Il existe bon nombre de résultats et d'algorithmes satisfaisant permettant de répondre a ce problème dans le cas particulier des surfaces dans R^3.Cependant, les résultats et les méthodes actuelles possèdent un double inconvénient. Ils ne se généralisent pas à des objets non lisses et conduisent à des algorithmes inefficaces en dimension supérieure à 3. Le développement récents des outils de mesure et de simulation nécessite de mettre au point des techniques mathématiques et algorithmiques permettant d'extraire l'information topologique et géométrique de nuages de points issus d'objets non lisses dans des espaces de toutes dimensions. Dans cet exposé, nous présenterons quelques résultats récents dans cette voie. Nous verrons en particulier, que dans le cas de l'approximation d'objets non lisses, il apparait des ``phenomènes d'échelle'' faisant apparaitre différentes topologies à différentes échelles.
Attention: l'exposé aura lieu dans l'amphithéâtre Nivolet