Archives

Chargement Évènements

Prochains Évènements

Recherche et navigation de vues Évènements

Navigation de vues évènement

avril 2021

EDP : Alessia Del Grosso (LMV) : Numerical simulation of geophysical flows using second-order and well-balanced Lagrange-projection methods

15 avril / 14:00 - 15:00

This PhD thesis is devoted to the development and implementation of second-order well-balanced Lagrange-projection numerical methods for hyperbolic partial differential equations. In particular, the Lagrange-projection formalism entails a decomposition of the acoustic and transport terms of the model, while the well-balanced property represents the ability of the scheme of preserving the stationary solutions of the model. Here we mainly focus on the numerical approximation of the shallow-water system coupled with the Exner equation, where the latter expresses the evolution in…

Voir les détails »

Mikhail Gorsky (Univ. de Stuttgart) : « Extriangulated structures and degeneration of Hall algebras »

20 avril / 11:30 - 12:30

Abstract :

Voir les détails »

mai 2021

PS : Marie Chavent (Univ. Bordeaux) : titre à venir

4 mai / 11:30 - 12:30

Résumé à venir Exposé sur Zoom (lien sur demande)

Voir les détails »

PS : Mohamed Ali Belloum (Univ. Paris Nord) : titre à venir

18 mai / 11:30 - 12:30

Résumé à venir Exposé sur Zoom (lien sur demande)

Voir les détails »

Daniel Skodlerack (ShanghaiTech University) : « Endo-parameters for p-adic classical groups »

18 mai / 11:30 - 12:30
Voir les détails »

PS : Anne Philippe (Univ. Nantes) : Explicit and combined estimators for stable distributions parameters

25 mai / 11:30 - 12:30

Résumé : à venir Exposé sur Zoom (lien sur demande)

Voir les détails »

juin 2021

Nicolas Monod (EPFL – Lausanne)

1 juin / 11:30 - 12:30
Voir les détails »

PS : Clément Dombry (Univ. Besançon) : infinitesimal gradient boosting

8 juin / 11:30 - 12:30

Résumé : We investigate the asymptotic behaviour of gradient boosting algorithms when the learning rate converges to zero and the number of iterations is rescaled accordingly. To this aim, we introduce a new class of regression trees, that we call $(\beta,K,d)$-regression trees and work in a suitable function space that we call the space of tree functions. Our main result is a deterministic limit in the vanishing learning rate asymptotic and the characterization of the limit as the unique solution…

Voir les détails »

John Lesieutre ( Pennsylvania State University)

8 juin / 14:00 - 15:00

Abstract:

Voir les détails »

Patrick Popescu-Pampu (Univ. Lille)

15 juin / 11:30 - 12:30

Résumé :  (à venir)

Voir les détails »
+ Exporter les évènements