Accueil du site > Soutenances de thèses et HDR > Soutenances de thèses
Quelques thèses soutenues au laboratoire sont consultables à la bibliothèque, ainsi qu’environ 80 thèses d’autres universités.
Résumé : Les méthodes Direct Simulation Monte Carlo (DSMC) sont utilisées par Ariane group pour calculer les torseurs d’efforts aérodynamiques et les flux thermiques sur les engins spatiaux pour des écoulements hypersoniques en milieu raréfié. Afin de pouvoir caractériser la dislocation des étages de lanceurs et donc l’empreinte de retombée de débris, une modélisation précise des mécanismes générateurs de flux thermiques est nécessaire. Les réactions chimiques étant dimensionnantes pour le calcul du flux thermique, l’objectif de cette thèse est de développer l’outil de calcul avec la méthode DSMC nommé IEMC de manière à pouvoir prendre en compte les écoulements réactifs. Deux modèles de chimie sont mis en place pour pouvoir prendre en compte la totalité des réactions. Après leur vérifications sur des cas élémentaires, ils sont appliqués et validés sur des cas tests de rentrée pour différentes atmosphères. Les différents modèles considérés sont testés afin d’évaluer leur influence. Les modèles de chimie dépendent de nouveaux paramètres d’entrée, dont les valeurs numériques sont incertaines. Une étude de quantification de leur incertitude est menée et a permis de vérifier que les grandeurs de sorties de la simulation avec un écoulement réactif, notamment le flux thermique, n’est que peu impacté par ces paramètres incertains. |
Résumé : La sécurité des transmissions et du stockage des données est devenue un enjeu majeur de ces dernières années et la cryptologie, qui traite de la protection algorithmique de l’information, est un sujet de recherche extrêmement actif. Elle englobe la conception d’algorithmes cryptographiques, appelée cryptographie, et l’analyse de leur sécurité, appelée cryptanalyse. Dans cette thèse, nous nous concentrons uniquement sur la cryptanalyse, et en particulier celle des algorithmes de chiffrement symétrique, qui reposent sur le partage d’un même secret entre l’entité qui chiffre l’information et celle qui la déchiffre. Dans ce manuscrit, trois attaques contre des algorithmes de chiffrement symétriques sont présentées. Les deux premières portent sur deux candidats de l’actuelle compétition cryptographique CAESAR, les algorithmes AEZ et NORX, tandis que la dernière porte sur l’algorithme Kravatte, une instance de la construction Farfalle qui utilise la permutation de la fonction de hachage décrite dans le standard SHA-3. Les trois algorithmes étudiés présentent une stratégie de conception similaire, qui consiste à intégrer dans une construction nouvelle une primitive, i.e. une fonction cryptographique élémentaire, déjà existante ou directement inspirée de travaux précédents. La compétition CAESAR, qui a débuté en 2015, a pour but de définir un portefeuille d’algorithmes recommandés pour le chiffrement authentifié. Les deux candidats étudiés, AEZ et NORX, sont deux algorithmes qui ont atteint le troisième tour de cette compétition. Les deux attaques présentées ici ont contribué à l’effort de cryptanalyse nécessaire dans une telle compétition. Cet effort n’a, en l’occurrence, pas permis d’établir une confiance suffisante pour justifier la présence des algorithmes AEZ et NORX parmi les finalistes. AEZ est une construction reposant sur la primitive AES, dont l’un des principaux objectifs est d’offrir une résistance optimale à des scénarios d’attaque plus permissifs que ceux généralement considérés pour les algorithmes de chiffrement authentifié. Nous montrons ici que dans de tels scénarios il est possible, avec une probabilité anormalement élevée, de retrouver l’ensemble des secrets utilisés dans l’algorithme. NORX est un algorithme de chiffrement authentifié qui repose sur une variante de la construction dite en éponge employée par exemple dans la fonction de hachage Keccak. Sa permutation interne est inspirée de celles utilisées dans BLAKE et ChaCha. Nous montrons qu’il est possible d’exploiter une propriété structurelle de cette permutation afin de récupérer la clé secrète utilisée. Pour cela, nous tirons parti du choix des concepteurs de réduire les marges de sécurité dans le dimensionnement de la construction en éponge. Enfin, la dernière cryptanalyse remet en cause la robustesse de l’algorithme Kravatte, une fonction pseudo-aléatoire qui autorise des entrées et sorties de taille variable. Dérivée de la permutation Keccak-p de SHA-3 au moyen de la construction Farfalle, Kravatte est efficace et parallélisable. Ici, nous exploitons le faible degré algébrique de la permutation interne pour mettre au jour trois attaques par recouvrement de clé : une attaque différentielle d’ordre supérieur, une attaque algébrique "par le milieu" et une attaque inspirée de la cryptanalyse de certains algorithmes de chiffrement à flot. |
Résumé : Cette thèse est consacrée à l’étude des algèbres de Hecke carquois et de certaines généralisations des algèbres d’Iwahori-Hecke. Dans un premier temps, nous montrons deux résultats concernant les algèbres de Hecke carquois, dans le cas où le carquois possède plusieurs composantes connexes puis lorsqu’il possède un automorphisme d’ordre fini. Ensuite, nous rappelons un isomorphisme de Brundan-Kleshchev et Rouquier entre algèbres d’Ariki-Koike et certaines algèbres de Hecke carquois cyclotomiques. D’une part nous en déduisons qu’une équivalence de Morita importante bien connue entre algèbres d’Ariki-Koike provient d’un isomorphisme, d’autre part nous donnons une présentation de type Hecke carquois cyclotomique pour l’algèbre de Hecke de G(r,p,n). Nous généralisons aussi l’isomorphisme de Brundan-Kleshchev pour montrer que les algèbres de Yokonuma-Hecke cyclotomiques sont des cas particuliers d’algèbres de Hecke carquois cyclotomiques. Finalement, nous nous intéressons à un problème de combinatoire algébrique, relié à la théorie des représentations des algèbres d’Ariki-Koike. En utilisant la représentation des partitions sous forme d’abaque et en résolvant, via un théorème d’existence de matrices binaires, un problème d’optimisation convexe sous contraintes à variables entières, nous montrons qu’un multi-ensemble de résidus qui est bégayant provient nécessairement d’une multi-partition bégayante. |
Résumé : On étudie dans le cadre de la thèse une famille de schémas numériques permettant de résoudre les équations de Saint-Venant. Ces schémas utilisent une décomposition d’opérateur de type Lagrange-projection afin de séparer les ondes de gravité et les ondes de transport. Un traitement implicite du système acoustique (relié aux ondes de gravité) permet aux schémas de rester stable avec de grands pas de temps. La correction des flux de pression rend possible l’obtention d’une solution approchée précise quel que soit le régime d’écoulement vis-à-vis du nombre de Froude. Une attention toute particulière est portée sur le traitement du terme source qui permet la prise en compte de l’influence de la topographie. On obtient notamment la propriété dite équilibre permettant de conserver exactement certains états stationnaires, appelés état du "lac au repos". Des versions 1D et 2D sur maillages non-structurés de ces méthodes ont été étudiées et implémentées dans un cadre volumes finis. Enfin, une extension vers des méthodes ordres élevés Galerkin discontinue a été proposée en 1D avec des limiteurs classiques ainsi que combinée avec une boucle MOOD de limitation a posteriori. |
![]() |
Résumé : L’analyse de sensibilité (AS) concerne la quantification des changements dans la solution d’un système d’équations aux dérivées partielles (EDP) dus aux variations des paramètres d’entrée du modèle. Les techniques standard d’AS pour les EDP, comme la méthode d’équation de sensibilité continue, requirent de dériver la variable d’état. Cependant, dans le cas d’équations hyperboliques l’état peut présenter des discontinuités, qui donc génèrent des Dirac dans la sensibilité. Le but de ce travail est de modifier les équations de sensibilité pour obtenir un système valable même dans le cas discontinu et obtenir des sensibilités qui ne présentent pas de Dirac. Ceci est motivé par plusieurs raisons : d’abord, un Dirac ne peut pas être saisi numériquement, ce qui pourvoit une solution incorrecte de la sensibilité au voisinage de la discontinuité ; deuxièmement, les pics dans la solution numérique des équations de sensibilité non corrigées rendent ces sensibilités inutilisables pour certaines applications. Par conséquent, nous ajoutons un terme de correction aux équations de sensibilité. Nous faisons cela pour une hiérarchie de modèles de complexité croissante : de l’équation de Burgers non visqueuse au système d’Euler quasi-1D. Nous montrons l’influence de ce terme de correction sur un problème d’optimisation et sur un de quantification d’incertitude. |
Résumé : La caractérisation tridimensionnelle de matériaux anciens plats par des méthodes classiques de tomographie à rayons X reste très compliquée en raison de leur morphologie anisotrope et de leur géométrie aplatie. Pour surmonter les limites de ces méthodologies, ce travail propose une modalité d’imagerie basée sur le rayonnement diffusé Compton. La tomographie de rayons X traite le rayonnement diffusé Compton comme du bruit, tandis que dans la tomographie de diffusion inélastique, le rayonnement diffusé est judicieusement exploité de telle sorte qu’il devienne l’agent imageur. Dans cette modalité, la rotation relative entre l’objet étudié et le dispositif d’imagerie n’est plus nécessaire et on peut observer des objets plats. Mathématiquement, ce système d’imagerie est modélise par la transformée de Radon conique. Nous avons premièrement abordé le processus de formation d’image, le problème direct, en considérant une illumination monochromatique parallèle et une détection résolue soit en angle d’incidence soit en énergie. Nous avons ensuite proposé un algorithme de reconstruction d’objet, le problème inverse, c’est-à-dire l’estimation de la distribution 3D de la densité électronique de l’objet à partir de l’image échantillonnée en angle ou en énergie. Des simulations numériques illustrent la faisabilité du système d’imagerie proposé. |
Résumé : Cette thèse étudie le chiffrement homomorphe, nouvelle famille de schémas de chiffrement qui permet de faire des calculs sur les messages chiffrés. Le chiffrement homomorphe compte un grand nombre d’applications pratiques : vote électronique, calculs sur des données sensibles, cloud computing, etc.. Dans la thèse, on propose un nouveau schéma de chiffrement homomorphe, basé sur la construction GSW et ses variantes, appelé TFHE. TFHE améliore soit la technique de bootstrapping, utilisée pour rafraîchir les chiffrés bruités, soit les calculs homomorphes non bootstrappés, en proposant des nouvelles techniques de packing des données et d’évaluation via automates pondérés. Le schéma a été implémenté pendant la thèse et il est disponible en open source. La thèse présente aussi des travaux complémentaires : la construction théorique d’un schéma de vote électronique post-quantique basé sur le chiffrement homomorphe, l’analyse de sécurité du chiffrement homomorphe dans le cas d’une implémentation dans le cloud, et une nouvelle solution pour le calcul sécurisé basée sur le calcul multi-partite. |
Résumé : Cette thèse porte sur l’étude de la concentration autour de la moyenne de fonctions de variables aléatoires indépendantes à l’aide de techniques de martingales et d’inégalités de comparaison. Dans une première partie, nous prouvons des inégalités de comparaison pour des fonctions générales séparément convexes de variables aléatoires indépendantes non nécessairement bornées. Ces résultats sont établis à partir de nouvelles inégalités de comparaison dans des classes de fonctions convexes (contenant, en particulier, les fonctions exponentielles croissantes) pour des variables aléatoires réelles uniquement dominées stochastiquement. Dans la seconde partie, nous nous intéressons aux suprema de processus empiriques associés à des observations i.i.d. Le point clé de cette partie est un résultat d’échangeabilité des variables. Nous montrons d’abord des inégalités de type Fuk-Nagaev avec constantes explicites lorsque les fonctions de la classe ne sont pas bornées. Ensuite, nous prouvons de nouvelles inégalités de déviation avec une meilleure fonction de taux dans les bandes de grandes déviations dans le cas des classes de fonctions uniformément bornées. Nous donnons également des inégalités de comparaison de moments généralisés dans les cas uniformément borné et uniformément majoré. Enfin, les résultats de la première partie nous permettent d’obtenir une inégalité de concentration lorsque les fonctions de la classe ont une variance infinie. |
Résumé : Un nombre important et en constante augmentation de systèmes numériques nous entoure. Tablettes, smartphones et objets connectés ne sont que quelques exemples apparents de ces technologies omniprésentes, dont la majeure partie est enfouie, invisible à l’utilisateur. Les microprocesseurs, au cœur de ces systèmes, sont soumis à de fortes contraintes en ressources, sûreté de fonctionnement et se doivent, plus que jamais, de proposer une sécurité renforcée. La tâche est d’autant plus complexe qu’un tel système, par sa proximité avec l’utilisateur, offre une large surface d’attaque.Cette thèse, se concentre sur une propriété essentielle attendue pour un tel système, la confidentialité, le maintien du secret du programme et des données qu’il manipule. En effet, l’analyse du programme, des instructions qui le compose, est une étape essentielle dans la conception d’une attaque. D’autre part, un programme est amené à manipuler des données sensibles (clés cryptographiques, mots de passes, ...), qui doivent rester secrètes pour ne pas compromettre la sécurité du système.Cette thèse, se concentre sur une propriété essentielle attendue pour un tel système, la confidentialité, le maintien du secret du programme et des données qu’il manipule. Une première contribution de ces travaux est une méthode de chiffrement d’un code, basée sur le graphe de flot de contrôle, rendant possible l’utilisation d’algorithmes de chiffrement par flots, légers et efficaces. Protéger les accès mémoires aux données d’un programme s’avère plus complexe. Dans cette optique, nous proposons l’utilisation d’un chiffrement homomorphe pour chiffrer les données stockées en mémoire et les maintenir sous forme chiffrée lors de l’exécution des instructions. Enfin, nous présenterons l’intégration de ces propositions dans une architecture de processeur et les résultats d’évaluation sur logique programmable (FPGA) avec plusieurs programmes d’exemples. |
Résumé : Le problème du calcul d’isogénies est apparu dans l’algorithme SEA de comptage de points de courbes elliptiques définies sur des corps finis. L’apparition de nouvelles applications du calcul d’isogénies (cryptosystème à trappe, fonction de hachage, accélération de la multiplication scalaire, cryptosystème post quantique) ont motivé par ailleurs la recherche d’algorithmes plus rapides en dehors du contexte SEA. L’algorithme de Couveignes (1996), malgré ses améliorations par De Feo (2011), présente la meilleure complexité en le degré de l’isogénie mais ne peut s’appliquer dans le cas de grande caractéristique. L’objectif de cette thèse est donc de présenter une modification de l’algorithme de Couveignes (1996) utilisable en toute caractéristique avec une complexité en le degré de l’isogénie similaire à celui de Couveignes (1996). L’amélioration de l’algorithme de Couveignes (1996) se fait en suivant deux axes : la construction de tours d’extensions de degré ![]() ![]() ![]() |
Résumé : Cette thèse est consacrée à l’étude de la sécurité physique des algorithmes de couplage. Les algorithmes de couplage sont depuis une dizaine d’années utilisés à des fins cryptographiques. D’une part, les systèmes d’information évoluent, et de nouveaux besoins de sécurité naissent. Les couplages permettent des protocoles innovants, tels que le chiffrement basé sur l’identité, les attributs et encore l’échange triparti en un tour. D’autre part, l’implémentation des algorithmes de couplages est devenue efficace, elle permet ainsi d’intégrer des solutions cryptographiques à base de couplage dans les systèmes embarqués. Cette nouvelle facette des couplages va être étudiée ici. En effet, l’implémentation d’algorithmes dédiés à la cryptographie sur les systèmes embarqués soulève une nouvelle problématique : la sécurité de l’implémentation des couplages face aux attaques physiques. Les attaques par canaux auxiliaires, dites passives, contre les algorithmes de cryptographie sont connues depuis bientôt une dizaine d’années. Nous proposons des études pour valider l’efficacité des attaques, à la fois en pratique et avec des atouts théoriques. L’attaque de l’état de l’art a ainsi été optimisée d’un facteur dix en termes de nombres de traces. Nous proposons aussi une attaque horizontale, qui nous a permis d’attaquer le couplage twisted Ate en une seule trace. Par ailleurs, les contre-mesures n’ont été que peu étudiées. Nous complétons cette partie manquante de la littérature. Nous proposons de nouveaux modèles d’attaques sur la contre-mesure de randomisation des coordonnées. L’attaque en collision proposée permet ainsi de donner une expertise de la contre-mesure ciblée. Nous tirons de cette expertise une implémentation élaborée de la contre-mesure. Nous appliquons la contre-mesure, puis nous donnons son implémentation en cherchant les meilleurs paramètres d’efficacité. |
Résumé : Nous nous intéressons dans cette thèse à l’optimisation conjointe de forme et d’anisotropie pour les structures surfaciques. Nous nous focalisons dans un premier temps sur l’analyse de ces structures minces modélisées par des coques. Le modèle utilisé pour décrire le comportement mécanique est celui de Naghdi communement utilisé pour les coques modérément épaisses et qui permet de prendre en compte l’effet transverse de déformation. La discrétisation par méthode éléments finis est réalisée avec des éléments Lagrange standards de classe C0. Nous considerons la simulation d’assemblage de coques en utilisant une approche de type méthode éléments finis avec joint. Ce type de méthode offre la flexibilité de réalisation de raffinement local et d’utilisation de maillages non conformes, c-à-d non coincidents. La deuxième partie se consacre à la définition d’un paramétrage pour la conception optimale de champ d’anisotropie. Notre approche se base sur l’utilisation conjointe du formalisme polaire pour représenter le tenseur d’élasticité et le principe isogéométrique permettant de paramétrer les champs d’anisotropie par des fonctions de type B-splines. La dernière partie est dédiée à l’optimisation conjointe de forme et propriétés matériau. Le nombre de paramètres d’optimisation dans l’approache proposée est maitrisé puisque les paramètres d’optimisation sont les coordonnées des points de controle. Nous considérons principalement pour l’optimisation un critère de type compliance. |
Résumé : Les défaut de la vision sont analysés et classés à partir des caractéristiques mathématiques du front d’onde de l’oeil considéré. Après avoir présenté la méthode actuelle basée sur la décomposition du front d’onde dans la base orthonormale de Zernike ainsi que certaines de ses limitations, on propose ici une nouvelle base de décomposition. Celle-ci repose sur l’utilisation del’espace des fronts d’onde polynomiaux de valuation supérieure ou égale à L + 1 (où L est un entier naturel) et permet de décomposer de manière unique un front d’onde polynomial en la somme d’un front d’onde polynomial de bas degré (inférieur ou égal à L) et un front d’onde polynomial de haute valuation (supérieure ou égal à L + 1). En choisissant L = 2, une nouvelle décomposition est obtenue, appelée D2V3, où le front d’onde polynomial de haut degré ne comporte pas de termes de degré radial inférieur ou égal à deux. Cette approche permet de dissocier parfaitement les aberrations optiques corrigibles ou non par le port de lunettes. Différents cas cliniques présentés dans la dernière section permettent de mettre en évidence l’intérêt de cette nouvelle base de décomposition. |
Résumé : L’obfuscation est une technique de protection logicielle contre la rétro-conception. Elle transforme du code afin de rendre son analyse plus difficile. Les expressions mixtes arithmético-booléennes (MBA) sont une technique d’obfuscation du flot de données introduite en 2007 et qu’on rencontre dans des applications réelles. Cette technique est présentée comme robuste alors même que le domaine de l’obfuscation MBA étant assez jeune, il bénéficie de peu de littérature sur la conception et l’analyse de telles expressions obfusquées. Durant nos recherches, nous avons structuré le sujet de l’obfuscation MBA, et l’avons relié à d’autres domaines, principalement la cryptographie, la réécriture ou la logique des vecteurs de bits. Nous avons également reconstruit une implémentation d’obfuscation MBA à partir d’échantillons publics. Nous avons étudié ce que signifie simplifier une expression obfusquée, et défini nos propres métriques de simplicité pour les expressions MBA. Cette étude nous a permis de concevoir deux outils de désobfuscation, dont l’implémentation a simplifié avec succès plusieurs exemples publics d’expressions obfusquées. Enfin, nous avons évalué la résilience de l’obfuscation MBA par rapport à nos algorithmes de simplification (ainsi que d’autres techniques de désobfuscation), et nous avons conclu que la technique d’obfuscation MBA offrait peu de résilience en l’état. |
Résumé : Les schémas de Chiffrement Complètement Homomorphe (FHE) permettent de manipuler des données chiffrées avec grande flexibilité : ils rendent possible l’évaluation de fonctions à travers les couches de chiffrement. Depuis la découverte du premier schéma FHE en 2009 par Craig Gentry, maintes recherches ont été effectuées pour améliorer l’efficacité, atteindre des nouveaux niveaux de sécurité, et trouver des applications et liens avec d’autres domaines de la cryptographie. Dans cette thèse, nous avons étudié en détail ce type de schémas. Nos contributions font état d’une nouvelle attaque de récupération des clés au premier schéma FHE, et d’une nouvelle notion de sécurité en structures hiérarchiques, évitant une forme de trahison entre les usagers tout en gardant la flexibilité FHE. Enfin, on décrit aussi des implémentations informatiques. Cette recherche a été effectuée au sein du Laboratoire de Mathématiques de Versailles avec le Prof. Louis Goubin. |
Résumé : Les algorithmes cryptographiques actuels se répartissent en deux grandes familles : les algorithmes symétriques et les algorithmes asymétriques. En 1991, S. Even et Y. Mansour ont proposé une construction simple d’un algorithme de chiffrement par blocs en utilisant une permutation aléatoire. Récemment, surtout pour répondre aux nouveaux enjeux de la cryptographie à bas coût, plusieurs algorithmes ont été proposés dont la construction est basée sur le schéma Even-Mansour. Les travaux réalisés dans cette thèse ont pour objet l’analyse de ce type d’algorithmes. À cette fin, nous proposons une nouvelle attaque générique sur le schéma Even-Mansour. Ensuite, afin de montrer l’importance particulière du modèle multi-utilisateurs, nous appliquons cette attaque générique dans ce modèle. Ces deux attaques sur Even-Mansour introduisent deux nouvelles idées algorithmiques : les chaînes parallèles et la construction d’un graphe qui illustre les liens entre les clés des utilisateurs du modèle multi-utilisateurs. Finalement, basés sur ces idées, nous proposons des attaques sur les algorithmes de chiffrement par blocs DESX et PRINCE et sur le code d’authentification de message Chaskey. |
Résumé : Cette thèse s’inscrit dans le domaine des probabilités et des statistiques, et plus précisément des matrices aléatoires. Dans la première partie, on étudie les grandes déviations de la mesure spectrale de matrices de covariance ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() |
Résumé : Au cours des processus de conception, l’optimisation de formes apporte aux industriels des solutions pour l’amélioration des performances des produits. En particulier, les structures minces qui constituent environ 70% d’un véhicule, sont une préoccupation dans l’industrie automobile. La plupart des méthodes d’optimisation pour ces structures surfaciques présentent certaines limites et nécessitent des expertises à chaque niveau de la procédure d’optimisation. L’objectif de cette thèse est de proposer une nouvelle stratégie d’optimisation de formes pour les coques minces. L’approche présentée consiste à exploiter les équations de coques du modèle de Koiter en se basant sur une analyse isogéométrique. Cette méthode permet de réaliser des simulations sur la géométrie exacte en définissant la forme à l’aide de patchs CAO. Les variables d’optimisation choisies sont alors les points de contrôle permettant de piloter leur forme. La définition des patchs permet également de dégager un gradient de forme pour l’optimisation à l’aide d’une méthode adjointe. Cette méthode a été appliquée pour des critères mécaniques issus des bureaux d’études Renault. Des résultats d’optimisation pour un critère de compliance sont présentés. La définition et l’implémentation de critères vibro-acoustiques sont discutés à la fin de cette thèse. Les résultats obtenus témoignent de l’intérêt de la méthode. Toutefois, de nombreux développements seront nécessaires avant d’être en mesure de l’appliquer dans l’industrie. |
Résumé : Les algorithmes de chiffrement par blocs paramétrables constituent une généralisation des algorithmes de chiffrement par blocs classiques qui, en plus d’une clé et d’un message à chiffrer ou déchiffrer, admettent un paramètre additionnel, nommé tweak en anglais. Le rôle de ce paramètre additionnel est d’apporter une variabilité à l’algorithme de chiffrement, sans qu’il soit nécessaire de changer la clé ou de garder le tweak secret. Ce dernier doit également pouvoir être contrôlé par l’adversaire sans dégradation de la sécurité. Dans cette thèse nous nous intéressons à une classe particulière d’algorithmes de chiffrement par blocs, les algorithmes de chiffrement par blocs à clé alternée. Plus précisément, nous étudions la sécurité du schéma d’Even-Mansour, qui constitue une abstraction de la structure de ces algorithmes dans le modèle de la permutation aléatoire, et cherchons à rendre ce schéma paramétrable tout en conservant de fortes garanties de sécurité. À cette fin, nous introduisons une nouvelle construction générique, baptisée TEM, qui remplace les clés de tours de la construction d’Even-Mansour par une valeur qui dépend de la clé et du tweak, et en étudions la sécurité dans deux cas : lorsque le mixage de la clé et du tweak est linéaire ou lorsqu’il est très non-linéaire. Nos preuves de sécurité utilisent la technique des coefficients H, introduite par Jacques Patarin dans sa thèse de doctorat, qui permet de transformer des problèmes cryptographiques en problèmes combinatoires sur des groupes finis. |
Résumé : Le sujet de cette thèse est l’analyse de sécurité des implantations cryptographiques embarquées. La sécurité a toujours été un besoin primaire pour les communications stratégiques et diplomatiques dans l’histoire. Le rôle de la cryptologie a donc été de fournir les réponses aux problèmes de sécurité, et le recours à la cryptanalyse a souvent permis de récupérer le contenu des communications des adversaires. L’arrivée des ordinateurs a causé un profond changement des paradigmes de communication et aujourd’hui le besoin de sécuriser les communications ne s’étend qu’aux échanges commerciaux et économiques. La cryptologie moderne offre donc les solutions pour atteindre ces nouveaux objectifs de sécurité, mais ouvre la voie à des nouvelles attaques : c’est par exemple le cas des attaques par fautes et par canaux auxiliaires, qui représentent aujourd’hui les dangers plus importants pour les implantations embarquées. |
Résumé : La méthode des éléments finis inversés est une méthode sans troncature qui a été introduite pour résoudre des équations aux dérivées partielles en domaines non bornés. L’objective de cette thèse est d’analyser, d’adapter puis d’implémenter cette méthode pour résoudre quelques problèmes issus de la physique, notamment lorsque le domaine géométrique est l’espace R3 tout entier. Dans un premier temps, nous présentons de manière détaillée les aspects et les principes fondamentaux de la méthode. Ensuite, nous adapterons la méthode à des problèmes de type div-rot et de potentiels vecteurs posés dans R3. Après avoir analysé la convergence de la méthode, on montrera quelques résultats numériques obtenus avec un code tridimensionnel. On s’intéresse ensuite au problème de calcul de l’énergie magnétostatique dans des problèmes de micromagnétisme, où on développe avec succès une approche numérique utilisant les éléments finis inversés. Dans la dernière partie, on adapte la méthode à un problème provenant de la chimie quantique (modèle de continuum polarisable) pour lequel on prouve qu’elle donne des résultats numériques très prometteurs. La thèse comporte beaucoup de résultats numériques issus de codes tridimensionnels écrits ou co-écrits, notamment lorsque le domaine est l’espace tout entier. Elle comporte aussi des résultats théoriques liés à l’utilisation des espaces de Sobolev à poids comme cadre fonctionnel. On apporte en particulier une preuve constructive de quelques inégalités de type div-rot dans des domaines non bornés. |
Résumé : Nous avons étudié des méthodes de volumes finis pour la simulation numérique d’un flux impliquant deux phases incompressibles ou deux phases générales compressibles en déséquilibre mécanique. Les principales difficultés du régime où il y a une apparition de phase ou une disparition de phase est la singularité de la vitesse. Nous montrons que l’utilisation du l’entropie correction améliorer beaucoup ces problèmes. Enfin, nous simulons certains tests numériques importants pour vérifier les méthodes numériques, telles que la séparation de phase par gravité ou un canal bouillant. |
Résumé : Cette thèse traite deux problèmes concernant la théorie des représentations l-modulaires d’un groupe p-adique. Soit F un corps local non arichimédien de caractéristique résiduelle p différente de l. Dans la première partie, on étudie la décomposition en blocs de la catégorie des représentations lisses l-modulaires de GL(m,D) et de ses formes intérieures. On veut ramener la description d’un bloc de niveau positif à celle d’un bloc de niveau 0 (d’un autre groupe du même type) en cherchant des équivalences de catégories. En utilisant la théorie des types de Bushnell-Kutzko dans le cas modulaire et un théorème de la théorie des catégories, on se ramène à trouver un isomorphisme entre deux algèbres d’entrelacement. La preuve de l’existence d’un tel isomorphisme n’est pas complète car elle repose sur une conjecture qu’on énonce et qui est prouvée pour plusieurs cas. Dans une deuxième partie on généralise la construction du groupe métaplectique et de la représentation de Weil dans le cas des représentations sur un anneau intègre. On construit une extension centrale du groupe symplectique sur F par le groupe multiplicatif d’un anneau intègre et on prouve qu’il satisfait les mêmes propriétés que dans le cas des représentations complexes. |
Résumé : Les maladies cardiovasculaires représentent actuellement une des premières causes de mortalité dans les pays développés liées à l’augmentation constante des facteurs de risques dans les populations. Différentes études cliniques ont montré que la rigidité artérielle était un facteur prédictif important pour ces maladies.
Malheureusement, il s’avère difficile d’accéder expérimentalement à la valeur de ce paramètre.
On propose une approche qui permet de déterminer numériquement la rigidité artérielle d’un réseau d’artères à partir d’un modèle monodimensionnel personnalisé de la variation temporelle de la section et du débit sanguin des artères. L’approche proposée résout le problème inverse associé au modèle réduit pour déterminer la rigidité de chaque artère, à l’aide de mesures non invasives de type IRM, echotracking ettonométrie d’aplanation. Pour déterminer la robustesse du modèle construit vis à vis de ses paramètres, une quantification d’incertitude a été effectuée pour mesurer la contribution de ceux-ci, soit seuls soit par interaction, à la variation de la sortie du modèle, ici la pression pulsée. Cette étude a montré que la pression pulsée numérique est un indicateur numérique robuste pouvant aider au diagnostic de l’hypertension artérielle. Nous pouvons ainsi offrir au praticien un outil numérique robuste et peu coûteux permettant un diagnostic précoce et fiable des risques cardiovasculaires pour tout patient simplement à partir d’un examen non invasif. |
Résumé : Dans cette thèse, on s’intéresse à un problème inverse classique en ingénierie pétrolière, à savoir le calage d’historique. Plus précisément, une nouvelle méthode de paramétrisation géostatistique ainsi qu’un nouvel algorithme d’optimisation sans dérivées adaptés aux particularités du problème sont présentés ici. La nouvelle méthode de paramétrisation repose sur les principes des méthodes de déformation graduelle et de déformation de domaines. Comme la déformation graduelle locale, elle consiste à combiner à l’intérieur de zones préalablement définies deux réalisations ou plus de modèle avec la possibilité supplémentaire de modifier dynamiquement la forme des zones choisies. La flexibilité apportée par cette méthode dans le choix des zones a ainsi permis de garantir l’obtention d’un bon point initial pour l’optimisation. Concernant l’optimisation, l’hypothèse que les paramètres locaux dans le modèle de réservoir n’influent que faiblement sur les données de puits distants conduit à considérer que la fonction à optimiser est à variables partiellement séparables. La nouvelle méthode d’optimisation développée, nommée DFO-PSOF, de type région de confiance avec modèle quadratique d’interpolation, exploite alors au maximum cette propriété de séparabilité partielle. Les résultats numériques obtenus sur plusieurs cas de réservoir valident à la fois l’hypothèse effectuée ainsi que la qualité de l’algorithme pour le problème de calage d’historique. En complément de cette validation numérique, un résultat théorique de convergence vers un point critique est prouvé pour la méthode d’optimisation construite. |
Résumé : Dans cette thèse on étudie certains phénomènes d’interactions entre caractéristique positive et caractéristique nulle.
Dans un premier temps on s’occupe du problème de relèvement local d’actions de groupes. On y montre des conditions nécessaires
pour l’existence de relèvement de certaines actions du groupe Z/pZ x Z/pZ. Pour une action d’un groupe fini quelconque, on y étudie les
arbres de Hurwitz, en montrant que chaque arbre de Hurwitz admet un plongement dans le disque unitaire fermé de Berkovich et que
ses données de Hurwitz peuvent être décrites de façon analytique.
Dans une deuxième partie nous construisons un analogue de la représentation de Weil à coefficients dans un anneau intègre, et nous montrons que cela satisfait les mêmes propriétés que dans le cas de coefficients complexes. |
Résumé : Le calcul de l’infimum global ![]() ![]() Dans cette thèse, on se concentre sur le problème d’optimisation d’un polynôme à Notre stratégie est de ramener le problème d’optimisation sous des contraintes qui définissent des ensembles algébriques de dimension quelconque à un problème équivalent, sous des nouvelles contraintes dont on maîtrise la dimension. La variété algébrique définie par ces nouvelles contraintes est l’union du lieu critique du polynôme objectif et d’un ensemble algébrique de dimension au plus Grâce au bon contrôle de la dimension, on prouve l’existence de certificats pour des bornes inférieures sur De même, on utilise les propriétés de nos objets géométriques pour concevoir un algorithme exact pour le calcul de |
Résumé : Cette thèse étudie deux objets aléatoires discrets : les arbres booléens aléatoires et les urnes de Pólya. Ces deux objets, tous deux en lien avec l’informatique fondamentale, sont étudiés dans ce mémoire via des méthodes de combinatoire analytique et de probabilités.
Les arbres booléens sont des arbres étiquetés de façon à représenter des expressions booléennes. Chaque arbre booléen représente donc une fonction booléenne. Dans la première partie de cette thèse, nous définirons et comparerons plusieurs distributions de probabilité sur l’ensemble des fonctions booléennes via leur représentation par des arbres booléens. Nous verrons que toutes ces distributions chargent préférentiellement les fonctions booléennes de faible complexité, et que certaines d’entre elles sont dégénérées au sens où elles ne chargent qu’un petit nombre de fonctions booléennes. L’étude de ces modèles se fait principalement via des outils de combinatoire analytique, mais nous utilisons aussi des méthodes probabilistes, comme le plongement en temps continu, ou poissonisation, pour certaines de ces distributions. Une urne de Pólya est un processus discret aléatoire qui modélise, en particulier, de nombreux objets issus de l’informatique comme les arbres m-aires de recherche, les arbres 2-3, les AVL, entre autres. Nous étudions dans la seconde partie de ce mémoire des urnes de Pólya équilibrées, irréductibles et à coefficients positifs. Le comportement asymptotique d’une urne, ainsi que celui de son plongement en temps continu, font intervenir des variables aléatoires W assez méconnues à ce jour. Nous étudions ces variables aléatoires W via la structure arborescente de l’urne et montrons qu’elles sont solution de systèmes d’équations en loi, ce qui nous permet notamment d’établir que ces variables aléatoires sont déterminées par leurs moments, et surtout d’aborder cette étude aussi bien pour des urnes à deux couleurs que pour des urnes à d couleurs. |
Résumé : Cette thèse porte sur l’étude mathématique de modèles théoriques des condensats de Bose-Einstein. On considère la fonctionnelle d’énergie de Gross-Pitaevskii pour différents types de piégeages et d’interactions. On étudie des modèles de condensats à deux dimensions définis sur tout l’espace, en rotation et à plusieurs composants, ainsi qu’un modèle décrivant une particule chargée dans un milieu périodique bidimensionnel avec champ magnétique. Les outils mathématiques utilisés sont les équations aux dérivées partielles, l’analyse non linéaire, la théorie géométrique de la mesure, la théorie spectrale et l’analyse semi-classique. Les résultats principaux vont dans quatre directions. Le premier résultat établit la non existence de vortex dans la zone de faible densité d’un condensat en rotation sous-critique. Le deuxième résultat montre la brisure de symétrie et de la ségrégation d’un condensat à deux composants dans le régime de fort couplage et faible interaction. On résout aussi un problème de partition optimale spectrale associée à un opérateur de Schrödinger dans le plan. On introduit un nouveau modèle de minimisation du périmètre pour l’étude d’un condensat à deux composants dans le régime de fort couplage et forte interaction. Le troisième résultat concerne la -convergence de la fonctionnelle d’énergie d’un condensat à deux composants dans ce dernier régime. Le dernier résultat traite du spectre d’un opérateur de Schrödinger périodique magnétique dans un réseau de kagome. |
Résumé : Dans cette thèse, on étudie deux méthodes d’optimisation globale sans dérivées : la méthode des moments et les méthodes de surface de réponse. Concernant la méthode des moments, nous nous sommes intéressés à ses aspects numériques et à l’un de ses aspects théoriques : l’approximation à une constante près d’une fonction par des polynômes somme de carrés. Elle a aussi été implémentée dans les sous-routines d’une méthode sans dérivées et testée avec succès sur un problème de calibration de moteur. Concernant les surfaces de réponse, nous construisons un modèle basée sur la technique de Sparse Grid qui permet d’obtenir une approximation précise avec un nombre faible d’évaluations de la fonction. Cette surface est ensuite localement raffinée autour des points les plus prometteurs. La performance de cette méthode, nommée GOSgrid, a été testée sur différentes fonctions et sur un cas réel. Elle surpasse les performances d’autres méthodes existantes d’optimisation globale en termes de coût. |
Résumé : Cette thèse porte sur des estimations à noyau de la fonction de hasard (notée ![]() ![]() ![]() Dans le troisième chapitre, on rappelle tout d’abord les notions de grandes déviationset de déviations modérées, puis on établit des principes de déviations modérées ponctuelles et uniformes pour la suite ( ![]() ![]() ![]() Mots clés : fonction de hasard, estimateur à noyau, variables censurées, algorithme stochastique à pas double, convergence en loi, intervalle de confiance, grandes déviations, déviations modérées. |
Résumé : Les processus de Pólya sont des marches aléatoires à temps discret dans![]() |
Résumé : On se propose de donner des contributions originales à l’étude des représentations lisses du groupe linéaire général à coefficients dans une extension -nie F de ![]() Dans une première partie, l’on suppose Ensuite l’on suppose F non ramiffié sur |
Résumé : Sur une algèbre de Lie simple complexe, il existe, à multiplication par un scalaire près, une unique forme trilinéaire invariante. Nous allons utiliser cette forme pour établir des propriétés géométriques sur les nappes sous-régulières et sur les compactifications magnifiques.
Lorsque L est une algèbre de Lie de type G2, Kraft remarque que la clôture de l’orbite nilpotente sous-régulière est le lieu singulier (triple) d’une des nappes sous-régulières, et que l’autre est lisse le long de l’orbite nilpotente sous-régulière. La description géométrique des nappes permet d’expliquer ce résultat et de démontrer que la variété des éléments non réguliers est réduite. De Concini et Procesi ont défini la compactification magnifique minimale d’un espace symétrique G/H, où G est un groupe semi-simple adjoint et H le sous-groupe de G des points fixes par une involution. Nous allons démontrer que si le rang de l’espace symétrique est égal au rang de G, alors la compactification magnifique minimale est définie dans une grassmannienne convenable par des équations linéaires. De plus, lorsque G est de rang 2, nous pouvons déterminer explicitement les équations de celle-ci : la compactification est l’éclaté d’une variété projective G-stable le long de l’orbite fermée. |
Résumé : Cette thèse se compose de trois parties. Dans la première partie, en utilisant les théorèmes limites par moyennisation logarithmique pour des martingales continues en temps continu, on construit un estimateur du couple (![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() |
soutenance de thèse
![]() thèses consultables à la bibliothèque du LMV - 58.4 ko |
![]() Thèse Kowir Pambo Bello - 98.2 ko |
![]() Thèse Jean Jabbour-Hattab - 64.8 Mo |