Métamodèle par POD-RBF pour l'optimisation des procédées de mise en forme (original) (raw)

Optimisation multi-objectifs à base de métamodèle pour les procédés de mise en forme

2011

Dans le domaine de mise en forme, la reduction des couts et l'amelioration des produits sont des defis permanents a relever. Pour ce faire, le procede de mise en forme doit etre optimise. Optimiser le procede revient alors a resoudre un probleme d'optimisation. Generalement ce probleme est un probleme d'optimisation multi-objectifs tres couteux en terme de temps de calcul, ou on cherche a minimiser plusieurs fonctions cout en presence d'un certain nombre de contraintes. Pour resoudre ce type de probleme, on a developpe un algorithme robuste, efficace et fiable. Cet algorithme, consiste a coupler un algorithme evolutionnaire avec un metamodele, c'est-a-dire des approximations des resultats des simulations couteuses. Dans ce memoire, on a commence par la presentation du probleme d'optimisation multiobjectifs, des algorithmes d'optimisation (algorithmes evolutionnaires) et des metamodeles les plus utilises (Chapitre I), ou on a choisi l'algorithme geneti...

Optimisation multi-objectifs à base de métamodèle pour des applications en mise en forme des métaux

Mécanique & Industries, 2010

Pour appliquer des méthodes d'optimisation multi-objectifs à des problèmes de mise en forme des matériaux très coûteux en temps de calcul, nous étudions le couplage de l'algorithme NSGA-II proposé par K. Deb avec des méta-modèles inspirés de la méthode des Différences Finies sans Maillages de Liszka et Orkisz. Nous observons l'importance d'améliorer itérativement le méta-modèle au cours des itérations d'optimisation, et la possibilité de déterminer avec précision les fronts de Pareto du problème en moins d'une centaine de calculs.

Optimisation aérodynamique assistée par métamodèles POD multi-fidélité non-intrusifs

HAL (Le Centre pour la Communication Scientifique Directe), 2017

-Cet article présente une méthodologie d'optimisation basée sur des métamodèles d'ordre réduit fusionnant des champs solutions de calculs CFD à différents niveaux de précision. L'approche de modélisation est basée sur la POD contrainte (C-POD) permettant l'interpolation de données hautefidélité précise mais très coûteuse et l'approximation de données basse-fidélité plus abondantes, mais plus grossières. Le couplage de cette méthode de substitution à une plateforme d'optimisation par algorithme génétique est présenté sur une application industrielle d'optimisation de compresseur basse-pression. Mots clés-optimisation multi-fidélité, modèle de substitution, décomposition aux valeurs propres.

Optimisation adaptative basée sur les métamodèles

2019

Ce document est une synthese de mon activite de recherche autour de l’optimisation et des metamodeles lors de ces 10 dernieres annees. Cette activite de recherche est tres liee a mon investissement dans le domaine de l’optimisation multidisciplinaire appliquee a la conception avion avant-projet et en particulier aux nouvelles configurations. La thematique de recherche associee concerne le developpement de methodes numeriques pour l’optimisation efficace de fonctions de type ”boites noires”. Les methodes proposees, fondees essentiellement sur le developpement de metamodeles, tentent de repondre aux problematiques liees au temps de calcul, au grand nombre de variables de conception et/ou de contraintes, mais egalement a la prise en compte des incertitudes de modeles dans le processus de conception. Differents types de metamodeles sont detailles dans ce manuscrit, notamment les melanges d’experts et les processus gaussiens avec une adaptation pour la grande dimension au travers des art...

Spécification d’un Métamodèle pour l’adaptation des outils UML

Spécification d'un Métamodèle pour l'adaptation des outils UML Résumé : Dans cette thèse, nous présentons une approche basée sur les modèles pour la conception des éditeurs graphiques de diagrammes. Ceci permet la spécification rapide de ces éditeurs à un niveau d'abstraction élevé, afin de modéliser et de réutiliser, les langages visuels qui y sont manipulés. Dans un premier temps, nous voulons pouvoir spécifier, à l'aide de modèles, des éditeurs de diagrammes avec une fidélité et une expressivité graphique exemplaire sans besoin d'intervenir manuellement dans cette tâche. En effet, de nombreux environnements de modélisation ont encore besoin d'une quantité considérable de programmation manuelle pour construire leurs éditeurs graphiques de diagrammes. Cette faiblesse devient problématique pour les développeurs, qui doivent fournir une quantité importante de temps et d'autres ressources pour terminer des tâches considérées comme secondaires par rapport à l'objectif principal : le développement et l'intégration du langage de modélisation et la génération de code. Le second axe est consacré au besoin de réutiliser, d'étendre et de spécialiser cette spécification (sous forme de modèles) dans d'autres contextes utilisations. En effet, la conception de l'outil UML Papyrus fait apparaître un besoin important en termes de réutilisabilité dans la définition des diagrammes. La redondance au niveau de la spécification (actuellement sous forme de modèle), pose une problématique d'incohérence lors de l'évolution ou la modification de cette spécification. L'objectif est de pouvoir décrire une bibliothèque de syntaxe concrète indépendante de la sémantique, de réutiliser si nécessaire cette description dans différents diagrammes et de pouvoir factoriser les points communs de la syntaxe concrète dans des définitions communes et les variantes dans des définitions spécifiques basées, elles aussi, sur les définitions communes. Ceci nous permettra de définir chaque diagramme indépendamment de l'autre avec la possibilité de réutiliser et de redéfinir les éléments communs. L'ensemble de ces travaux a été implémenté dans un Framework appelé MID (Metamodels for user Interfaces and Diagrams), qui nous a permis d'effectuer une validation sur le langage UML et d'autres langages visuels.

Contrˆ ole optimal et sous-optimal d' ´ ecoulement d´ ecoll´ e par reduction de mod` eles POD

Cette communication présente une synthèse des travaux réalisés par notre groupe sur le contrôle de l'écoulement de sillage laminaire en aval d'un cylindre circulaire. L'objectif est de démontrer, qu'il est possible, moyennant certaines précautions qui seront décrites, de résoudre un problème de contrôle d'écoulement par une procédure couplant contrôle optimal ou sous-optimal et un modèle réduit de dynamique construit par POD. Cette approche conduità une réduction relative du coefficient de traînée moyen de l'ordre de 25à 30% pour des coûts de calcul limités.

Optimisation des procédés de mise en forme par approche couplée plans d'expériences, éléments finis et surface de réponse

2006

Dans ce travail nous proposons des strategies d'optimisation par plans d'experiences numeriques pour palier les difficultes rencontrees dans le processus d'optimisation de procedes de mise en forme. Parmi ces difficultes on peut rappeler : le retour elastique durant le pliage, l'usure de la matrice pendant l'extrusion ou la fatigue des outils, la recherche d'une solution globale ou l'echange des donnees entre l'outil de simulation et l'outil d'optimisation. Compte tenu de la forte non linearite des phenomenes etudies, nous avons developpe une approche basee sur l'utilisation conjointe de la methode des plans d'experiences, de la methodologie de surface de reponse et la methode des elements finis, pour optimiser les performances du produit ou du procede de fabrication. Le caractere numerique des experiences justifie la creation et la mise au point d'un outil d'optimisation, afin d'automatiser et de faciliter l'applicatio...

Reformulation de problèmes de satisfaction de contraintes basée sur des métamodèles

2009

Abstract Un des challenges,importants en programmation par contraintes est la reformulation de modèles dé- claratifs en,programmes,exécutables permettant,de calculer leurs solutions. Cette phase,peut,nécessi- ter de,faire des,traductions entre les langages,de la programmation par contraintes, de changer la re- présentation des,contraintes ou d’optimiser les mo- dèles et de paramétrer les stratégies de recherche. Dans cet article, nous présentons un métamodèle pi- vot qui

Modélisation incrémentale par méthode bayésienne

2016

Les modèles incrémentaux sont des modèles statistiques qui ont été développés initialement dans le domaine du marketing. Ils sont composés de deux groupes, un groupe contrôle et un groupe traitement, tous deux comparés par rapport à une variable réponse binaire (le choix de réponses est « oui » ou « non »). Ces modèles ont pour but de détecter l'e et du traitement sur les individus à l'étude. Ces individus n'étant pas tous des clients, nous les appellerons : « prospects ». Cet e et peut être négatif, nul ou positif selon les caractéristiques des individus composants les di érents groupes. Ce mémoire a pour objectif de comparer des modèles incrémentaux d'un point de vue bayésien et d'un point de vue fréquentiste. Les modèles incrémentaux utilisés en pratique sont ceux de Lo (2002) et de Lai (2004). Ils sont initialement réalisés d'un point de vue fréquentiste. Ainsi, dans ce mémoire, l'approche bayésienne est utilisée et comparée à l'approche fréquentiste. Les simulations sont e ectuées sur des données générées avec des régressions logistiques. Puis, les paramètres de ces régressions sont estimés avec des simulations Monte-Carlo dans l'approche bayésienne et comparés à ceux obtenus dans l'approche fréquentiste. L'estimation des paramètres a une influence directe sur la capacité du modèle à bien prédire l'e et du traitement sur les individus. Nous considérons l'utilisation de trois lois a priori pour l'estimation des paramètres de façon bayésienne. Elles sont choisies de manière à ce que les lois a priori soient non informatives. Les trois lois utilisées sont les suivantes : la loi bêta transformée, la loi Cauchy et la loi normale. Au cours de l'étude, nous remarquerons que les méthodes bayésiennes ont un réel impact positif sur le ciblage des individus composant les échantillons de petite taille. Mots clefs : Modélisation incrémentale, simulation Monte-Carlo, régression logistique bayésienne, densité a priori, ciblage, marketing direct.