Optimisation multiobjectif évolutive basée sur la prédiction des préférences pour la planification du mélange d'essence
Optimisation multiobjectif évolutive basée sur les préférences pour la planification du mélange d’essence
Introduction
Avec l’évolution constante du marché mondial de l’énergie, la production et le procédé de mélange d’essence font face à des défis croissants. En tant que produit clé de l’industrie pétrolière, le mélange et la planification de l’essence affectent directement la qualité du produit et l’efficacité de la production. Le mélange d’essence nécessite de combiner plusieurs composants dans des proportions spécifiques pour produire différentes qualités d’essence, en fonction des spécifications et des exigences de performance du produit. Ce processus doit respecter des indices de performance stricts, tels que l’indice d’octane (ON), la pression de vapeur Reid (RVP), la teneur en plomb, la teneur en soufre et le point d’éclair. Cela exige non seulement un contrôle rigoureux de la qualité, mais également la conformité aux réglementations environnementales de plus en plus strictes.
La planification et le mélange d’essence représentent essentiellement un problème d’optimisation multiobjectif. De tels problèmes comportent plusieurs objectifs contradictoires, par exemple, améliorer la qualité des produits, maximiser l’efficacité de production, réduire l’occupation des équipements et minimiser les coûts de production. En outre, ce problème implique des contraintes complexes et des éléments non linéaires. Les méthodes classiques de programmation mathématique, comme la méthode de relaxation, les méthodes branch-and-bound et les plans de coupe, peinent à gérer ces problèmes de manière exhaustive. Parallèlement, les méthodes de planification traditionnelles, qui reposent sur l’expérience des opérateurs, se révèlent inefficaces et peu fiables, soulignant le besoin urgent de solutions plus intelligentes et plus automatisées.
Dans ce contexte, les algorithmes évolutifs multiobjectif (MOEAs) sont devenus un outil potentiel en raison de leur capacité puissante à résoudre des problèmes complexes. Cependant, leur application dans la planification et le mélange d’essence reste confrontée à des défis majeurs, notamment la complexité computationnelle élevée et l’intégration efficace des préférences décisionnelles. Pour répondre à ces enjeux, une équipe de chercheurs a proposé un nouveau cadre appelé Optimisation multiobjectif évolutive basée sur la prédiction des préférences (Preference Prediction-Based Evolutionary Multiobjective Optimization, PP-EMO).
Origine de l’étude
Cet article, intitulé “Preference Prediction-Based Evolutionary Multiobjective Optimization for Gasoline Blending Scheduling”, a été rédigé par Wenxuan Fang, Wei Du, Guo Yu, Renchu He, Yang Tang et Yaochu Jin. Ces auteurs appartiennent à plusieurs universités et instituts de recherche en Chine, notamment l’Université des Sciences et Technologies de l’Est de la Chine, l’Université Technique de Nankin, l’Université du Pétrole en Chine et l’Université Westlake. L’article a été publié dans le numéro de janvier 2025 du IEEE Transactions on Artificial Intelligence (Volume 6, Issue 1).
Flux de travail de l’étude
L’équipe de recherche a réalisé une modélisation et optimisation exhaustives du problème de planification du mélange d’essence et a proposé un cadre algorithmique innovant. Voici un aperçu du flux de travail détaillé présenté dans l’article ainsi que des points forts de la recherche.
1. Modélisation du problème de planification du mélange d’essence
L’équipe a d’abord modélisé le problème pour créer un modèle basé sur le temps discret. Le modèle suppose que les tâches de mélange commencent et se terminent dans des intervalles de temps fixés, divisant les opérations réelles en plusieurs périodes temporelles. Les éléments clés du modèle mathématique incluent :
- Ensembles et variables de décision : Définition du nombre de réservoirs de composants et de produits, des limites de capacité respectives et des limites de débit, ainsi que des variables binaires pour représenter l’état opérationnel des réservoirs à des périodes spécifiques.
- Contraintes : Elles incluent des contraintes opérationnelles (par exemple, un réservoir de composants ne peut livrer qu’à un seul réservoir de produits à la fois), des contraintes de demande (garantir que tous les réservoirs de produits respectent les quantités nécessaires), des contraintes de capacité et des contraintes de débit.
- Objectifs d’optimisation :
- Minimiser les erreurs de mélange : Calculer les écarts quadratiques pour évaluer les déviations des propriétés de l’essence, garantissant ainsi la qualité du produit.
- Minimiser les coûts opérationnels : Inclure les coûts de mise en service, de mise à l’arrêt des pipelines et du temps de fonctionnement, avec des paramètres de pondération ajustés pour refléter la réalité industrielle.
La modélisation établit une base solide pour la conception de l’algorithme d’optimisation.
2. Proposition du cadre PP-EMO
Le cadre PP-EMO se compose principalement de deux opérations clés : la prédiction des préférences basée sur l’apprentissage machine et l’optimisation multiobjectif basée sur les préférences (Preference-Based Multiobjective Evolutionary Algorithm, PBMOEA).
Modèle de prédiction des préférences
L’équipe a employé un modèle basé sur un processus gaussien (Gaussian Process, GP) comme outil de prédiction des préférences. Le modèle GP excelle grâce à sa capacité non paramétrique, sa complexité computationnelle réduite et sa capacité à modéliser l’incertitude. En particulier, le modèle GP apprend les relations entre les variables environnementales et les points de référence à partir de données historiques, tout en fournissant une estimation quantifiée de l’incertitude pour guider le PBMOEA.
Les performances du modèle GP ont été évaluées par validation croisée. Les résultats démontrent que le modèle surpasse la régression linéaire et les machines à vecteurs de support (SVM) dans la prédiction des préférences.
Algorithme d’optimisation
Pour la partie PBMOEA, les chercheurs ont basé leur approche sur une déclinaison améliorée de l’algorithme R-NSGA-II (Reference-Based Nondominated Sorting Genetic Algorithm II). Le mécanisme d’orientation des préférences est conçu pour contrôler la direction de recherche via des points de référence tout en ajustant dynamiquement l’intensité des préférences à l’aide du paramètre ε. Ce dernier est lié à l’incertitude de prédiction du modèle GP, garantissant une recherche d’équilibre entre biais et diversité sur le front de Pareto.
3. Expériences de simulation et validation
L’équipe a collecté des données d’une raffinerie de taille moyenne pour valider les performances de PP-EMO. Les tâches ont été classées en trois niveaux de difficulté (simple, moyenne et élevée) selon les taux d’occupation des équipements, les besoins en produits et les écarts de propriétés. Voici les principaux résultats expérimentaux :
- Efficacité de l’optimisation : PP-EMO surpasse nettement les MOEAs traditionnels comme NSGA-II et les algorithmes hybrides tels que MOEA/D-DQN basé sur l’apprentissage profond, en particulier dans les tâches complexes.
- Robustesse des résultats : Par rapport aux autres algorithmes, PP-EMO démontre une stabilité accrue en termes de convergence et de faisabilité des solutions dans les environnements de production variés.
- Temps d’exécution : Le cadre PP-EMO n’entraîne qu’un faible surcoût par rapport à NSGA-II mais réduit considérablement les temps d’exécution des algorithmes complexes comme GMOEA et MOEA/D-DQN.
Ces résultats montrent que PP-EMO améliore non seulement les capacités d’optimisation pour la planification du mélange d’essence, mais réduit également significativement le temps de calcul, renforçant ainsi sa pertinence pour les applications industrielles.
Conclusions et implications
Conclusions
Le cadre PP-EMO apporte une solution efficace au défi d’optimisation multiobjectif dans le mélange d’essence. En prédisant les préférences des opérateurs via un modèle d’apprentissage machine, le cadre guide efficacement l’optimisation dans des environnements de contrainte élevée et d’objectifs contradictoires.
Les résultats expérimentaux montrent que PP-EMO, comparé aux algorithmes sans préférences, réduit les coûts opérationnels d’environ 25 % et diminue les erreurs de mélange de 50 %, réalisant ainsi des performances remarquables même dans des environnements exigeants.
Valeur académique et pratique
- Valeur académique : Le cadre PP-EMO propose une méthode innovante combinant faiblement les algorithmes évolutifs et les méthodes d’apprentissage machine, offrant une nouvelle perspective pour appliquer ces techniques à des problèmes industriels.
- Valeur pratique : Face à la diminution de la demande en essence et à la concurrence croissante dans le marché pétrolier, PP-EMO fournit une voie d’optimisation à faible coût et à haute efficacité pour l’industrie.
Points forts de la recherche
- Application novatrice du modèle GP pour prédire les préférences et optimisation intelligente basée sur des algorithmes évolutifs.
- Algorithme robuste montrant des performances excellentes dans différents scénarios de complexité.
- Réduction substantielle des coûts opérationnels, soutenant directement les décisions de planification pour les raffineries.
Améliorations potentielles et orientations futures
Bien que PP-EMO ait démontré un potentiel énorme, sa performance pour les problèmes de grande échelle pourrait encore être améliorée. De plus, la méthode actuelle repose uniquement sur des données historiques ; dans l’avenir, des données générées pendant le processus d’optimisation pourraient être intégrées pour améliorer la précision des prédictions de préférences. Les chercheurs envisagent également d’étendre ce cadre à d’autres problèmes d’optimisation similaires afin d’élargir son domaine d’application et son impact.