WOW !! MUCH LOVE ! SO WORLD PEACE !
Fond bitcoin pour l'amélioration du site: 1memzGeKS7CB3ECNkzSn2qHwxU6NZoJ8o
  Dogecoin (tips/pourboires): DCLoo9Dd4qECqpMLurdgGnaoqbftj16Nvp


Home | Publier un mémoire | Une page au hasard

 > 

Contribution à  l'optimisation d'un comportement collectif pour un groupe de robots autonomes


par Amine BENDAHMANE
Université des Sciences et de la Technologie d'Oran Mohamed Boudiaf - Doctorat en informatique - Intelligence Artificielle 2023
  

précédent sommaire suivant

Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy

CHAPITRE 2

FIGURE 2.7 - Difference entre les stratégies d'exploration et d'exploitation d'une métaheu-ristique [70]

2.4.3 La convergence

On dit qu'une métaheuristique converge, lorsque la majorité des individus constituant sa population aboutissent à la même solution (voir figure 2.8).

Cette convergence est le résultat d'une comparaison avec différentes solutions trouvées de l'espace de recherche, puis l'élimination des solutions de mauvaise qualité, de sorte à ne garder à la fin que la solution optimale.

Dans le cas idéal, la convergence vers la meilleure solution se fait après que l'algorithme ait exploré toutes les régions de l'espace de recherche afin de garantir de tomber sur la solution optimale. On appelle cette solution Optimum Global ou Minima Global. Toutefois, il se pourrait dans certains cas que l'algorithme converge vers une certaine région sans avoir exploré d'autres, et pourra donc rater la solution optimale en convergeant vers une solution de moindre qualité. On appelle cette solution Optimum Local ou Minima Local.

L'objectif d'une métaheuristique est donc de trouver un compromis entre les phases d'exploration et d'exploitation afin d'éviter de converger trop rapidement vers un optimum local, mais sans pour autant perdre trop de temps à explorer chaque région en détail. L'idée est d'éliminer les mauvaises régions rapidement afin de pouvoir se concentrer sur les régions les plus prometteuses.

D'un point de vue mathématique, une solution s* est appelée optimum global si et seulement si elle respecte l'équation 2.2.

f(s*) f(s)Vs E S. (2.2)

Sachant que S est l'espace de recherche et f : S ?- R+ 0 est la fonction objectif à minimiser.

59

FIGURE 2.8 - Exemple de convergence d'une population de solutions [21]

2.4.4 Les hyperparamètres

Ce sont les paramètres spéciaux que l'utilisateur doit définir manuellement pour réguler le comportement de l'algorithme. Ces hyperparamètres sont définis avant le début de l'exécution, souvent de manière expérimentale en essayant plusieurs combinaisons.

Parmi les hyperparamètres les plus utilisés dans les métaheuristiques, nous retrouvons:

-- La taille de la population : qui représente le nombre d'individus (ou nombre de solutions candidates).

-- La taille de l'individu : nombre de variables constituant une solution.

60

CHAPITRE 2

-- Nombre d'itérations : nombre maximal d'itérations avant l'arrêt de l'algorithme. -- Le taux de mutation : probabilité à laquelle une solution est modifiée.

-- ...etc.

2.4.5 Les contraintes

Des contraintes peuvent être ajoutées à la modélisation d'un problème d'optimisation. Ces contraintes divisent l'espace de recherche en deux catégories : d'une part l'ensemble des solutions valides satisfaisant toutes les contraintes du problème, d'autre part l'ensemble des solutions non valides où au moins une contrainte est violée.

Le moyen le plus simple pour intégrer une contrainte à la fonction objectif d'un problème est d'ajouter un facteur qui pénalise les solutions non conformes. Ceci prend généralement la forme d'une multiplication entre le nombre de contraintes violées et un paramètre de pénalité fixé manuellement par l'utilisateur.

2.4.6 Les générations

Les métaheuristiques se basent sur un principe de répétition d'un ensemble d'opéra-tions. Suivant l'analogie des algorithmes évolutionnaires, une itération dans le contexte des métaheuristiques à base de population est souvent appelée génération ou évolution.

Le principe est qu'à chaque génération, la population subit plusieurs transformations de sorte qu'elle devienne meilleure que ce qu'elle n'était durant la génération précédente.

Le meilleur individu de la dernière génération constitue donc la meilleure solution trouvée au cours du processus d'optimisation. Il est parfois appelé le champion.

2.4.7 Les critères d'arrêt

Les métaheuristiques étant un processus itératif, des critères d'arrêts doivent être mis en place afin d'éviter le prolongement de l'exécution de l'algorithme indéfiniment.

Les critères d'arrêts les plus populaires utilisés dans le domaine de l'optimisation combinatoire sont les suivants:

-- Atteindre un nombre maximal d'itérations.

-- Atteindre un nombre maximal de solutions évaluées en utilisant la fonction objectif.

-- Atteindre un nombre maximal d'itérations où aucun changement n'a été mesuré sur les valeurs de la fonction objectif (early stopping).

-- Atteindre une certaine valeur de la fonction fitness.

61

2.4.8 L'optimalité et la dominance

FIGURE 2.9 - Visualisation d'un front optimal (Pareto Front) séparant les solutions dominées des solutions non dominées [65]

Les métaheuristiques peuvent résoudre des problèmes d'optimisation ayant plusieurs objectifs contradictoires.

Une stratégie est de réduire ces objectifs à un seul facteur d'optimisation en utilisant une somme pondérée. Une autre stratégie consiste à garder ces objectifs contradictoires et explorer plusieurs espaces de recherches en parallèle, selon le nombre d'objectifs à optimiser.

Lorsque l'algorithme optimise un problème mono-objectif, la meilleure solution est celle qui obtient la meilleure valeur de fitness.

Dans le cas d'une optimisation multi-objectifs nous pouvons avoir deux cas de figure: soit une solution obtient la valeur optimale dans tous les espaces de recherches, nous disons donc que cette solution domine les autres solutions. Soit, nous nous retrouvons avec plusieurs solutions, chacun domine l'autre dans un objectif en particulier, mais pas dans l'autre. Ces solutions sont donc toutes les deux optimales et on les appelle solutions non dominées. L'ensemble des solutions non dominées est appelé Pareto-front. La figure 2.9 illustre ceci d'une manière graphique.

62

précédent sommaire suivant






Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy








"L'imagination est plus importante que le savoir"   Albert Einstein