WOW !! MUCH LOVE ! SO WORLD PEACE !
Fond bitcoin pour l'amélioration du site: 1memzGeKS7CB3ECNkzSn2qHwxU6NZoJ8o
  Dogecoin (tips/pourboires): DCLoo9Dd4qECqpMLurdgGnaoqbftj16Nvp


Home | Publier un mémoire | Une page au hasard

 > 

Contribution à  l'optimisation d'un comportement collectif pour un groupe de robots autonomes


par Amine BENDAHMANE
Université des Sciences et de la Technologie d'Oran Mohamed Boudiaf - Doctorat en informatique - Intelligence Artificielle 2023
  

précédent sommaire suivant

Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy

CHAPITRE 4

(a) État d'avancement de la mission d'exploration en utilisant la stratégie à long terme (surface explorée 64%)

(b) État d'avancement de la mission d'exploration en utilisant la stratégie à court terme (surface explorée 91%)

FIGURE 4.3 - Comparaison entre les deux stratégies d'exploration en utilisant la méthode xBOA

ou à cause d'objets déplacés. Le robot pourra prendre en compte les derniers changements de la carte à chaque fois qu'une destination est atteinte.

L'inconvénient de cette stratégie cependant est la nécessité de répéter le processus de sélection des points de destination plus fréquemment. Il est donc nécessaire que le temps d'exécution de ce processus soit court puisque le robot restera en état d'attente le temps de finir ses calculs.

Aussi nous remarquons que cette stratégie à réussi à explorer presque la totalité de la zone dans l'exemple montré par la figure 4.3 en visitant 3 points seulement. Elle a pu atteindre un taux d'exploration de 91% contrairement à la stratégie à long terme qui n'a réussi à explorer que 64% de la surface de la zone, soit un résultat inférieur de 27% comparé à la stratégie à court terme.

4.5 Expérience 3 : Recherche des meilleurs hyperpara-mètres

Les métaheuristiques sont sensibles aux choix des paramètres initiaux. Une pratique courante dans la littérature consiste à comparer les performances des méthodes en utilisant les paramètres originaux utilisés par les auteurs dans leurs premières publications [11]. Ceci peut être un bon choix si nous comparons ces méthodes en utilisant les fonctions

111

de benchmarking standards; toutefois, le problème d'exploration de zones inconnues est par nature un problème incrémental et partiellement observable, ce qui peut rendre les paramètres par défaut moins optimaux.

De ce fait, nous avons effectué une expérience préliminaire afin de rechercher les meilleurs paramètres de chaque méthode pour ce problème en particulier. Ceci nous permutera de comparer les résultats de ces métaheuristiques dans leurs performances optimales et éviter qu'elles soient piégées dans des optimums locaux à cause de mauvaises initialisations.

Il n'existe pas de formule mathématique précise pour trouver les meilleurs hyperpara-mètres d'une méthode, ceci doit se faire expérimentalement en essayant plusieurs valeurs et comparer leurs résultats. Bien que beaucoup de chercheurs utilisent la méthode manuelle, nous avons préféré utiliser la bibliothèque Hyperopt [18]. Cette bibliothèque permet d'op-timiser les paramètres d'entrée d'un algorithme en effectuant une recherche sélective sur une plage de valeurs. Elle offre plusieurs stratégies de recherche dont principalement la méthode de recherche aléatoire (Random Search [17]) et recherche par l'algorithme TPE (Tree-structured Parzen Estimator [18]) qui montrent des résultats meilleurs comparés aux méthodes classiques telles que la stratégie de recherche par grille (Grid Search) [17].

Le fonctionnement de base de la bibliothèque Hyperopt consiste à exécuter plusieurs fois l'algorithme qu'on veut optimiser en utilisant des valeurs aléatoires pour l'initialisation des hyperparamètres, puis d'adapter ces valeurs selon les résultats obtenus après plusieurs essais. En répétant cette opération un nombre suffisant de fois, la bibliothèque arrive à réduire la plage de paramétrage afin de choisir une combinaison qui donne de bons résultats.

En profitant de la puissance de calcul du cluster de calcul intensif de l'USTOMB, nous avons lancé l'optimisation des hyperparamètres de toutes les métaheuristiques incluses dans notre simulateur à raison de 30 essais par méthode en répétant chaque essai 3 fois, ce qui donne un total de 90 exécutions chacune. Le Tableau 4.1 liste les meilleurs paramètres trouvés durant cette expérience, nous nous baserons sur ces valeurs pour effectuer les prochaines expériences.

Certaines méthodes telles que ABC, GWO et CMAES ne requièrent pas de paramétrage manuel. Pour les autres méthodes, les paramètres suivants ont été sélectionnés:

-- GA : nous avons utilisé une stratégie de sélection par tournoi de taille 2 et une mutation polynomiale avec un index de distribution de 76.

-- PSO : nous avons utilisé une taille de voisinage de 4 avec un facteur d'accélération cognitif supérieur au facteur d'accélération social, ce qui attire chaque particule vers la meilleure position dans son voisinage au lieu de retourner à sa meilleure position trouvée précédemment.

-- Variantes de BOA: ces paramètres sont expliqués en détail dans la section 2.8. Les valeurs des meilleurs paramètres sont présentées dans le tableau 4.1.

112

précédent sommaire suivant






Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy








"Il ne faut pas de tout pour faire un monde. Il faut du bonheur et rien d'autre"   Paul Eluard