CHAPITRE 4
(a) État d'avancement de la mission d'exploration en
utilisant la stratégie à long terme (surface explorée
64%)
(b) État d'avancement de la mission d'exploration en
utilisant la stratégie à court terme (surface explorée
91%)
FIGURE 4.3 - Comparaison entre les deux stratégies
d'exploration en utilisant la méthode xBOA
ou à cause d'objets déplacés. Le robot
pourra prendre en compte les derniers changements de la carte à chaque
fois qu'une destination est atteinte.
L'inconvénient de cette stratégie cependant est
la nécessité de répéter le processus de
sélection des points de destination plus fréquemment. Il est donc
nécessaire que le temps d'exécution de ce processus soit court
puisque le robot restera en état d'attente le temps de finir ses
calculs.
Aussi nous remarquons que cette stratégie à
réussi à explorer presque la totalité de la zone dans
l'exemple montré par la figure 4.3 en visitant 3 points seulement. Elle
a pu atteindre un taux d'exploration de 91% contrairement à la
stratégie à long terme qui n'a réussi à explorer
que 64% de la surface de la zone, soit un résultat inférieur de
27% comparé à la stratégie à court terme.
4.5 Expérience 3 : Recherche des meilleurs
hyperpara-mètres
Les métaheuristiques sont sensibles aux choix des
paramètres initiaux. Une pratique courante dans la littérature
consiste à comparer les performances des méthodes en utilisant
les paramètres originaux utilisés par les auteurs dans leurs
premières publications [11]. Ceci peut être un bon choix si nous
comparons ces méthodes en utilisant les fonctions
111
de benchmarking standards; toutefois, le problème
d'exploration de zones inconnues est par nature un problème
incrémental et partiellement observable, ce qui peut rendre les
paramètres par défaut moins optimaux.
De ce fait, nous avons effectué une expérience
préliminaire afin de rechercher les meilleurs paramètres de
chaque méthode pour ce problème en particulier. Ceci nous
permutera de comparer les résultats de ces métaheuristiques dans
leurs performances optimales et éviter qu'elles soient
piégées dans des optimums locaux à cause de mauvaises
initialisations.
Il n'existe pas de formule mathématique précise
pour trouver les meilleurs hyperpara-mètres d'une méthode, ceci
doit se faire expérimentalement en essayant plusieurs valeurs et
comparer leurs résultats. Bien que beaucoup de chercheurs utilisent la
méthode manuelle, nous avons préféré utiliser la
bibliothèque Hyperopt [18]. Cette bibliothèque permet
d'op-timiser les paramètres d'entrée d'un algorithme en
effectuant une recherche sélective sur une plage de valeurs. Elle offre
plusieurs stratégies de recherche dont principalement la méthode
de recherche aléatoire (Random Search [17]) et recherche par
l'algorithme TPE (Tree-structured Parzen Estimator [18]) qui montrent
des résultats meilleurs comparés aux méthodes classiques
telles que la stratégie de recherche par grille (Grid Search)
[17].
Le fonctionnement de base de la bibliothèque
Hyperopt consiste à exécuter plusieurs fois l'algorithme
qu'on veut optimiser en utilisant des valeurs aléatoires pour
l'initialisation des hyperparamètres, puis d'adapter ces valeurs selon
les résultats obtenus après plusieurs essais. En
répétant cette opération un nombre suffisant de fois, la
bibliothèque arrive à réduire la plage de
paramétrage afin de choisir une combinaison qui donne de bons
résultats.
En profitant de la puissance de calcul du cluster de calcul
intensif de l'USTOMB, nous avons lancé l'optimisation des
hyperparamètres de toutes les métaheuristiques incluses dans
notre simulateur à raison de 30 essais par méthode en
répétant chaque essai 3 fois, ce qui donne un total de 90
exécutions chacune. Le Tableau 4.1 liste les meilleurs paramètres
trouvés durant cette expérience, nous nous baserons sur ces
valeurs pour effectuer les prochaines expériences.
Certaines méthodes telles que ABC, GWO et CMAES ne
requièrent pas de paramétrage manuel. Pour les autres
méthodes, les paramètres suivants ont été
sélectionnés:
-- GA : nous avons utilisé une stratégie de
sélection par tournoi de taille 2 et une mutation polynomiale
avec un index de distribution de 76.
-- PSO : nous avons utilisé une taille de voisinage de
4 avec un facteur d'accélération cognitif supérieur au
facteur d'accélération social, ce qui attire chaque particule
vers la meilleure position dans son voisinage au lieu de retourner à sa
meilleure position trouvée précédemment.
-- Variantes de BOA: ces paramètres sont
expliqués en détail dans la section 2.8. Les valeurs des
meilleurs paramètres sont présentées dans le tableau
4.1.
112
|