Recherche Opérationnelle, Optimisation
Master 1 I2L en apprentissage - 2019/2020
But
S'initier à la démarche de modélisation d'un problème pour le résoudre de manière informatique. Cet enseignement présente de nombreuses méthodes de résolution de problèmes et s'appuie sur des exemples pratiques.
hautEvaluation
L'évaluation comprend :
- Projets et TP notés, 40%, rendu intermédiaire le 23/10/2019, final le 18/12/2019
- 1 écrit intermédiaire, 10%, les 04/11/2019 de 30 minutes.
- 1 écrit terminal le 07/01/2020, 50%.
Projet: à rendre avant le 23 octobre 2019 23h59 (version intermédiare), et le 18 décembre 2019 23h59 (version finale).
L'énoncé du projet pdf et le dépot git du projet (code, instances, sujet).
Cette UE compte pour 4 crédits ECTS.
haut
Équipe d'enseignants
Sébastien Verel
Pour contacter un des intervenants : contacts.
Vous pouvez contacter l'équipe pour tout ce qui concerne cet enseignement et votre orientation.
Objectifs
Ils sont mis à jour régulièrement :
- Savoir définir un problème d'optimisation combinatoire
- Connaitre des exemples de problème d'optimisation (maxSAT, TSP, QAP, knapsack, etc.)
- Savoir modéliser un problème en un problème d'optimisation.
- Connaitre le principe d'une recherche locale à solution unique.
- Connaitre la recherche aléatoire
- Savoir comparer statistiquement deux algorithmes de recherche stochastiques.
- Savoir définir une marche aléatoire
- Connaitre les heuristiques "Hill-Climbing"
- Connaitre la notion d'optimum local
- Connaitre le dilemme exploration / exploitation
- Savoir définir les métaheuristiques classiques (recuit simulé, recherche taboue, iterated local search)
- Savoir définir les principes des algorithmes évolutionnaires
- Connaitre les différents types d'algorithmes évolutionnaires
- Savoir coder dans un langage les algorithmes d'optimisation précédents
- Savoir définir un problème d'optimisation numérique
- Connaitre l'algorithme de descente de gradient à pas fixe
- Connaitre les algorithmes de stratégie d'évolution : (1+1) et (mu/mu,lambda)
- Connaitre l'influence du step-size (sigma) dans ces algorithmes
- Connaitre le principe du réglage du step-size à l'aide de la rêgle du 1/5 success rule.
- Connaitre le principe du réglage du step-size à l'aide du path length control.
- Savoir coder dans un langage les algorithmes de stratégies d'évolution précédents
Supports de Cours et de TP
Voici l'ensemble des supports de cours et des émoncés des TP.
Séance | Titre | cours | TD | TP |
---|---|---|---|---|
01 | Introduction à l'optimisation | cours | td ks5 ks1000 | 02 | Modélisation: exemples discrets | cours | td chr12a bur26a | cor |
03 | Algorithmes de recherche locale | cours notes R | td codeR R-hc | cor |
04 | Metaheuristiques | cours | td pdf tp | |
04bis | Algorithmes évolutionnaires | cours | td | cor |
05 | Analyse des données et argumentation numérique | cours | tp data | cor |
06 | Modélisation: exemples de problèmes d'optimisation numérique | cours | ||
07 | Introduction à l'optimisation numérique | cours | tp | cor |
08 | Méthodes d'optimisation avancées à base du gradient | cours | url code | cor |
09 | Stratégies d'évolution | cours | tp | cor |
Bibliographie
Quelques repères bibliographiques :
- Métaheuristiques - Une introduction aux métaheuristiques pour l'optimisation, Bastien Shopard et Marco Tomassini, 2018.
- Métaheuristiques pour l'optimisation difficile, Johann Dréo, Alain Pétrowski, Patrick Siarry, Eric Taillard, 2003.
- Aide mémoire R, Aymeric Duclert, 2011.
dernière modification : 6 septembre 2016