Recherche Opérationnelle, Optimisation
Master 1 informatique ISiDIS - 2019/2020
But
S'initier à la démarche de modélisation d'un problème pour le résoudre de manière informatique. Cet enseignement présente de nombreuses méthodes de résolution de problèmes et s'appuie sur des exemples pratiques.
hautEvaluation
L'évaluation comprend :
- Projets et TP notés, 40%, rendu intermédiaire le 7/11/2019, final le 18/12/2019
- 1 écrit intermédiaire, 10%, les 13/11/2019 de 45 minutes.
- 1 écrit terminal le 14/01/2020, 50%.
Projet: à rendre avant le 07/11/2019 23h59 (version intermédiare), et le 18/12/2019 23h59 (version finale).
L'énoncé du projet pdf et le dépot git du projet (code, instances, sujet).
Cette UE compte pour 4 crédits ECTS.
haut
Équipe d'enseignants
Sébastien Verel
Pour contacter un des intervenants : contacts.
Vous pouvez contacter l'équipe pour tout ce qui concerne cet enseignement et votre orientation.
Objectifs
Ils sont mis à jour régulièrement :
- Savoir définir un problème d'optimisation combinatoire
- Connaitre des exemples de problème d'optimisation (maxSAT, TSP, QAP, knapsack, etc.)
- Savoir modéliser un problème en un problème d'optimisation.
- Connaitre le principe d'une recherche locale à solution unique.
- Connaitre la recherche aléatoire
- Savoir comparer statistiquement deux algorithmes de recherche stochastiques.
- Savoir définir une marche aléatoire
- Connaitre les heuristiques "Hill-Climbing"
- Connaitre la notion d'optimum local
- Connaitre le dilemme exploration / exploitation
- Savoir définir les métaheuristiques classiques (recuit simulé, recherche taboue, iterated local search)
- Savoir définir les principes des algorithmes évolutionnaires
- Connaitre les différents types d'algorithmes évolutionnaires
- Savoir coder dans un langage les algorithmes d'optimisation précédents
- Savoir définir un problème d'optimisation numérique
- Connaitre l'algorithme de descente de gradient à pas fixe
- Connaitre les algorithmes de stratégie d'évolution : (1+1) et (mu/mu,lambda)
- Connaitre l'influence du step-size (sigma) dans ces algorithmes
- Connaitre le principe du réglage du step-size à l'aide de la rêgle du 1/5 success rule.
- Connaitre le principe du réglage du step-size à l'aide du path length control.
- Savoir coder dans un langage les algorithmes de stratégies d'évolution précédents
Supports de Cours et de TP
Voici l'ensemble des supports de cours et des émoncés des TP.
Séance | Titre | cours | TP/TD | Cor. |
---|---|---|---|---|
01 | Introduction à l'optimisation | cours | td ks5 ks1000 | 02 | Modélisation: exemples discrets | cours | td chr12a bur26a | cor |
03 | Algorithmes de recherche locale | cours notes R | td codeR R-hc | cor |
04 | Metaheuristiques | cours | td pdf tp | |
04bis | Algorithmes évolutionnaires | cours | td | cor |
05 | Analyse des données et argumentation numérique | cours | tp data | cor |
06 | Modélisation: exemples de problèmes d'optimisation numérique | cours | ||
07 | Introduction à l'optimisation numérique | cours | tp | cor |
08 | Méthodes d'optimisation avancées à base du gradient | cours | tp code | cor |
09 | Stratégies d'évolution | cours | tp | cor | 10 | Optimisation multiobjective | cours | tp | cor |
Bibliographie
Quelques repères bibliographiques :
- Métaheuristiques - Une introduction aux métaheuristiques pour l'optimisation, Bastien Shopard et Marco Tomassini, 2018.
- Métaheuristiques pour l'optimisation difficile, Johann Dréo, Alain Pétrowski, Patrick Siarry, Eric Taillard, 2003.
- Aide mémoire R, Aymeric Duclert, 2011.
dernière modification : 26 septembre 2018