Recherche Opérationnelle, Optimisation

Master 1 informatique ISiDIS - 2019/2020

Annales

Retrouver l'année 2018-2019.

Questions ?

Contacter l'équipe enseignante

But

S'initier à la démarche de modélisation d'un problème pour le résoudre de manière informatique. Cet enseignement présente de nombreuses méthodes de résolution de problèmes et s'appuie sur des exemples pratiques.

haut

Evaluation

L'évaluation comprend :

  • Projets et TP notés, 40%, rendu intermédiaire le 7/11/2019, final le 18/12/2019
  • 1 écrit intermédiaire, 10%, les 13/11/2019 de 45 minutes.
  • 1 écrit terminal le 14/01/2020, 50%.

Projet: à rendre avant le 07/11/2019 23h59 (version intermédiare), et le 18/12/2019 23h59 (version finale).
L'énoncé du projet pdf et le dépot git du projet (code, instances, sujet).


Cette UE compte pour 4 crédits ECTS.

haut

Équipe d'enseignants

Sébastien Verel

Pour contacter un des intervenants : contacts. Vous pouvez contacter l'équipe pour tout ce qui concerne cet enseignement et votre orientation.

haut

Objectifs

Ils sont mis à jour régulièrement :

  1. Savoir définir un problème d'optimisation combinatoire
  2. Connaitre des exemples de problème d'optimisation (maxSAT, TSP, QAP, knapsack, etc.)
  3. Savoir modéliser un problème en un problème d'optimisation.
  4. Connaitre le principe d'une recherche locale à solution unique.
  5. Connaitre la recherche aléatoire
  6. Savoir comparer statistiquement deux algorithmes de recherche stochastiques.
  7. Savoir définir une marche aléatoire
  8. Connaitre les heuristiques "Hill-Climbing"
  9. Connaitre la notion d'optimum local
  10. Connaitre le dilemme exploration / exploitation
  11. Savoir définir les métaheuristiques classiques (recuit simulé, recherche taboue, iterated local search)
  12. Savoir définir les principes des algorithmes évolutionnaires
  13. Connaitre les différents types d'algorithmes évolutionnaires
  14. Savoir coder dans un langage les algorithmes d'optimisation précédents
  15. Savoir définir un problème d'optimisation numérique
  16. Connaitre l'algorithme de descente de gradient à pas fixe
  17. Connaitre les algorithmes de stratégie d'évolution : (1+1) et (mu/mu,lambda)
  18. Connaitre l'influence du step-size (sigma) dans ces algorithmes
  19. Connaitre le principe du réglage du step-size à l'aide de la rêgle du 1/5 success rule.
  20. Connaitre le principe du réglage du step-size à l'aide du path length control.
  21. Savoir coder dans un langage les algorithmes de stratégies d'évolution précédents

haut

Supports de Cours et de TP

Voici l'ensemble des supports de cours et des émoncés des TP.

Séance Titre cours TP/TD Cor.
01 Introduction à l'optimisation cours td ks5 ks1000
02 Modélisation: exemples discrets cours td chr12a bur26a cor
03 Algorithmes de recherche locale cours notes R td codeR R-hc cor
04 Metaheuristiques cours td pdf tp
04bis Algorithmes évolutionnaires cours td cor
05 Analyse des données et argumentation numérique cours tp data cor
06 Modélisation: exemples de problèmes d'optimisation numérique cours
07 Introduction à l'optimisation numérique cours tp cor
08 Méthodes d'optimisation avancées à base du gradient cours tp code cor
09 Stratégies d'évolution cours tp cor
10 Optimisation multiobjective cours tp cor

haut

Bibliographie

Quelques repères bibliographiques :

haut

Horaires

12h de CM, 12h de TD, et 15h de TP.


Consulter l'emploi du master : edt

haut

dernière modification : 26 septembre 2018