Recherche Opérationnelle, Optimisation

Master 1 I2L en apprentissage - 2016/2017

Annales

Retrouver l'année 2015-2016.

Questions ?

Contacter l'équipe enseignante

But

S'initier à la démarche de modélisation d'un problème pour le résoudre de manière informatique. Cet enseignement présente de nombreuses méthodes de résolution de problèmes et s'appuie sur des exemples pratiques.

haut

Evaluation

L'évaluation comprend :

  • Projets et TP notés, 40%,
  • 2 écrits intermédiaires, 10%, les 11/10/2016 et 7/11/2016 de moins de 30 minutes.
  • 1 écrit terminal le 13/01/2017, 50%.

Enoncé du projet 1 pdf et code à rendre avant le 06/01/2017 à 23h59.

Cette UE compte pour 4 crédits ECTS.

Les énoncés des devoirs de l'année passée : ici.

haut

Équipe d'enseignants

Sébastien Verel

Pour contacter un des intervenants : contacts. Vous pouvez contacter l'équipe pour tout ce qui concerne cet enseignement et votre orientation.

haut

Objectifs

Ils sont mis à jour régulièrement :

  1. Savoir définir un problème d'optimisation combinatoire
  2. Connaitre des exemples de problème d'optimisation (maxSAT, TSP, QAP, knapsack, etc.)
  3. Savoir modéliser un problème en un problème d'optimisation.
  4. Connaitre le principe d'une recherche locale à solution unique.
  5. Connaitre la recherche aléatoire
  6. Savoir comparer statistiquement deux algorithmes de recherche stochastiques.
  7. Savoir définir une marche aléatoire
  8. Connaitre les heuristiques "Hill-Climbing"
  9. Connaitre la notion d'optimum local
  10. Connaitre le dilemme exploration / exploitation
  11. Savoir définir les métaheuristiques classiques (recuit simulé, recherche taboue, iterated local search)
  12. Savoir définir les principes des algorithmes évolutionnaires
  13. Connaitre les différents types d'algorithmes évolutionnaires
  14. Savoir coder dans un langage les algorithmes d'optimisation précédents
  15. Savoir définir un problème d'optimisation numérique
  16. Connaitre l'algorithme de descente de gradient à pas fixe
  17. Connaitre les algorithmes de stratégie d'évolution : (1+1) et (mu/mu,lambda)
  18. Connaitre l'influence du step-size (sigma) dans ces algorithmes
  19. Connaitre le principe du réglage du step-size à l'aide de la rêgle du 1/5 success rule.
  20. Savoir coder dans un langage les algorithmes de stratégies d'évolution précédents

haut

Supports de Cours et de TP

Voici l'ensemble des supports de cours et des émoncés des TP.

Séance Titre cours TD TP
01 Intro. pb. optimisation / modélisation cours
annexe
td tp
02 Algorithmes de recherche locale (1) cours notes R td code R ks5 ks1000 cor cor
03 Algorithmes de recherche locale (2) cours td td tp
04 Algorithmes évolutionnaires cours td tp cor
05 Optimisation numérique et Stratégies d'évolution cours part1 cor part2 cor
06 Optimisation multiobjective cours td tp

haut

Bibliographie

Quelques repères biblio- /webo- graphiques qui vont se complèter au fur et à mesure :

haut

Horaires

12h de CM, 12h de TD, et 15h de TP.


Consulter l'emploi du master : edt

haut

dernière modification : 6 septembre 2016