Détails du cours OROC-OP-ND

Non differentiable optimization and introduction to proximal methods

Cette page est essentiellement destinée aux enseignants et regroupe toutes les informations nécessaires à la gestion d'un cours ENSTA.

Identité du cours

Sigle : OROC-OP-ND
Titre français : Optimisation non différentiable et introduction aux méthodes proximales
Titre anglais : Non differentiable optimization and introduction to proximal methods
Méta infos : modifiée le : 03/01/2017   par : pcarpent   Nb de visiteurs : 185   annee : 3A      periode : 1      Rattachement/module : A      ECTS : 1.5      type : unknown     
ouvert : Oui     modif. autorisée : Oui     email auto. au responsable : Oui     à évaluer : Oui     en ligne : Non    
domaine ParisTech : 1,1b    

Equipe pédagogique

Responsable (login) :
Professeur principal :
Professeurs participants : Alice CHICHE,   
Maitres de conférences : Manuel RUIZ,   

Contenu

a pour prérequis : Optimisation différentiable 1 et Optimisation différentiable 2 Cours MAP-OPT1 et MAP-OPT2 de l'ENSTA. Jean-Charles Gilbert.
Objectifs :

A partir des outils de l'analyse convexe, l'objectif de ce cours est de présenter les algorithmes de résolution des problèmes d'optimisation non différentiables. Le cours fait appel à de nombreux exemples d'application et met en évidence la nécessité de prendre spécifiquement en considération le caractère non différentiable des problèmes.

La première séance est consacrée à l'exposé des principales propriétés des fonctions sous-différentiables, dans le cadre de l'analyse convexe, avec des exercices destinés à l'apprentissage de la manipulation de ces outils. Les trois séances suivantes présentent les algorithmes en optimisation sous-différentiable, leurs applications dans le cadre de la relaxation lagrangienne ainsi que les méthodes proximales et leur utilisation en dualité. Elles sont suivies de travaux pratiques en Scilab.

Ce cours sera ouvert aux étudiants du M2 Paris-Saclay "Data Sciences"

Mots clés : Analyse convexe - Sous-différentiabilité - Méthodes proximales - Relaxation
lagrangienne - Lagrangien augmenté - Recouvrement progressif
Objectives : The aim of this course is, on the one hand to present the main results about
subdifferentiability in the convex analysis framework, and on the other hand to
present algorithms for solving non-differentiable optimization problems.
Keywords : Convex Analysis - Sub-differentiability - Proximal Methods - Lagrangian
Relaxation - Augmented Lagrangian - Progressive Hedging
Supports :
Biblio :

Convex Analysis and Minimization Algorithms II.

J.-B. Hiriart-Urruty et C. Lemaréchal. Springer, 1993.
Contrôle : Examen écrit et projet sur ordinateur.

Besoins particuliers et remarques éventuelles

Moyens :
Commentaires :

Séances

mar. 17 janv. 2017   - 08:30 à 12:15 : Bloc de Module (1/2 journée) (MOD)
programme : Sous-différentiabilité des fonctions convexes. Calcul sous-différentiel.
besoin : Vidéo,
Intervenants : Alice CHICHE,
mar. 24 janv. 2017   - 08:30 à 12:15 : Bloc de Module (1/2 journée) (MOD)
programme : Algorithmes en optimisation sous-différentiable. Condition d'optimalité dans le cas sous-différentiable.
besoin : Vidéo,
Intervenants : Alice CHICHE,
mar. 31 janv. 2017   - 08:30 à 12:15 : Bloc de Module (1/2 journée) (MOD)
programme : Dualité et relaxation lagrangienne. Introduction aux méthodes proximales. Algorithmes des plans sécants et des faisceaux.
besoin : Vidéo,
Intervenants : Alice CHICHE,
mar. 07 févr. 2017   - 08:30 à 12:15 : Bloc de Module (1/2 journée) (MOD)
programme : Algorithmes du point proximal et du gradient proximal. Arbres de scénarios et décomposition. Algorithme du recouvrement progressif (Progressive Hedging).
besoin : Vidéo,
Intervenants : Alice CHICHE,
mar. 21 févr. 2017   - 08:30 à 10:00 : Contrôle (CC)
programme : Examen écrit.
besoin :
Intervenants : Manuel RUIZ,
mar. 21 févr. 2017   - 10:15 à 12:15 : TD en salle info (TD)
programme : Travaux pratiques : utilisation de l'opérateur proximal sur un problème de type LASSO (en Scilab).
besoin :
Intervenants : Manuel RUIZ,
mar. 28 févr. 2017   - 08:30 à 12:15 : TD en salle info (TD)
programme : Travaux pratiques : mise en oeuvre d'une méthode des faisceaux pour minimiser une fonction convexe non différentiable (en CPLEX - AMPL).
besoin :
Intervenants : Manuel RUIZ,