Choisir la langue :

Échantillonnage de loi en grandes dimensions avec l'algorithme de Langevin non-ajusté

Institutional tag: 

Récemment, le problème d'échantillonner des lois en grandes dimensions avec des garanties théoriques raisonnables a suscité un grand intérêt. En effet, les applications dans lesquelles ce problème se pose sont nombreuses en statistiques, par exemple l'inférence en grandes dimensions pour le machine learning et la résolution de problèmes inverses. Lorsque la densité possède un potentiel qui est gradient Lipschitz, nous analyserons une méthodes MCMC sans réjection basée sur la discrétisation de l’équation de diffusion de Langevin. Nous présenterons plusieurs résultats de convergence explicites pour des pas de discrétisations qui peuvent être constants ou tendre vers 0. En particulier, suivant les hypothèses satisfaites par le potentiel de la densité cible, la dépendance de la convergence de l'algorithme en la dimension sera présentée. Dans le cas où la densité est fortement log-concave, nous proposerons de plus une analyse d'une mesure empirique convenablement pondérée, pour lequel nous fournirons des bornes sur le MSE et des déviations exponentielles.
Enfin, basé sur des techniques d'optimisations, nous proposerons de nouveaux algorithmes pour échantillonner suivant une loi en grandes dimensions.
Nous nous intéresserons en particulier à l'échantillonnage de densités qui ne sont pas continûment différentiables, ce qui est typiquement le cas pour des lois a priori induisant de la sparsité. Des simulations numériques illustreront nos résultats.

Dates: 
Tuesday, October 11, 2016 - 14:00 to 16:00
Location: 
Inria Lille - Nord Europe, bâtiment A, salle plénière
Speaker(s): 
Alain Durmus
Affiliation(s): 
Telecom ParisTech