mercredi 9 juin 2010

Soutenance de thèse de Trinh-Minh-Tri Do

Bonjour,

J'ai le plaisir de vous inviter à la soutenance de ma thèse intitulée:

"Regularized bundle methods for large-scale learning problems with an
application to large margin training of hidden Markov models"

"Méthode des plans sécants pour des problèmes d'apprentissage à grand
échelle avec une application à l'apprentissage de modèle de Markov
cachée par maximisation de la marge"

La soutenance aura lieu le 17 juin à 14h00 dans la salle 105 couloir
25-26, Jussieu. Vous êtes aussi cordialement invités au pot de thèse
qui suivra.

==========
Abstract
==========

Machine learning is most often cast as an optimization problem, e.g.
the minimization of a function of a set of model parameters, where one
wants to find optimal model parameters. A today challenge is to make
such a framework practical for large dataset. To do that we need
optimization methods that scale well with the problem size, number of
data, dimension of data, etc. This thesis addresses the challenge of
scalability and efficiency of machine learning approaches, with a
particular focus on sequence labeling tasks for signal processing.
This thesis describes our works which concern first, designing
scalable optimization tools and second, designing new discriminative
learning framework for signal labeling tasks.

In the optimization part we aimed at developing efficient optimization
algorithms for minimizing a regularized objective. We chose to focus
on unconstrained optimization learning formulation since it appeared
to us a promising approach for dealing with structured data in a large
scale setting. We developed new optimization methods for convex and
non-convex minimization problems. We also provide interesting
theoretical results on the convergence of these methods.

Next we describe applicative works on discriminative models for
sequence and signal labeling tasks such as handwriting and speech.
Part of these works rely on the optimization tools we developed for
convex and non convex optimization. Our works extend seminal works on
structured prediction such as conditional random fields or max margin
Markov networks for signal processing.

====================
Résumé de la thèse
====================

L'apprentissage automatique est souvent posé sous la forme d'un
problème d'optimisation où l'on cherche le meilleur modèle, dans une
famille de modèles paramétrés, par optimisation (e.g. minimisation)
d'une fonction réelle de l'ensemble des paramètres. Un défi actuel de
l'apprentissage automatique aujourd'hui, posé par l'explosion des
données produites et disponibles, consiste à concevoir des algorithmes
d'optimisation capables de traiter de grands volumes de données
exprimées en grande dimension. Cette thèse se place dans ce cadre avec
une attention particulière portée aux tâches d'étiquetage de signaux
et de séquences. Elle traite d'une part d'algorithmes d'optimisation
permettant de traiter de grands volumes de données et pour des
critères quelconques, et d'autre part de l'application de certaines de
ces idées à l'apprentissage discriminant de systèmes d'étiquetage de
séquences.

La partie théorique des travaux a porté sur la proposition
d'algorithmes d'optimisation pour des risques régularisés. Nous nous
intéressons essentiellement à des formulations non contraintes du
problème d'optimisation qui est une approche prometteuse pour traiter
des problèmes à grande échelle. Nous proposons des nouvelles variantes
d'algorithmes existants pour l'optimisation d'une fonction objective
convexe ou non convexe, avec dans ce dernier cas des résultats
intéressants en terme de convergence.

La partie applicative des travaux porte sur la conception de systèmes
discriminants pour l'étiquetage de séquences, avec des applications à
la reconnaissance de l'écriture manuscrite et de la parole. Une partie
des travaux présentés repose sur les outils d'optimisation produits
dans la première partie. Les approches décrites visent à étendre à
l'étiquetage de signaux des travaux proposés pour la prédiction de
sorties structurées, tels que les champs Markoviens Conditionnels et
les champs Markoviens à maximum de marge.

======================
Composition du jury
======================

Thierry Artières - LIP6 (Directeur de thèse)
Matthieu Cord - LIP6 (Examinateur)
Patrick Gallinari - LIP6 (Examinateur)
Gunnar Rätsch - Max Planck Society (Rapporteur)
Gerhard Rigoll - Munich University of Technology (Examinateur)
Jean-Philippe Vert - Mines ParisTech (Rapporteur)

========
Accès
========
Salle 105 couloir 25-26
Université Pierre et Marie Curie
4 place Jussieu, 75005 Paris


Cordialement,

Trinh-Minh-Tri Do

Aucun commentaire: