vendredi 10 décembre 2010

Soutenance de thèse de Young-Min KIM du jeudi 16 décembre **Lieu corrigé**

Bonjour,

Désolée pour les réceptions multiples. Je corrige le lieu de ma
soutenance de thèse.
Elle aura lieu dans la salle 105 - couloir 25-26, 1er étage, *tour 26*
(pas tour 25).
Je joins l'annonce corrigée.

Bien cordialement,
Young-Min KIM
================================================================================

Bonjour,

C'est avec le plus grand plaisir que je vous invite à ma soutenance de
thèse intitulée

<<Apprentissage d'Espaces de Concepts pour le Partitionnement
Non-Supervisé de Documents Textuels>>

ainsi qu'au pot qui suivra.

=============
Date et lieu
=============
Jeudi 16 décembre 2010 à 14:00 au LIP6, 4 place Jussieu 75005 Paris
salle 105 - couloir 25-26, 1er étage, *tour 26*.

=============
Jury
=============
M. Bernd AMANN, Université Pierre et Marie Curie, Examinateur
M. Massih-Reza AMINI ,Université Pierre et Marie Curie, Directeur de thèse
M. Patrice BELLOT, Université d'Avignon, Examinateur
M. Patrick GALLINARI, Université Pierre et Marie Curie, Directeur de thèse
M. Eric GAUSSIER, Université Joseph Fourier, Rapporteur
M. Pascal PONCELET, Université Montpellier 2, Rapporteur

=============
Résumé
=============

La tâche de partitionnement de documents est l'un des problèmes centraux
en Recherche d'Information (RI). Les résultats de partitionnement
peuvent non-seulement donner une indication sur la structure d'une
collection de documents, mais ils sont aussi souvent utilisés dans
différents tâches de RI.

Dans cette thèse, nous nous somme intéressés à développer des techniques
probabilistes à base de modèles latents pour cette tâche. Dans ce but,
nous proposons quatre techniques différentes basées sur l'observation
que le partitionnement est bien plus effectif dans un espace de concepts
trouvé automatiquement que dans l'espace de sac-de-mots.

Cette observation est issue des résultats d'un partitionnement en deux
étapes, où dans une première phase, les mots de la collection sont
regroupés suivant l'hypothèse que les termes apparaissant dans les mêmes
documents avec les mêmes fréquences sont similaires. Les documents sont
ensuite regroupés dans l'espace induit par ces groupements de mots,
appelés concepts de mots. Sur ce principe, nous étendons le modèle
latent PLSA pour un partitionnement simultané des mots et des documents.
Nous proposons ensuite une stratégie de sélection de modèles permettant
de trouver efficacement le meilleur modèle parmi tous les choix
possibles. Et aussi, nous montrons comment le PLSA peut être adaptés
pour le partitionnement multi-vus de documents multi-langues.


Bien cordialement,
Young-Min KIM

mercredi 8 décembre 2010

Invitation à la soutenance de thèse de Joël Porquet (lundi 13 décembre à 15h, Jussieu, salle 26-25/105)

Bonjour,

C'est avec grand plaisir que je vous renouvelle l'invitation à la
soutenance de ma thèse intitulée :

"Architecture de sécurité dynamique pour systèmes multiprocesseurs
intégrés sur puce"

============
Date et lieu
============

La soutenance se déroulera le lundi 13 décembre 2010 à 15h00 au LIP6,
salle 105, couloir 25-26 (1er étage).

Vous êtes également invités au pot qui suivra.

======
Résumé
======

Cette thèse présente l'approche multi-compartiment, qui autorise un
co-hébergement sécurisé et flexible de plusieurs piles logicielles
autonomes au sein d'un même système multiprocesseur intégré sur puce.

Dans le marché des appareils orientés multimédia, ces piles logicielles
autonomes représentent généralement les intérêts des différentes parties
prenantes. Ces parties prenantes sont multiples (fabricants, fournisseurs
d'accès, fournisseurs de contenu, utilisateurs, etc.) et ne se font pas
forcément confiance entre elles, d'où la nécessité de trouver une manière
de les exécuter ensemble mais avec une certaine garantie d'isolation. Les
puces multimédia étant matériellement fortement hétérogènes -- peu de
processeurs généralistes sont assistés par une multitude de processeurs ou
coprocesseurs spécialisés -- et à mémoire partagée, il est difficile voire
impossible de résoudre cette problématique uniquement avec les récentes
techniques de co-hébergement (par exemple, la virtualisation).

L'approche multi-compartiment consiste en un nouveau modèle de confiance,
plus flexible et générique que l'existant, qui permet à des piles
logicielles variées de s'exécuter simultanément et de façon sécurisée sur
des plateformes matérielles hétérogènes. Le cœur de l'approche est
notamment composé d'un mécanisme global de protection, responsable du
partage sécurisé de l'unique espace d'adressage et logiquement placé dans
le réseau d'interconnexion afin de garantir le meilleur contrôle. Cette
approche présente également des solutions pour le partage des
périphériques, notamment des périphériques ayant une capacité DMA, entre
ces piles logicielles. Enfin, l'approche propose des solutions pour le
problème de redirection des interruptions matérielles, un aspect
collatéral au partage des périphériques.

Les principaux composants des solutions matérielles et logicielles
proposées sont mis en œuvre lors de la conception d'une plateforme
d'expérimentation, sous la forme d'un prototype virtuel. Outre la
validation de l'approche, cette plateforme permet d'en mesurer le coût, en
termes de performance et de surface de silicium. Concernant ces deux
aspects, les résultats obtenus montrent que le coût est négligeable.

Mots-clés : sécurité, système multiprocesseur intégré sur puce, réseau sur
puce, co-hébergement logiciel, virtualisation, conception
matérielle-logicielle, prototypage virtuel.

====
Jury
====

Alain GREINER, Professeur à l'UPMC (Directeur de thèse)
Tanguy RISSET, Professeur à l'INSA-Lyon (Rapporteur)
Albert COHEN, Directeur de recherche à l'INRIA (Rapporteur)
Jean-Claude BAJARD, Professeur à l'UPMC (Examinateur)
Renaud PACALET, Directeur d'étude à Telecom ParisTech (Examinateur)
Bernard KASSER, Directeur R&D à STMicroelectronics (Examinateur)
Christian SCHWARZ, Ingénieur R&D à Nagravision (Examinateur)

========
Accès
========

LIP6 : 4 Place Jussieu 75005 Paris
Plan d'accès : http://www.lip6.fr/informations/comment.php

Bien cordialement,

Joël Porquet

Invitation à la soutenance de thèse de Samuel BERNARD (vendredi 10 décembre à 10h, Jussieu, salle 26-25/105)

Bonjour,

C'est avec le plus grand plaisir que je vous invite à ma soutenance de
thèse intitulée :
« Algorithmique répartie : vaincre les contraintes des réseaux modernes »

Ainsi qu'au pot qui suivra.

La soutenance se déroulera le vendredi 10 décembre 2010 à 10h00, à
Jussieu, salle 26-25/105 (escalier 26, barre 26-25, 1er étage).
Le pot se déroulera en salle 26-00/116 (escalier 26, barre 26-00, 1er
étage).

Voici un plan d'accès :
http://www.upmc.fr/fr/universite/campus_et_sites/a_paris_et_en_idf/campus_jussieu2.html


=========
Résumé
=========

Dans cette thèse, nous examinons trois types de réseaux très différents.
Les réseaux unidirectionnels anonymes, pouvant servir de modèle à des
réseaux de capteurs légers communicant sans fil. Les réseaux dits «
pair-à-pair » permettant l'interaction de milliers voire de millions
d'utilisateurs différents. Et enfin les réseaux distribués « classiques
» servant de base à des jeux vidéo répartis utilisant des dizaines de
nœuds. Le point commun de nos travaux est que nous prenons en compte, à
chaque fois, un type de panne (ou faute) caractéristique du réseau
sous-jacent.
Ainsi, dans les réseaux unidirectionnels, nous résolvons le problème de
coloriage de sommets de manière auto-stabilisante. Ce problème, qui est
à la base de nombreux algorithmes distribués, fournit une indication
claire de la différence de complexité algorithmique avec les réseaux
bidirectionnels. Le caractère auto-stabilisant nous assure que, même
après un nombre arbitraire de fautes, l'algorithme retrouvera un
fonctionnement correct, sans intervention extérieure.
Dans les réseaux pair-à-pair, nous nous attaquons à deux des principales
difficultés de ce type de réseau : l'attrition et la sécurité. Nous
étudions ainsi la faisabilité d'un système de sauvegarde collaborative
par rapport à un taux élevé d'attrition, c'est-à-dire face à un grand
nombre de départs et d'arrivées pendant l'exécution du système. Ensuite,
nous présentons un algorithme de test de secrets à divulgation nulle de
connaissance, utilisé par les pairs pour savoir s'ils partagent un même
secret. Les pannes sont alors représentées par la présence
d'utilisateurs malicieux cherchant à corrompre le système.
Enfin, au travers de la thématique des jeux vidéo, nous proposons un
algorithme optimiste et robuste de diffusion totalement ordonnée pour
résoudre le problème de cohérence. Ce problème se pose lorsque que l'on
distribue la simulation d'un système, ici un jeu vidéo multijoueur. Nous
assurons le maintien de cette cohérence même en présence de fautes,
matérialisées ici par un crash ou la déconnexion de certains joueurs.

=========
Mots clés
=========

algorithme, tolérance aux fautes, auto-stabilisation, réseau
unidirectionnel, pair-à-pair, confidentialité, jeu vidéo multijoueur,
diffusion totalement ordonnée

========
Jury
========

Rapporteurs :
Eddy Caron, MCF. HDR, ENS de Lyon
Bertrand Ducourthial, Professeur, UTC

Soutenance devant le jury composé de :
Bertrand Ducourthial, Professeur, UTC (Rapporteur)
Serge Fdida, Professeur, UPMC (Examinateur)
Fabien Mathieu, Ing. de rech., Orange Labs (Examinateur)
Gwendal Simon, MCF., Telecom Bretagne (Examinateur)
Sébastien Tixeuil, Professeur, UPMC (Directeur)
Maria Potop-butucaru, MCF., UPMC (Co-encadrant)


Cordialement,
Samuel BERNARD

lundi 6 décembre 2010

Soutenance de thèse de Zach Lewkovicz

Bonjour,

C'est avec un très grand plaisir que je vous inviter à la soutenance de ma
thèse intitulée :

"Modélisation et simulation du marché du travail à l'aide de systèmes
multi-agents"

============
Date et lieu
============

La soutenance se déroulera vendredi 10 décembre 2010 à 15h00 au LIP6,
salle 101, couloir 25-26 (1er étage).

Vous êtes également invités au pot qui suivra.

======
Résumé
======

Le marché du travail (MdT) est le lieu de rencontre entre l'offre de main
d'oeuvre, proposée par les individus et la demande du travail, faite par
les firmes.
La simulation multi-agents offre une approche puissante pour modéliser de
tels processus sociaux.
Toutefois, les modèles actuels simplifient fortement les mécanismes
comportementaux et les processus décisionnels des agents.
Ces éléments sont pourtant reconnus comme ayant un impact très important
sur la dynamique du MdT puisqu'ils ont la capacité de l'expliquer au
niveau micro-économique.
Afin d'améliorer la descriptivité et l'utilité de la modélisation et de la
simulation du MdT, nous proposons dans cette thèse de représenter les
individus et les firmes comme des unités décisionnelles dont la prise de
décisions dépend de leurs propriétés, leur état et leur perception de
l'environnement.
Nous avons effectué une calibration automatique, une analyse de
sensibilité et une analyse comportementale afin de paramétrer et de
valider le modèle.
L'exploration par simulation du modèle permet notamment de mieux
comprendre la dynamique dans le MdT et de produire des données plus riches
et aussi des données qui sont inobservables dans une étude statistique
classique. Ainsi, le modèle développé exhibe un gain en descriptivité
important, permettant surtout de décrire les raisons qui ont amené un
phénomène observé au niveau macro-économique à partir des décisions prises
au niveau micro-économique.
Ce modèle a été calibré sur le MdT français.
Par exemple, toutes les interactions sont régies par la législation du
travail française.
Son pouvoir explicatif permet de générer des explications fines des
résultats (chômage des jeunes/seniors etc.).

====
Jury
====

* Amal EL FALLAH SEGHROUCHNI, Professeur [univ. Pierre et Marie Curie -
Paris 6] - Directrice de thèse
* Jean-Daniel KANT, Maître de conférences [univ. Pierre et Marie Curie -
Paris 6] - Encadrant
* Philippe MATHIEU, Professeur [univ. Lille 1] - Rapporteur
* Christophe SIBERTIN-BLANC, Professeur [univ. Capitole Toulouse 1] -
Rapporteur
* Gérard BALLOT, Professeur [univ. Assas - Paris 2] - Examinateur
* Jacques MALENFANT, Professeur [univ. Pierre et Marie Curie - Paris 6] -
Examinateur


========
Accès
========

LIP6 : 4 Place Jussieu 75005 Paris
Plan d'accès : http://www.lip6.fr/informations/comment.php

Cordialement,

Zach Lewkovicz


--

Zach LEWKOVICZ, PhD Student (UPMC)
http://www-poleia.lip6.fr/~lewkovicz/
Computer Science Laboratory of Paris VI - LIP6
Corridor 25-26
4th Floor
Office 406
Boîte courrier 169
4, place Jussieu
PARIS cedex 05
Tel: + 33 1 44 27 54 80
Fax: + 33 1 44 27 88 89
zach.lewkovicz@lip6.fr

Soutenance de thèse de Young-Min KIM du jeudi 16 décembre

Bonjour,

C'est avec le plus grand plaisir que je vous invite à ma soutenance de
thèse intitulée

<<Apprentissage d'Espaces de Concepts pour le Partitionnement
Non-Supervisé de Documents Textuels>>

ainsi qu'au pot qui suivra.

=============
Date et lieu
=============
Jeudi 16 décembre 2010 à 14:00 au LIP6, 4 place Jussieu 75005 Paris
salle 105 - couloir 25-26, 1er étage, tour 25.

=============
Jury
=============
M. Bernd AMANN, Université Pierre et Marie Curie, Examinateur
M. Massih-Reza AMINI ,Université Pierre et Marie Curie, Directeur de thèse
M. Patrice BELLOT, Université d'Avignon, Examinateur
M. Patrick GALLINARI, Université Pierre et Marie Curie, Directeur de thèse
M. Eric GAUSSIER, Université Joseph Fourier, Rapporteur
M. Pascal PONCELET, Université Montpellier 2, Rapporteur

=============
Résumé
=============

La tâche de partitionnement de documents est l'un des problèmes centraux
en Recherche d'Information (RI). Les résultats de partitionnement
peuvent non-seulement donner une indication sur la structure d'une
collection de documents, mais ils sont aussi souvent utilisés dans
différents tâches de RI.

Dans cette thèse, nous nous somme intéressés à développer des techniques
probabilistes à base de modèles latents pour cette tâche. Dans ce but,
nous proposons quatre techniques différentes basées sur l'observation
que le partitionnement est bien plus effectif dans un espace de concepts
trouvé automatiquement que dans l'espace de sac-de-mots.

Cette observation est issue des résultats d'un partitionnement en deux
étapes, où dans une première phase, les mots de la collection sont
regroupés suivant l'hypothèse que les termes apparaissant dans les mêmes
documents avec les mêmes fréquences sont similaires. Les documents sont
ensuite regroupés dans l'espace induit par ces groupements de mots,
appelés concepts de mots. Sur ce principe, nous étendons le modèle
latent PLSA pour un partitionnement simultané des mots et des documents.
Nous proposons ensuite une stratégie de sélection de modèles permettant
de trouver efficacement le meilleur modèle parmi tous les choix
possibles. Et aussi, nous montrons comment le PLSA peut être adaptés
pour le partitionnement multi-vus de documents multi-langues.


Bien cordialement,
Young-Min KIM

dimanche 5 décembre 2010

Invitation à la soutenance de thèse de Zied Ben Houidi (Mardi 21 décembre 2010 à 11h, au LIP6, salle 105)

Bonjour,

J'ai le plaisir de vous inviter à ma soutenance de thèse intitulée
"Scalable Routing in Provider-Provisioned Virtual Private Networks".

=============
Date et lieu
=============

Mardi 21 Décembre à 11 heures dans la salle 101, couloir 25/26, 1er étage.

Vous êtes également invités au pot qui suivra.

=========
Abstract
=========

Companies often have sites spread in distant locations that need to
communicate. Instead of building their own communication network, most
companies today prefer to contract a Virtual Private Network (VPN)
service. In this service model, a VPN service provider shares its
network infrastructure among multiple enterprises in order to
interconnect their distant sites, reducing thereby the communication
costs for each enterprise. Routing is the main task of VPN service
providers; it ensures the communication between VPN sites. The
performances and the robustness of routing are crucial for both VPN
customers and providers. VPN customers need availability, whereas VPN
providers, on the other hand, want a scalable solution to connect the
maximum number of customers. The most common provider-provisioned VPN
technology uses the Internet inter-domain routing protocol BGP for
routing. In Internet backbones, BGP slow convergence can hurt
availability and BGP routing table sizes have grown exponentially over
time, which threatens the scalability of the Internet whole routing
system.

Although they use the same routing protocol, VPN backbones are very
different from Internet backbones. This thesis studies how this
difference impacts the routing convergence and scalability of VPN
provider backbones. First, our measurements on a large VPN provider
backbone reported a route explosion phenomenon similar to that
observed on Internet backbones, if not worse. Some routers in such
networks have to handle from three to almost ten times the number of
BGP routes that a core Internet router handles. This route explosion
has a direct impact on the resiliency of such networks. In fact, some
failures can cause routers to loose a large fraction of their routing
tables. Our measurements showed that, due to the high number of
routes, routers can spend an immoderate amount of time to receive the
missing routes and recover. We call this recovery step, a BGP routing
table transfer. Setting aside the table transfer delays, some routers
in large VPN networks are unable to keep up with the ever-increasing
number of VPN routes, which threatens the expansion of VPN provider
backbones and their ability to host new customers. In order to
lengthen the life of VPN backbones, prior work proposed incremental
solutions. Although these solutions proved helpful, we argue that they
fail to address the root cause of current scalability problems, namely
the original design of BGP and its inadequacy to the VPN routing
specific requirements. We show that BGP is not the best for what we
defined as VPN routing and propose a new approach for VPN routing.

The contributions of this thesis are threefold. The first is a passive
measurement study to understand the VPN route explosion phenomenon and
characterize it using routing data collected from a large VPN
provider. The second is a controlled experiment based study to explain
the reasons behind slow BGP routing table transfers. The results of
this study also apply to Internet backbones in general. The third
contribution is a new scalable approach for VPN routing.


==========
Jury
==========

- Jon Crowcroft, University of Cambridge (Rapporteur)
- James Roberts, INRIA, (Rapporteur)

- Christophe Diot, Technicolor (Examinateur)
- Sébastien Tixeuil, UPMC Sorbonnes Universités (Examinateur)

- Renata Teixeira, UPMC Sorbonnes Universités & CNRS (Directeur)
- Serge Fdida , UPMC Sorbonnes Universités (Co-directeur)
- Mickael Meulle, France Telecom R&D, Orange Labs (Encadrant)


==================
Accès
==================

LIP6 : 4 Place Jussieu 75005 Paris
Détails: http://www.lip6.fr/informations/comment.php

Cordialement,
Zied Ben Houidi

samedi 4 décembre 2010

Invitation à la soutenance de thèse de Mehdi BEZAHAF (Jeudi 09 décembre 2010 à 11h, au LIP6, salle 105)

Bonjour,

C'est avec le plus grand plaisir que je vous invite à ma soutenance de
thèse intitulée :

"Gestion Transparente de la Mobilité dans un Environnement Maillé Sans-Fil Réel /
Transparent Mobility Management in a Real Wireless Mesh Environment".

Ainsi qu'au pot qui suivra.

La soutenance se déroulera le :

Jeudi 09 décembre 2010 à 11h00, au LIP6 salle 105 (barre 25-26) 1er étage.

http://www.upmc.fr/fr/universite/campus_et_sites/a_paris_et_en_idf/campus_jussieu2.html

Le pot se déroulera en salle 101 (barre 26-00) 1er étage.

=========
Abstract
=========
Over the last decade, we have witnessed a great success of wireless communications. 
In our daily life, most of electronic devices are equipped with a wireless interface, allowing users to be more mobile and pervasive. This requires specific communication architectures that respond to the challenges imposed by new user behaviors.
Wireless mesh networks fall in this category. Indeed, with their two-tiered architecture, they concentrate routing on a stable wireless backbone, while mobile clients are totally free to move around. In this context, one of the main challenges is to provide an efficient localization service so that clients can communicate with each other in a transparent way. This thesis investigates micro-mobility issues in wireless mesh networks by analyzing mobility management performance on real testbeds through measurements. The contributions are threefold: 

Enhanced mobility management. Most of existing solutions rely on some variant of full or partial flooding, which causes the well known broadcast storm problem, and very often they need support from end-users' devices. To deal with this latter issue, we propose Enhanced Mobility Management (EMM), a new efficient solution that does not rely on any modification or additional software on  client side, thus being totally transparent for end-users. EMM takes advantage of the existing Neighbor Discovery Protocol (NDP) cache to keep track of the latest association and uses this information to trigger an update in order to re-route packets. Measurements show that EMM significantly improve performance of mobility management. 

DHT-based location management. We design, implement, and test LORD, a new DHT-based scalable location management scheme through logical and experimental evaluation on our wireless mesh testbed. The main features of our proposed scheme are that broadcast packets are totally avoided and node localization is transparent to users. We compare it to our previous flooding-based location scheme (EMM). Our results show improved performance both in terms of percentage of dropped packets and handover latency introduced to re-establish open sessions after a user movement.

Link stability. Finally, to study the stability of our DHT approach, we investigate stability of links in wireless environments. We address some interesting questions related to persistence and prevalence of both dominant and sub-dominant routes between nodes in a real deployment. We note that source-destination pairs mostly use the dominant route and the two most sub-dominant routes to communicate. We also investigate the impact of the distance between a source and a destination on stability of routes. It turns out that the longer the distance, the larger the number of sub-dominant routes.

=========
Keywords: Multi-hop networks, Wireless mesh networks, Mobility management, Localization service, Distributed hash tables, flooding, Implementation, Experimentation, Wireless Links lifetime, Routing stability.
=========

=========
Résumé
=========
Les communications sans-fil ont fait l'objet durant la dernière décennie d'importantes avancées, poussées par l'expansion d'Internet et par la baisse de prix des appareils électroniques. D'autant plus que ces derniers sont de plus en plus dotés de technologie sans-fil, permettant ainsi aux utilisateurs d'être plus mobile et pervasif. Ces nouveaux besoins de connectivité ubiquitaire ont souligné l'importance des systèmes auto-organisables et des architectures distribuées pour les réseaux sans fil. 

Avec leur architecture à deux niveaux, les réseaux maillés sans-fil font partie de cette catégorie de réseaux, où le routage est concentré sur une partie stable (le premier niveau), qui offre une connectivité à des clients mobiles (le deuxième niveau). Dans ce contexte, le challenge est de préserver d'une façon transparente, les connexions ouvertes d'un client mobile quelque soit le type de ses déplacements. Cette thèse contribue à comprendre mieux la problématique de micro-mobility des clients dans les réseaux maillés sans-fil, et de proposer des approches plus adéquates à ce type de réseau. Les contributions sont au nombre de trois:

Gestion de mobilité avancée. En dépit des efforts déployés dans le domaine de la mobilité dans le contexte des réseaux maillés sans-fil, la plupart des solutions existantes se basent sur une variante de l'inondation totale ou partielle, ce qui provoque des problèmes d'interférences et de passage à l'échelle. D'autant plus que très souvent ces solutions nécessitent une collaboration des dispositifs des utilisateurs finaux. Pour faire face à cette dernière question, nous avons proposé EMM, une nouvelle solution efficace qui ne demande aucune modification ou installation logiciel supplémentaire de la part des clients. EMM se base sur l'utilisation du cache NDP (Neighbor Discovery Protocol) des clients afin de garder une trace de leur dernière association au cours de leurs déplacements. Cette trace est utilisée pour rediriger correctement les paquets à la nouvelle position des clients. Les mesures que nous avons effectuées montrent que l'approche EMM est capable d'améliorer sensiblement les performances de gestion de mobilité en réduisant considérablement le temps de déconnexion et donc les pertes de paquets.

Gestion de localisation distribuée. Nous avons conçu et mis en oeuvre LORD, une nouvelle approche de localisation distribuée, basée sur un mécanisme DHT. Nous avons testé ses performances sur une plateforme réelle en procédant à une évaluation logique et expérimentale. Notre approche est principalement caractérisée par l'exclusivité d'utilisation des paquets unicast (pas d'inondation) et par un service de localisation totalement transparent aux yeux des clients. Nous avons comparé LORD à notre précédente approche basée sur l'inondation (EMM). Les résultats montrent une amélioration des performances tant en termes de perte de paquets qu'en termes de latence nécessaire pour rétablir les sessions ouvertes après le déplacement d'un client.

Stabilité des liens. Comme dernière contribution, et afin d'étudier la stabilité de notre approche LORD, nous avons étudié la stabilité des liens dans un environnement sans-fil. Nous avons abordé quelques questions intéressantes liées à la persistance et la prévalence de la route dominante et les routes sous-dominantes entre les noeuds dans un environnement sans-fil réel. Nous avons remarqué que la plupart des paires source-destination utilisent la route dominante et les deux premières routes sous-dominantes pour communiquer. Nous avons également étudié comment la distance séparant une source et une destination peut-elle impacter la stabilité des routes. Il s'avère que plus la distance est grande, plus le nombre de route sous-dominante augmente.

=========
Mots-Clés : Réseaux Multi-Sauts, Réseaux Maillé sans-fil, Gestion de mobilité, Service de localisation,Table de hachage, Inondation, Implémentation,  Expérimentation, Vie d'un lien sans-fil, Stabilité de route.
=========

========
Jury
========
- Thomas NOEL, Professeur, Université Louis Pasteur de Strasbourg (Rapporteur)
- Vania CONAN, Chercheur, Thales Communications (Rapporteur)

- Pierre SENS, Professeur, UPMC Sorbonne Universités (Examinateur)
- Djamal ZEGHLACHE, Professeur, INT (Examinateur)
- Henrik LUNDGREN, Chercheur, Technicolor Lab, (Examinateur)

- Serge FDIDA, Professeur, UPMC Sorbonne Universités (Directeur)
- Luigi IANNONE, Chercheur, Deutsche Telekom Laboratories -- Berlin (Encadrant)

Cordialement,

Mehdi Bezahaf

mercredi 1 décembre 2010

Soutenance de thèse de Aso Darwesh

Bonjour,
C'est avec le plus grand plaisir que je vous invite à la soutenance de ma
thèse intitulée « Diagnostic cognitif en EIAH : Le système PépiMep »
----------------------------------------------------------------------
Date et lieu :
Mardi 14 Décembre 2010 à 9h00
Au LIP6 (4 Place Jussieu 75005 Paris), Tour 26, 1er étage, couloir 25-26,
salle Louis Laurière, salle 101
Vous êtes également invité au pot qui suivra.
Plan d'accès : http://www.lip6.fr/informations/comment.php
----------------------------------------------------------------------
Le jury est composé de :
Président :
Patrick Brézillon - Professeur Informatique, UPMC
Rapporteurs :
Agathe Merceron - Professeur Informatique UTH, Berlin
ean-Pierre Pécuchet - Professeur Informatique, INSA Rouen
Directeur :
Jean-Marc Labat - Professeur Informatique, UPMC
Encadrante :
Elisabeth Delozanne - Maître de conférences Informatique, UPMC
Examinatrice :
Brigitte Grugeon - Professeur, université Jule Vernes
Invité :
Sébastien Hache - Association Sésamath
----------------------------------------------------------------------
Résumé
L'objectif de notre travail est de concevoir un système de diagnostic
automatique fiable utilisé à grande échelle sur une plateforme
d'enseignement en ligne dans le domaine de l'apprentissage de l'algèbre
élémentaire. Ma thèse s'est déroulée dans le cadre du projet Lingot,
projet de recherche pluridisciplinaire regroupant, des informaticiens, des
didacticiens des mathématiques, des psychologues ergonomes, des
enseignants et des formateurs d'enseignants. Ce projet a deux objectifs
fondamentaux. Le premier consiste à concevoir des EIAH (Environnements
Informatiques pour l'Apprentissage Humain) pour aider les enseignants à
gérer la diversité cognitive des élèves pour l'apprentissage de l'algèbre
au collège. Le deuxième objectif est de fournir aux chercheurs des
dispositifs d'observation pour étudier, sur le long terme, les résultats
d'apprentissage des enseignements dispensés.
Notre apport est double : d'une part il porte sur l'évaluation du
diagnostic et l'amélioration de sa qualité et, d'autre part, il propose un
diagnostic adaptatif. Enfin notre système a été mis en œuvre sur la
plateforme de l'association Sésamath utilisée par des milliers
d'enseignants et d'élèves.
Le problème principal qui nous concerne, en tant qu'informaticien, est
celui du mode d'inférence des descripteurs de la compétence d'un apprenant
à partir des données recueillies lors d'un test diagnostic. Le processus
de diagnostic se décompose en deux étapes : un diagnostic local qui
consiste à analyser chaque réponse d'un élève, et un diagnostic que nous
qualifions de global qui consiste à détecter des cohérences dans les
réponses des élèves afin de dresser un bilan des compétences qui ont été
détectées. Nous avons, à partir de premiers prototypes, mis au point un
modèle conceptuel et un logiciel, PépiMep, qui le met en œuvre. Dans un
premier temps, PépiMep recueille des réponses ou des raisonnements
algébriques sur une plateforme d'enseignement en ligne, puis, dans un
deuxième temps, PépiMep analyse ces réponses en prenant en compte non
seulement leur degré de validité mais aussi leur caractérisation sur
plusieurs dimensions. Cette analyse s'appuie sur un logiciel de calcul
formel développé par l'équipe. Enfin PépiMep construit un bilan cognitif
qui caractérise la compétence de l'élève, en établissant des leviers pour
l'apprentissage et des fragilités à faire évoluer, et qui le situe sur une
échelle de compétence. Nous avons mis en place les modèles de données et
le système qui les interprète.
Nous nous sommes enfin penchés sur le problème de mettre au point un
diagnostic adaptatif pour minimiser le temps de passage du test
diagnostic. Ce diagnostic s'appuie sur le modèle markovien de décision
séquentielle.
Pour mener à bien notre travail de recherche, nous avons adopté une
démarche fondée sur le prototypage et sur l'analyse de corpus de réponses
d'élèves obtenus à partir de prototypes. Nous avons mis en place des
outils pour faciliter l'analyse de ces données par des experts humains
(enseignants et didacticiens des mathématiques dans notre cas) et la
comparaison entre le diagnostic automatique et celui d'experts ou de
professionnels humains. Les résultats de cette comparaison montrent que
notre système permet de faire instantanément un travail qui prend
plusieurs heures à un expert humain, selon un taux de concordance avec
l'expertise humaine qui est supérieur aux taux d'accords entre experts
humains avant discussion pour établir un consensus sur un corpus de
référence.

Bien cordialement
Aso DARWESH

mercredi 24 novembre 2010

Soutenance de thèse de Rogovchenko Olena

Bonjour,

C'est avec le plus grand plaisir que je vous invite à la soutenance
de ma thèse intitulée "Abstractions for time and resource conscious
composition in the context of distributed autonomous robotic systems"

===========
Date et lieu
===========

Vendredi 03 Décembre à 9 heures 30 dans la salle 101, couloir 25/26.

Vous êtes également invités au pot qui suivra.

===========
Résumé
===========

Space exploration, military, rescue robots; as autonomous robots
target a larger spectrum of ever more involving missions, that require
autonomy and coordination among various autonomous robots, control
architectures become very complex software systems that intertwine
high-level computation-intensive tasks such as planning and building
maps, with lower-level ones, triggering responses on actuators from
readings on sensors that have stringent real-time constraints. Yet,
as in other areas of software development, the time-to-market forces
the adoption of fast and efficient methodologies.
Our goal is to propose a new component model adapted to autonomous
robotics that tackles these issues. We want our model to allow
programmers to explicitly express all of the synchronization,
time-related and resource usage constraints on atomic computational
elements in a declarative way, to abstract themselves away from
low-level operational considerations, often known only at
deployment-time. Such an approach requires a set of abstractions that
capture all the aspects of a robotic architecture and that can be used
to incrementally build complex architectures through composition, all
the while respecting the individual constraints of the abstractions
and the global constraints of the system. This thesis aims to provide
solid foundations for the development of such abstractions, by
defining the set of properties that capture the needs of the component
in terms of time and resources and by showing how these properties can
be used for the verification and construction of component assemblies
that conform to the systems constraints.

====
Jury
====

Rapporteurs :
Mireille Blay-Fornarino -Laboratoire I3S (Nice)
Christophe Dony - LIRMM (Montpellier)
Directeur :
Jacques Malenfant - LIP6
Examinateurs :
David Brugali - Université de Bergame (Italie)
Ivica Crnkovic - Université de Mälardalen (Suède)
Michèle Soria - LIP6


========
Accès
========

LIP6 : 4 Place Jussieu 75005 Paris
Plan d'accès : http://www.lip6.fr/informations/comment.php

Cordialement,

Rogovchenko Olena

lundi 22 novembre 2010

Soutenance de thèse de Thomas Génin

Bonjour,

J'ai le plaisir de vous inviter à la soutenance de ma thèse intitulée :

"Stratégies de formation de coalitions dans les systèmes multi-agents"

============
Date et lieu
============

La soutenance se déroulera vendredi 26 novembre 2010 à 14h00 au LIP6,
salle 105, couloir 25-26 (1er étage).

Vous êtes également invités au pot qui suivra.

======
Résumé
======

Le travail présenté dans cette thèse s'inscrit dans le cadre des
systèmes multi-agents composés d'agents égoïstes, évoluant de manière
autonome et guidés par leurs propres objectifs à atteindre. Un agent
égoïste peut décider d'évoluer seul, sans coopérer avec les autres
agents. Il existe cependant des situations dans lesquelles une telle
évolution individuelle rend impossible l'atteinte de ces objectifs,
par manque de ressources, d'expertise ou de temps. Dans de tels cas,
la coopération de plusieurs agents par formation de groupes d'intérêts
communs (coalitions), et la mise en commun de leurs ressources, permet
une réalisation collective des objectifs. Les agents possédant des
préférences différentes sur les objectifs à atteindre, il est souvent
difficile de trouver des partenaires intéressés par la coopération.
Dans le cadre de ce travail, nous nous sommes intéressés au contexte
des jeux hédoniques et aux domaines orientés tâches. Nous avons
proposé différentes stratégies comportementales permettant à des
agents d'évoluer de manière autonome. Nous avons développé des
stratégies de proposition de coalitions fondées sur les négociations
antérieures et permettant de guider la génération des propositions.
Nous avons développé des stratégies d'acceptation de propositions
basées sur le compromis. Ces stratégies ont été étudiées de manière
expérimentale sur un système réalisé sur la plateforme JADE. Nous
avons également effectué, une analyse théorique de ces stratégies dans
le cadre des jeux hédoniques. Nous avons montré qu'une garantie de
qualité des solutions, ne peut être obtenue qu'en contraignant de
manière forte les comportements individuels des agents.

====
Jury
====

Samir AKNINE, Professeur à l'Université Claude Bernard Lyon 1
(Directeur de thèse)
Philippe MATHIEU, Professeur à l'Université Lille 1 (Rapporteur)
Suzanne PINSON, Professeur à l'Université Paris-Dauphine (Rapporteur)
Amal EL FALLAH SEGHROUCHNI, Professeur à l'Université Pierre et Marie
Curie (Examinateur)
Salima HASSAS, Professeur à l'Université Claude Bernard Lyon 1 (Examinateur)
Abdel-Illah MOUADDIB, Professeur à l'Université de Caen
Basse-Normandie (Examinateur)


========
Accès
========

LIP6 : 4 Place Jussieu 75005 Paris
Plan d'accès : http://www.lip6.fr/informations/comment.php

Cordialement,

Thomas Génin

vendredi 19 novembre 2010

Soutenance de thèse de Bassel Habib

Bonjour,

J'ai le plaisir de vous inviter à ma soutenance de thèse intitulée :
"CYBERNARD : un système de découverte autonome qui reconstruit
rationellement la démarche empirique de Claude Bernard en modélisant ses
expérimentations basées sur des résultats réels"

La soutenance se déroulera le :

==========
Vendredi 26 Novembre à 14h00 au Site Jussieu : Salle 211 - Tour 55-65.
==========

Vous êtes également invités au pot qui suivra au LIP6 - Site Jussieu :
Salle 101 - Couloir 26-00.

=========
Résumé
=========

Une Découverte est, de manière générale, l'action de trouver ce qui
n'était pas connu auparavant. Dans le domaine des sciences, on parle
évidemment d'une Découverte Scientifique. Le domaine de la Découverte
Scientifique en Intelligence Artificielle (IA) est un domaine à part
entière qui porte sur le développement des systèmes intégrés et autonomes
pour la découverte scientifique. Plusieurs sous-domaines de l'IA étudient
des problématiques qui peuvent être reliées à la question plus générale de
la découverte scientifique. C'est le cas, par exemple, des systèmes
experts et des systèmes de fouilles de données qui permettent de
construire des programmes de découverte en utilisant les techniques de la
résolution de problèmes.

Dans ce contexte, plusieurs familles de systèmes ont vu le jour depuis la
naissance du domaine de la découverte scientifique en IA. Au cours de
cette thèse, nous avons construit un système de découverte autonome basé
sur des données issues des expérimentations réelles faites par Claude
Bernard. Ce système, nommé CYBERNARD, reconstruit rationnellement la
démarche empirique de ce dernier en modélisant ses expérimentations basées
sur des résultats réels.
Dans le cas du système CYBERNARD, le rôle de la machine est de simuler les
expérimentations réalisées par Claude Bernard pour obtenir des expériences
virtuelles à la sortie du système. Le système est ajusté jusqu'au moment
où les expériences virtuelles correspondent à celles réalisées par Claude
Bernard lui-même dans le but de vérifier les hypothèses inférées.

Les étapes qui ont constitué la construction du système CYBERNARD
commencent par l'étude épistémologique des manuscrits de Claude Bernard
jusqu'à la construction d'un modèle informatique modélisant une partie de
son processus de découverte. Au cours de l'étude épistémologique, nous
avons étudié les modes d'inférence utilisés dans la démarche empirique
de Claude Bernard et représenté les connaissances contenues dans ses
manuscrits (ontologie, expériences) de façon à faciliter l'utilisation des
ces connaissances dans notre modèle informatique : le laboratoire virtuel.
Ce laboratoire virtuel est l'environnement dans lequel la simulation des
expériences de Claude Bernard est proposée à l'utilisateur. Le but de ce
laboratoire est de faire des expériences virtuelles pour les comparer avec
les expériences réelles faites par Claude Bernard. Nous proposons un
laboratoire virtuel qui contient des modèles noyaux (des organismes
virtuels construits selon les hypothèses de Claude Bernard et sur lesquels
ses expériences sont faites) et des opérateurs paramétrés} (des opérateurs
tirés des descriptions d'expériences dans les écrits de Claude Bernard).
Enfin, nous validons notre approche sur des scénarios tirés des
expériences de Claude Bernard.

========
Jury
========

- Pr. Claude Debru - ENS (Examinateur)
- Pr. Jean-Gabriel Ganascia - LIP6 (Directeur de thèse)
- Pr. Jean-Marc Labat - LIP6 (Examinateur)
- Pr. Lorenzo Magnani - Univ. Pavia (Rapporteur)
- Pr. Jean Sallantin - LIRMM (Rapporteur)

========
Accès
========

LIP6 : 4 Place Jussieu 75005 Paris
Plan d'accès : http://www.lip6.fr/informations/comment.php

Bien cordialement,
Bassel Habib

mercredi 17 novembre 2010

Soutenance de thèse de Nicolas Widynski

Bonjour,

J'ai le plaisir de vous inviter à la soutenance de ma thèse intitulée
"Intégration d'informations spatiales floues dans un filtre particulaire
pour le suivi mono- et multi-objets dans des séquences d'images 2D" qui se
déroulera le vendredi 26 novembre 2010 à 14h en Amphi Opale, à Télécom
ParisTech, 46 rue Barrault, 75013 Paris devant le jury composé de :

Rapporteurs :
Mylène Masson (Professeur, UTC)
Wojciech Pieczynski (Professeur, Télécom SudParis)

Examinateurs :
Elise Arnaud (Maître de Conférence, Université Joseph Fourier)
Maurice Milgram (Professeur, ISIR)

Invité :
Jacques Blanc-Talon (Ingénieur de recherche, DGA)

Directrices de thèse :
Séverine Dubuisson (Maître de Conférence, LIP6)
Isabelle Bloch (Professeur, Télécom ParisTech)

La soutenance sera suivie d'un pot en salle C48 auquel vous êtes
chaleureusement conviés.

Cordialement,

Nicolas Widynski


***************************
Résumé :

Dans cette thèse, nous nous intéressons au suivi d'objets par filtrage
particulaire dans des séquences d'images 2D.

Dans ce contexte, nous proposons une méthode originale d'intégration
d'informations floues dans le filtre particulaire, afin de guider le suivi
d'objets en ajoutant des informations spatiales, qui peuvent être de type
structurel ou de forme. Cela permet de mieux guider les particules pendant
la phase prédictive, et grâce au modèle hybride défini, d'intégrer au
filtre particulaire une information synthétisée des k dernières
estimations ainsi que la dernière observation.

Nous proposons également d'intégrer des contraintes spatiales floues dans
le filtre particulaire dans le cas multi-objets. Ce type d'information
permet de représenter des contraintes complexes entre plusieurs objets.
A cette contribution, nous ajoutons celle d'un nouveau modèle de filtre
particulaire pour le suivi multi-objets, qui est une amélioration de
l'échantillonnage partitionné.


Enfin, nous proposons de définir des vraisemblances à modèles multiples.
Cette notion est adaptée lorsque l'objet change d'apparence au cours du
temps. En définissant la vraisemblance par une loi de mélange dont les
poids dépendent de l'objet et de l'image, il est ainsi possible de
pondérer les vraisemblances en considérant l'état dans lequel se trouve
l'objet.

Toutes ces contributions ont été évaluées sur des séquences réelles, et
les résultats montrent l'apport des approches proposées par rapport à
d'autres filtres particulaires classiques.
--
Séverine Dubuisson
Enseignant-Chercheur
Laboratoire d'Informatique de Paris 6 (LIP6)
104 avenue du Président Kennedy 75016 Paris, Bureau 702
Tel.: +33 (0)1 44 27 71 29   Fax: +33 (0)1 44 27 74 95
http://lip6.fr/Severine.Dubuisson

mercredi 10 novembre 2010

Soutenance de thèse de Cédric Guéguen (Mardi 16 novembre 2010 à 14h30, au LIP6, salle 101)

Bonjour,

C'est avec un très grand plaisir que je vous invite à ma soutenance de
thèse intitulée :

"Allocation de ressources dans les réseaux sans fil à large bande
multi-porteuses".

Celle-ci se déroulera le mardi 16 novembre 2010 à 14h30, au LIP6 salle
101 (barre 25-26).

http://www.upmc.fr/fr/universite/campus_et_sites/a_paris_et_en_idf/campus_jussieu2.html

Vous êtes également tous conviés au pot qui suivra salle 101 (barre 26-00).

=========
Résumé
=========

Avec l'essor des services multimédia, garantir une réelle qualité de
service est devenu une des grandes priorités de la nouvelle génération
de réseaux sans fil. Cela implique que les algorithmes d'allocation de
ressources soient capables d'assurer à la fois une équité élevée entre
utilisateurs, quels que soient leurs types de trafic et leur mobilité
dans la cellule, une différenciation de service efficace et la
maximisation du débit global du système.

Dans ce contexte, nos premiers travaux ont porté sur le développement
d'un nouveau système de mesure de la qualité de service dans les
réseaux multimédia. Ce système permet de comparer, sur une même
échelle de valeur, la qualité de service procurée à chaque utilisateur
lorsque les types de trafic transmis sont fortement hétérogènes et
d'évaluer efficacement les performances des algorithmes d'allocation
de ressources.

De là, nos travaux se sont focalisés sur ce qui constitue la
contribution majeure de cette thèse, à savoir proposer de nouveaux
algorithmes plus efficaces adaptés à une couche physique utilisant la
modulation OFDM (Orthogonal Frequency Division Multiplexing). En
effet, dans les réseaux sans fil, en raison du phénomène
d'affaiblissement multi-trajets, les utilisateurs ne peuvent pas tous
bénéficier d'une même capacité de transmission/réception même s'ils
occupent la même position et utilisent la même fréquence à un instant
donné. Déjà implémenté dans les systèmes 802.11a/g et 802.16, l'OFDM
permet une transmission sur plusieurs fréquences en parallèle. Le
principe de nos algorithmes est donc d'exploiter ces dernières de
manière opportuniste afin de les allouer à l'utilisateur qui en tirera
à un instant donné le meilleur profit. Dans ce cadre, trois
ordonnanceurs ont été développés dans une approche inter-couches. Ils
tiennent compte à la fois de paramètres issus de la couche physique
comme les débits possibles associés à chaque couple
utilisateur/fréquence mais aussi des contraintes applicatives telles
que le taux de perte de paquets, le taux d'erreur par bit, le retard
maximum admissible... Grâce à un système de priorités dynamiques entre
les différents utilisateurs qui tire avantage de la diversité
temporelle, fréquentielle et multi-utilisateurs, la capacité du réseau
est ainsi maximisée tout en assurant un haut niveau de qualité de
service égal pour tous, ce qui permet d'assurer la gestion efficace
des flux multimédia dans les réseaux sans fil actuels et futurs.

=========
Mots-Clés : ``Orthogonal Frequency Division Multiplexing" (OFDM),
Ordonnancement opportuniste, Approche inter-couches, Diversité
multi-utilisateurs, Multimédia, Qualité de Service, Equité,
Différenciation de service, Affaiblissement de propagation,
Atténuation liée aux multi-trajets.
=========

========
Jury
========
Isabelle Guérin Lassous, Professeur à l'Université Claude Bernard –
Lyon I (Rapporteur)
Thierry Turletti, Chercheur à l'INRIA Sophia Antipolis (Rapporteur)

André-Luc Beylot, Professeur à l'INPT/ENSEEIHT – Toulouse (Examinateur)
Sébastien Tixeuil, Professeur à l'UPMC Sorbonne Universités (Examinateur)

Serge Fdida, Professeur à l'UPMC Sorbonne Universités (Directeur)
Sébastien Baey, Maître de Conférences à l'UPMC Sorbonne Universités
(Encadrant)
========

Cordialement,

Cédric Guéguen

lundi 8 novembre 2010

Soutenance de thèse Alix Mougenot

Bonjour à toutes et à tous.

Après trois ans parmi vous,
le jour est enfin venu pour moi de venir polluer vos boites au lettres
avec mon mail d'invitation !
Je vous annonce donc, non sans émotions, la venue de ma soutenance de
thèse.


Intitulé: Praxis: Detection des incoherences dans les modeles repartis.
(On parlera de génie logiciel et un peu de systèmes répartis)

Date: 19/11 à 10h.
Lieu: Jussieu, salle 25/26 105.

Orateur: Alix Mougenot: http://www.mendeley.com/profiles/alix-mougenot/

Résumé:
Les projets logiciels de taille industriels sont
développés par centaines de développeurs travaillant sur des centaines
de modèles de différents types (e.g. SysML, UML, Petri nets, workflow
and business process). De plus, les procédés de développement centrés
sur la modélisation demandent de plus en plus d'itérations avant
l'obtention des modèles correctement implémentés. La complexité
intrinsèque de ces modèles couplés au fait qu'ils soient souvent
maintenus par des développeurs différents est une source d'incohérences.
Le problème étant que même la plus petite des incohérences peut
engendrer l'échec de la modélisation. Sous de telles conditions, la
détection des incohérences, qui consiste à analyser les modèles pour
trouver ces configurations non souhaitables, gagne une importance toute
particulière.

Cette thèse traite le problème de la détection des incohérences lors du
développement collaboratif des modèles. Notre approche, Praxis,
représente les modèles par une séquence d'actions unitaires le
construisant. Cette représentation séquentielle peux représenter de
façon uniforme n'importe quelle instance de métamodèle, permettant de
détecter des incohérences entre des modèles de différentes natures.
Praxis exploite cette représentation pour rendre la détection
d'incohérence incrémentale. Cette détection incrémentale est
suffisamment efficace pour tourner en tache de fond d'un éditeur de
modèle, donnant ainsi un retour instantané au développer du modèle.
Praxis est également à la base d'un protocole pair-à-pair pour l'édition
collaborative de modèles. Ce protocole utilise les actions unitaires de
Praxis pour la communication entre les sites d'édition. Praxis propose
également un détecteur d'incohérence réparti qui utilise le protocole
pair-à-pair. Ce détecteur réparti a pour but de détecter les
incohérences parmi les modèles édités collaborativement.


Les performances de Praxis ont étés validées grâce à une benchmark
basé à la fois sur des données venant d'un cas d'étude et sur des
données provenant d'un générateur de modèles mathématiquement fondé. Les
tests utilisés pour la benchmark utilisent 56 règles représentatives
provenant de la spécification d'UML, ainsi qu'un ensemble de modèles UML
contenant 1 400 modèles de classe. La validation a montré que Praxis
est efficace et peux prendre en charge de très gros modèles.


Rapporteurs: Mireille BLAY-FORNARINO Jacky ESTUBLIER
Membres du jury:
Marie-Pierre GERVAIS
Mireille BLAY-FORNARINO
Xavier BLANC
Jean-Marc JEZEQUEL
Jacky ESTUBLIER
Olivier DEFOUR
Fabrice KORDON

Je profites de ce mail pour remercier tout ceux qui, au labo, ont été là
pendant la thèse. Les encadrants, les collaborateurs, les collègues
d'enseignement, les voisins de bureaux, les administratifs, les admins, et
ceux que j'oublie.

Soyez les bienvenu à la soutenance, mais aussi au pot qui en suis (surtout
au pot).

Alix Mougenot.

mardi 19 octobre 2010

Invitation à la soutenance de thèse de Nicolas Stefanovitch (vendredi 22 octobre 2010 à 10h, LIP6, salle 105)

Bonjour,

j'ai le plaisir de vous inviter à la soutenance de ma thèse intitulée :

"Contributions à la résolution de problèmes d'optimisation de
contraintes distribuées dynamiques à l'aide de modèles graphiques pour
la coordination multiagents"

ainsi qu'au pot qui suivra.

============
Date et lieu
============

La soutenance se déroulera ce vendredi (vendredi 22 octobre 2010) à
10h00 au LIP6, salle 105, barre 25-26 (1er étage). Accès au LIP6 :
http://www.lip6.fr/informations/comment.php

======
Résumé
======


Les systèmes informatiques sont de plus en plus autonomes et couplés.
Le contrôle de leur comportement nécessite le développement
d'algorithmes dédiés prenant en compte simultanément les problèmes de
décision auxquels ceux-ci ont à faire face ainsi que l'architecture
distribuée sous-jacente de ces systèmes. Ce domaine est celui de la
coordination de systèmes multiagents.

Les systèmes multiagents sont persistants, ouverts et doivent gérer
des problèmes évoluant dynamiquement tout en garantissant leur
comportement dans un contexte opérationnel incertain. En tant que
système artificiel, il est souhaitable qu'une procédure de
coordination garantisse l'optimalité des décisions. En tant que
système réel, il est souhaitable qu'une solution soit trouvée le plus
rapidement possible. En tant que programme informatique distribué, il
est souhaitable que la procédure de coordination soit capable de
s'adapter à la modification dynamique du système ainsi que d'exploiter
le parallélisme.

Nous abordons le problème de la coordination multiagents modélisé en
tant qu'un problème d'optimisation de contraintes distribué dynamique
(DynDCOP), et où nous utilisons les modèles graphiques comme
mécanismes de base pour résoudre ceux-ci. Notre démarche consiste à
étendre ces approches pour les adapter aux contraintes d'exécution des
systèmes multiagents.

Nous proposons trois contributions. La première est un algorithme
approché avec garanties qui permet de réaliser un compromis
paramétrable entre optimalité et décentralisation de la résolution. La
seconde contribution est un algorithme adaptant la création du modèle
graphique aux ressources du système multiagents (structure du réseau
de communication, bande passante des liens de communication et vitesse
de calcul des agents) et à l'ordonnancement des calculs sur celui-ci.
Enfin dans notre troisième contribution nous proposons un algorithme
de clusterisation partielle paramétrable permettant, pour un temps
maximal d'inférence donné, d'exploiter à la fois la réactivité des
modèles graphiques cycliques et la qualité des solutions des modèles
graphiques acycliques.


====
Jury
====

- Philippe Mathieu, Professeur, Université de Lille 1 (rapporteur)
- Yann Chevaleyre, Professeur, Université Paris Dauphine (rapporteur)
- Patrice Perny, Professeur, Université de Paris 6 (examinateur)
- René Mandiau, Professeur, Université de Valenciennes (examinateur)
- Amal El Fallah Seghrouchni, Professeur, Université de Paris 6
(directice de thèse)


Cordialement,

Nicolas Stefanovitch

vendredi 15 octobre 2010

[Invitation] Soutenance de thèse de Sondes Khemiri le lundi 25 Octobre à 10h

Bonjour,

J'ai le plaisir de vous inviter à ma soutenance de thèse intitulée
"Dimensionnement et allocation de ressources dans les réseaux
métropolitains IEEE 802.16" et au pot qui la suivra.

La soutenance se déroulera le lundi 25 Octobre 2010 à 10h, au
Laboratoire d'Informatique de Paris 6 (LIP6) situé au: Site Jussieu
rotonde 25-26/ au 4 place Jussieu 75005 Paris.
Plan d'accès : http://www.lip6.fr/informations/comment.php

Salle de soutenance: 25-26/101
Salle du Pot: 26-00/101

Jury:

Rapporteur: Fabrice Valois, Professeur, INSA Lyon
Rapporteur: Sami Tabbane, Professeur, SUP'COM Tunis
Examinateur: Mario Gerla, Professeur, UCLA Los Angeles
Examinateur: Jérome Brouet, Expert senior architecture réseaux, Alcatel
Examinateur: Sébastien Tixeuil, Professeur, Université Pierre et Marie Curie
Examinateur: Nadjib Achir, Maî&#305;tre de conférences, Université Paris 13
Examinateur-invité: Tijani Chahed, Professeur, Télécom Paris Sud
Directeur: Guy Pujolle, Professeur, Université Pierre et Marie Curie
Co-encadrant: Khaled Boussetta, Maî&#305;tre de conférences,
Université Paris 13


Résumé:
Les standards WiMAX ont décrit en détails les outils nécessaires pour
mettre en place un réseau de données à haut débit mais ont laissé le
libre choix aux équipementiers d'implémenter leur propre mécanismes de
gestion de la QoS.

Cette thèse s'intéresse à la thématique très motivante de la QoS dans
les réseaux WiMAX et plus particulièrement au dimensionnement des
mécanismes de gestion de la QoS. A savoir: le contrôle d'admission,
l'ordonnancement et l'allocation de ressources au niveau de la couche
Physique. Le challenge de ces mécanismes consistent à prendre en
considération les concepts introduits par les standards IEEE 802.16
aussi bien fixe que mobile comme la modulation adaptative, les
techniques de permutation des fréquences, la mobilité et les
techniques de multiplexage OFDMA et TDMA. Ceci en intégrant les
exigences des applications visées par la technologies WiMAX.

Pour ce faire, notre approche a consisté à identifier les mécanismes
de gestion de la QoS pertinents qui ont été présentés dans la
littérature, de les adapter aux nouveaux concepts de la technologie
WiMAX et de proposer des variantes de mécanismes de QoS. Ces derniers
ont été conçus dans une perspectives de performance de bout en bout,
tout en tenant compte des contraintes des applications et des
spécificités des couches physique et MAC des standards WiMAX.

Une importante contribution de la thèse réside dans la proposition de
modèles mathématiques permettant d'évaluer les performances du système
en considérant nos mécanismes de QoS et de déterminer grâce à
l'utilisation de méthodes heuristiques les meilleurs paramètres de
dimensionnement possibles.


Abstract:
This thesis addresses the issue of QoS in WiMAX networks and
esspecially the dimensioning of management bandwidth WiMAX network
mecanisms i.e: Call admission controll, scheduling mecanism and
ressource allocation in physical layer. The challenge of these
mechanisms are to take into account concepts introduced by the fixed
and mobile WiMAX network as well as adaptive modulation, the
subchannelization mecanism, mobility and OFDMA and TDMA multiplexing
techniques. This by considering application requirements supported by
WiMAX. To do this, our approach was to identify relevant QoS
management mechanisms presented in literature, and to adapt them to
new concepts of WiMAX technology and propose alternative QoS
mechanisms. We proposed an end to end QoS module by taking into
account applications constraints and the caracteriscs of physical and
MAC layers of the WiMAX standard. An important contribution of the
thesis lies in the proposed mathematical model to evaluate the
performance of our system by considering QoS mechanisms and to
determine through the use of heuristics the best possible
dimensionning parameters. The first contribution of this thesis
proposes a mathematical model with the aim to give guidelines for the
dimensioning of WiMAX bandwidth provisioning service to residential
customers in fixed WiMAX network, we considered in this work a
combined Guaranteed minimim and Upper Limits CAC strategy. The second
contribution is to determine, using an analytical model and a
heuristic approach, the nearly-optimal sizes of the partition sizes
dedicated to each type of connection in mobile WiMAX by considering
the Complete partionning CAC. Finally, we propose a wireless resource
allocation (mapping) mecanism of a Mobile WiMAX cell based on OFDMA
access technique.

Très cordialement,
Sondes Khemiri

lundi 11 octobre 2010

Invitation à la soutenance de thèse de MTNGO (Mercredi 13 octobre 2010 à 10h, au LIP6, salle 211 tours 55-65)

Bonjour,

j'ai le plaisir de vous inviter à ma soutenance de thèse, intitulée

"Modélisation et Optimisation des plans de feux - Application
de la méthode de décomposition de Benders"

ainsi qu'au pot qui suivra.

La soutenance se déroulera le mercredi 13 octobre
à 10h en salle 211 tours 55-65, 2ème étage sur le campus de Jussieu.

------------------------
Composition du jury
------------------------
Membres du jury :
Perny Patrice, Professeur, Département DESIR, LIP6, (Président)
Lisser Abdel, Professeur, LRI, Université Paris-Sud 11,(Rapporteur)
Haj-Salem Habib, Directeur de recherche - HDR, INRETS/GRETIA, "Le
Descartes 2", (Rapporteur)
Lebacque Jean-Patrick, Ingénieur Général des Ponts et Chaussées,
INRETS/GRETIA, "Le Descartes 2", (Examinateur)
Minoux Michel, Professeur, Département DESIR, LIP6, (Directeur de thèse)
Nguyen Viet-Hung, M.C, Département DESIR, LIP6, 4 place Jussieu,
(Co-directeur de thèse)


Le plan d'accès est consultable à l'adresse suivante :
http://www.upmc.fr/FR/info/ Venir_UPMC/05

Cordialement,
Minh Tuan NGO

----------
Résumé
----------
L'objet principal de cette thèse, réalisée en collaboration avec la
Société PHOENIX-ISI, consiste à développer un modèle de contrôle optimisé
des feux de signalisation dans un réseau routier urbain. Il s'agit plus
précisément de déterminer les plans de feux, c'est à dire pour chaque
carrefour : durée du feu vert et décalage (offset) dans le cadre de
réseaux de type axial (un itinéraire) ou de type maillé (par exemple, un
quartier d'une agglomération). L'objectif (à minimiser) consiste à partir
des données de circulation du réseau (débit entrant, répartition
directionnelle des flux) et en utilisant un modèle de simulation de la
propagation des flots de véhicules, à rechercher un plan de feux
minimisant le retard total subi par les véhicules au cours de leur
traversée du réseau.

Le travail de recherche présenté ici se décompose en deux parties
principales. La première partie consiste à développer un modèle de
simulation de trafic permettant de représenter, de façon précise,
l'écoulement des différents flux de trafic dans le réseau étudié pour un
plan de feux quelconque fixé. La deuxième partie de la thèse est consacrée
à la résolution algorithmique du problème MIP (problème en nombres entiers
mixtes) élaboré dans la première partie. Nous proposons un algorithme basé
sur la méthode de décomposition de Bender. Essentiellement, un tel
algorithme doit résoudre un program linéaire de très grande taille à
chaque itération afin de générer d'une coupe de Benders. Nous montrons
que, pour notre problème MIP nous pouvons le faire de façon itérative (par
une procédure de simulation inversée) et donc plus rapidement en
exploitant une structure particulière de la matrice de contraintes. Nous
présentons enfin une série d'expériences numériques prouvant l'efficacité
de l'algorithme proposé.


Mots clés : Régulation du trafic urbain, contrôle des feux de
signalisation, simulation trafic routier, optimisation combinatoire,
programmation en nombres entiers mixtes, méthode de décomposition de
Benders.


The purpose of this thesis, conducted in collaboration with the
Phoenix-ISI company is to develop a model for the traffic light control
problem in urban network. The objective is to determine a signal timing
plan which minimizes the total delay to which vehicles are subjected
during their passage through the network.

The research presented here is divided into two main parts. The first part
is to develop a traffic flow model based on network traffic data (inflow,
flow directional distribution) to represent accurately the flow of
different traffic flows in the studied network. The second part consists
in solving a MIP (Mixed Integer Problem) issued from the simulation model
in the first part. We propose an algorithm based on the Bender's
decomposition method. Basically, such an algorithm should solve a huge
linear programming problem to generate Bender's cuts in each iteration. We
prove that, for our MIP we can do it much faster by an iterative method
("inverse simulation" procedure) which exploits a special structure of the
matrix of constraints. We present finally a series of numerical
experiments proving the efficiency of the proposed algorithm.

Keywords: urban traffic control, traffic signal control, Traffic
simulation, optimization, MIP problem, Benders decomposition method.

vendredi 8 octobre 2010

Invitation à la soutenance de thèse de Brice AUGUSTIN (Lundi 18 octobre 2010 à 11h, au LIP6, salle 105)

Bonjour,

C'est avec le plus grand plaisir que je vous invite à ma soutenance de
thèse intitulée :

"Traçage de Routes Internet en présence de Répartition de Charge /
Tracing Internet Routes under Load Balancing".

Ainsi qu'au pot qui suivra.

La soutenance se déroulera le :

Lundi 18 octobre 2010 à 11h00, au LIP6 salle 105 (barre 25-26)

http://www.upmc.fr/fr/universite/campus_et_sites/a_paris_et_en_idf/campus_jussieu2.html

Le pot se déroulera en salle 101 (barre 26-00).

=========
Abstract
=========
Traceroute is the most popular tool to discover the path
between two machines in the internet. Uses range from the diagnosis of network
problems to the assemblage of internet maps. It works under the
assumption that
just one single path exists between a pair of end-hosts, at any given time.
However, most commercial routers have load balancing
capabilities. If network administrators turn this feature on,
then a stream of packets from a source to a destination can follow
different paths. Under load balancing, traceroute suffers from two
deficiencies. First, it measures inaccurate paths, inferring
a number of false links and measurement artifacts. Second, it is unable to
detect all the available paths. For traceroute users, the consequences
are serious. Network operators diagnose wrong paths, while researchers
assemble and work on buggy internet maps.

This thesis presents a new traceroute implementation, called Paris traceroute,
which solves classic traceroute's problems under load balancing. By
maintaining
a constant flow identifier (defined as the 5-tuple: source and
destination addresses and ports, and protocol), it measures accurate paths,
therefore avoiding a majority of measurement artifacts caused by load
balancing.
In addition, its adaptive probing algorithm reports complete paths under
load balancing, while classic traceroute sends too few probes to have even a
moderate indication of the presence of load balancing.

We use Paris traceroute to characterize the extent of the deployment of
load balancing in today's internet. Our measurement study from
hundreds of source machines to thousands of destinations reveals that
50\% of the source-destination pairs traverse a per-flow load balancer.
A large number of core networks take advantage of load balancing capabilities.
As a result, the multipath routes that we observe generally span a few hops
in a single network, and consist in parallel physical links between
pairs of routers.
Furthermore, those parallel paths generally offer similar properties
(e.g. almost identical
delays).
These findings dramatically contrast with the traditional model
of an internet path, and should prompt researchers to take load balancing into
account in their future work.

=========
Keywords: Internet measurements, internet topology, traceroute,
load balancing, multipath routing.
=========

=========
Résumé
=========
Traceroute est l'outil le plus couramment utilisé pour découvrir le
chemin entre
deux machines sur internet. Il permet aussi bien de diagnostiquer des pannes
réseau que d'assembler des cartes d'internet. Il opère en partant du principe
qu'il n'existe qu'un seul et unique chemin entre deux machines distantes, à
tout moment. Cependant, la plupart des routeurs actuels présentent des
possibilités
de répartition de charge. Si les opérateurs réseau activent cette
fonctionnalité,
alors un flot de paquets transitant d'une source vers une destination peut
suivre différents chemins choisis par le routeur répartissant la charge.
En présence de répartition de charge, traceroute présente deux graves
défaillances.
D'une part, il mesure des chemins inexacts, en inférant de nombreux
faux liens et
autres artefacts de mesure. D'autre part il est incapable de détecter tous les
chemins possibles. Pour les utilisateurs de traceroute, les conséquences sont
graves. Les opérateurs réseau diagnostiquent des pannes sur de mauvais
chemins, tandis
que les chercheurs assemblent et travaillent sur des cartes comportant
des erreurs.

Cette thèse présente une nouvelle implémentation de traceroute, nommée
Paris traceroute, qui résout les problèmes rencontrés par le
traceroute classique en présence de répartition de charge. En maintenant
constant l'identifiant de flot des sondes qu'il émet (un identifiant
de flot est défini
par le 5-tuple: adresses et ports source et destination, et
protocole), il mesure
des chemins exacts, et donc il évite la majorité des artefacts de mesure
causés par les répartiteurs de charge. De plus, son algorithme de traçage
adaptatif découvre des multichemins complets en présence de répartition de
charge, alors que le traceroute classique émet trop peu de sondes pour avoir
une indication raisonnable de la présence de répartition de charge.

Nous utilisons Paris traceroute pour caractériser l'ampleur du déploiement
de la répartition de charge dans l'internet actuel. Nos campagnes de mesures
effectuées depuis des centaines de machines sources, vers plusieurs
milliers de
destinations, révèlent que 50\% des paires source-destination traversent un
répartiteur de charge par flot. Un grand nombre de réseaux de coeur
tirent partie
des capacités de répartition des routeurs. En conséquence, les multichemins
que nous observons s'étendent généralement sur quelques sauts au sein
d'un système autonome donné, et consistent en des liens parallèles
entre deux routeurs. De plus, ces chemins parallèles présentent
généralement des
propriétés similaires, par exemple, des délais pratiquement identiques.
Ces résultats contrastent de façon significative avec le modèle traditionnel
d'un chemin internet, et devraient inciter les chercheurs à prendre en compte
l'existence de la répartition de charge dans leurs travaux futurs.

=========
Mots-Clés : Mesures de l'internet, topologie de l'internet, traceroute,
répartition de charge, routage multichemins.
=========

========
Jury
========
- Jean-Jacques PANSIOT, Professeur, Université de Strasbourg (Rapporteur)
- Olivier BONAVENTURE, Professeur, Université catholique de Louvain
(Rapporteur)

- Matthieu LATAPY, Chercheur CNRS, UPMC Sorbonne Universités (Examinateur)
- Martin MAY, Chercheur, Thomson Labs (Examinateur)
- Abdelhamid MELLOUK, Professeur, Université Paris-Est Créteil, (Examinateur)

- Serge FDIDA, Professeur, UPMC Sorbonne Universités (Directeur)
- Timur FRIEDMAN, Maître de Conférences, UPMC Sorbonne Universités (Encadrant)
- Renata TEIXEIRA, Chercheuse CNRS, UPMC Sorbonne Universités (Encadrante)

Cordialement,

Brice Augustin

lundi 27 septembre 2010

Rectification: Soutenance de thèse de Idrissa SARR

Comme vous en avez probablement rendu compte, le 7 octobre est un jeudi au
lieu d'un lundi.

Désolé!
Idrissa SARR

Veuillez excuser pour les éventuels envois multiples.

Bonjour,

J'ai le plaisir de vous inviter à ma soutenance de thèse qui aura lieu le
lundi 7 octobre 2010 à Jussieu dans la salle 211 (barre 55-65) à partir
de 14h.
http://www.upmc.fr/fr/universite/campus_et_sites/a_paris_et_en_idf/campus_jussieu2.html

Vous êtes également invités au pot qui suivra.

Titre de la thèse :
"Routage de transactions dans une base de données à large échelle".

Jury

Directeur de thèse:
Anne Doucet Lip6

Encadrant:
Hubert Naacke Lip6

Rapporteurs:
Esther Pacitti LIRMM
Rachid Guerraoui EPFL

Examinateurs:
Pierre Sens Lip6
Gabriel Antoniu INRIA
Stepéhane Gançarski LIp6
Samba Ndiaye UCAD

Résumé
La réplication dans les bases de données a été largement étudiée, au cours
des trois dernières décennies. Elle vise à améliorer la disponibilité des
données et à augmenter la performance d'accès aux données. Un des défis
majeurs de la réplication est de maintenir la cohérence mutuelle des
répliques, lorsque plusieurs d'entre elles sont mises à jour,
simultanément, par des transactions.

Des solutions qui relèvent partiellement ce défi pour un nombre restreint
de bases de données reliées par un réseau fiable existent. Toutefois, ces
solutions ne sont pas applicables à large échelle. Par ailleurs,
l'antinomie entre les besoins de performances et ceux de cohérence étant
bien connue, l'approche suivie dans cette thèse consiste à relâcher les
besoins de cohérence afin d'améliorer la performance d'accès aux données.

Dans cette thèse, nous considérons des applications transactionnelles
déployées à large échelle et dont les données sont hébergées dans une
infrastructure très dynamique telle qu'un système pair-à-pair.
Nous proposons une solution intergicielle qui rend transparente la
distribution et la duplication des ressources mais aussi leur
indisponibilité temporaire. Nous définissons deux protocoles pour
maintenir la cohérence globale : un premier protocole ordonne les
transactions à partir de la définition a priori des données accédées, et
un deuxième qui détermine un ordre plus souple, en comparant les données
accédées, le plus tardivement possible, juste avant la validation des
transactions.
Toutes les solutions proposées tolèrent les pannes franches,
fonctionnalité essentielle pour que les résultats de cette thèse puissent
être mis en œuvre à très large échelle.
Finalement, nous avons implémenté nos solutions pour les valider
expérimentalement. Les tests de performances montrent que la gestion des
métadonnées est efficace et améliore le débit transactionnel et que la
redondance de l'intergiciel diminue le temps de réponse face aux
situations de pannes.


Idrissa Sarr
--
Ph.D. Student
Laboratoire d'Informatique de Paris 6
Tel SN: +221 775 236 257
Tel FR: +3 1 44 27 87 56
http://www-poleia.lip6.fr/~sarr

--
Ph.D. Student
Laboratoire d'Informatique de Paris 6
Tel SN: +221 775 236 257
Tel FR: +3 1 44 27 87 56
http://www-poleia.lip6.fr/~sarr

Soutenance de thèse de Idrissa SARR

Veuillez excuser pour les éventuels envois multiples.

Bonjour,

J'ai le plaisir de vous inviter à ma soutenance de thèse qui aura lieu le
lundi 7 octobre 2010 à Jussieu dans la salle 211 (barre 55-65) à partir
de 14h.
http://www.upmc.fr/fr/universite/campus_et_sites/a_paris_et_en_idf/campus_jussieu2.html

Vous êtes également invités au pot qui suivra.

Titre de la thèse :
"Routage de transactions dans une base de données à large échelle".

Jury

Directeur de thèse:
Anne Doucet Lip6

Encadrant:
Hubert Naacke Lip6

Rapporteurs:
Esther Pacitti LIRMM
Rachid Guerraoui EPFL

Examinateurs:
Pierre Sens Lip6
Gabriel Antoniu INRIA
Stepéhane Gançarski LIp6
Samba Ndiaye UCAD

Résumé
La réplication dans les bases de données a été largement étudiée, au cours
des trois dernières décennies. Elle vise à améliorer la disponibilité des
données et à augmenter la performance d'accès aux données. Un des défis
majeurs de la réplication est de maintenir la cohérence mutuelle des
répliques, lorsque plusieurs d'entre elles sont mises à jour,
simultanément, par des transactions.

Des solutions qui relèvent partiellement ce défi pour un nombre restreint
de bases de données reliées par un réseau fiable existent. Toutefois, ces
solutions ne sont pas applicables à large échelle. Par ailleurs,
l'antinomie entre les besoins de performances et ceux de cohérence étant
bien connue, l'approche suivie dans cette thèse consiste à relâcher les
besoins de cohérence afin d'améliorer la performance d'accès aux données.

Dans cette thèse, nous considérons des applications transactionnelles
déployées à large échelle et dont les données sont hébergées dans une
infrastructure très dynamique telle qu'un système pair-à-pair.
Nous proposons une solution intergicielle qui rend transparente la
distribution et la duplication des ressources mais aussi leur
indisponibilité temporaire. Nous définissons deux protocoles pour
maintenir la cohérence globale : un premier protocole ordonne les
transactions à partir de la définition a priori des données accédées, et
un deuxième qui détermine un ordre plus souple, en comparant les données
accédées, le plus tardivement possible, juste avant la validation des
transactions.
Toutes les solutions proposées tolèrent les pannes franches,
fonctionnalité essentielle pour que les résultats de cette thèse puissent
être mis en œuvre à très large échelle.
Finalement, nous avons implémenté nos solutions pour les valider
expérimentalement. Les tests de performances montrent que la gestion des
métadonnées est efficace et améliore le débit transactionnel et que la
redondance de l'intergiciel diminue le temps de réponse face aux
situations de pannes.


Idrissa Sarr
--
Ph.D. Student
Laboratoire d'Informatique de Paris 6
Tel SN: +221 775 236 257
Tel FR: +3 1 44 27 87 56
http://www-poleia.lip6.fr/~sarr

samedi 25 septembre 2010

Soutenance de thèse d'Ivan Noyer

Bonjour,

J'ai le plaisir de vous inviter à la soutenance de ma thèse intitulée :

" Trois études sur l'implantation des matrices en FoCaLiZe, les
preuves quantitatives et la
réutilisation de preuves"

qui aura lieu le 28 septembre à 10h, campus de Jussieu tour 25-26, salle 101.

Le jury sera composé de:
Directeur de thèse:
M. Renaud Rioboo (ENSIIE)

Rapporteurs:
M. Gilles Dowek (LIX)
M. Choukri-Bey Ben Yelles (IUT Valence)

Examinateurs:
Mme. Alessandra Carbone (CNRS-UPMC)
M. Jacques Carette (McMaster University)
M. Roberto Di Cosmo (PPS)
M. Claudio Sacerdotti Coen (University of Bologna)

Résumé :

L'environnement de développement sûr FoCaLize
(http://focalize.inria.fr/) permet l'écriture de spécifications,
l'implantation de méthodes et l'écriture de la preuve de l'adéquation
d'un code à sa spécification.

Cette thèse part de la volonté d'implanter une bibliothèque de
matrices dans FoCaLize. Nous proposons une spécification dans laquelle
toutes les matrices sur un même anneau commutatif unitaire sont vues
comme des éléments d'une algèbre unitaire unique. Dans un tel
contexte, les opérateurs d'addition et de multiplication sont des
fonctions totales. Cela permet de les coder par des méthodes
récursives dans un type de données ne tenant pas compte de la
dimension des matrices.

Nous nous sommes ensuite intéressés au problème de la
recherche de spécifications dans la bibiothèque FoCaLize, laquelle est
considérée comme une base de données de formules du premier ordre
(prouvées ou non). La recherche d'une spécification aboutit s'il
existe une formule de la bibliothèque dont l'information cherchée soit
une conséquence dans un certain fragment de la logique du premier
ordre. Ce fragment est celui des preuves dites "quantitatives". Ces
dernières sont des preuves n'utilisant que les règles de
quantification du calcul des séquents et se terminant par la règle
axiome. Nous établissons un critère nécessaire et suffisant pour la
réussite de notre recherche, retrouvant ainsi un résultat connu. Nous
donnons deux formalisations équivalentes de notre critère. Nous
caractérisons ensuite l'admissibilité de la règle de coupure dans
notre fragment de la logique par une méthode que nous pensons originale.

Dans la foulée nous mettons en évidence une condition
nécessaire et suffisante pour qu'une modification des symboles
fonctionnels et relationnels dans un séquent du premier ordre permette
d'obtenir un nouveau séquent possédant une preuve quantitative. Nous
utilisons ce résultat pour proposer une méthode de réutilisation de
preuve par analogie dans la lignée de travaux antérieurs.

Finalement, nous décrivons informellement comment utiliser ces
résultats concernant la logique du premier dans le cadre de
l'environnement FoCaLiZe.

vendredi 24 septembre 2010

[mutekh-users] Soutenance de thèse Alexandre Becoulet

Bonjour,

J'ai le plaisir de vous inviter à la soutenance de ma thèse intitulée

"Conception d'un système d'exploitation supportant nativement les
architectures multiprocesseurs hétérogènes à mémoire partagée"

qui aura lieu le 28 septembre à 14h,
campus de Jussieu tour 25-26, salle 105.

Le jury sera composé de:

Directeur de thèse:
M. Alain Greiner (LIP6)

Encadrant de thèse:
M. Franck Wajsburt (LIP6)

Rapporteurs:
M. Paul Feautrier (ENS LYON)
M. Frédéric Pétrot (TIMA)

Examinateurs:
M. François Charot (INRIA)
M. Akim Demaille (Gostai)
M. Renaud Pacalet (ENST)
M. Pierre Sens (LIP6)

Résumé:

Cette thèse présente le système d'exploitation MutekH
(http://www.mutekh.org/), capable de s'exécuter nativement sur
une plateforme matérielle multiprocesseur, où les processeurs
peuvent être de complexité différente et disposer de
spécificités ou de jeux d'instructions différents.

Les travaux présentés ici s'insèrent dans un contexte où les systèmes
multi-core et les processeurs spécialisés permettent tous deux de
réduire la consommation énergétique et d'optimiser les performances
dans les systèmes embarqués et dans les systèmes sur puce.

Les autres solutions logicielles existantes permettant l'exécution
d'applications sur des plateformes multiprocesseurs hétérogènes
ne permettent pas, à ce jour, la communication par mémoire partagée,
telle qu'on l'envisage habituellement pour les systèmes
multiprocesseurs homogènes. Notre solution est la seule qui permet la
réutilisation du code source d'applications parallèles existantes pour
leur exécution directe par des processeurs différents.

La solution proposée est mise en oeuvre en deux phases: grâce au
développement d'un noyau dont l'abstraction rend
transparente l'hétérogénéité des processeurs, puis à la réalisation d'un
outil spécifique d'édition des liens, capable d'harmoniser le code et
les données des différents fichiers exécutables chargés en mémoire
partagée.

Les résultats obtenus montrent que MutekH permet l'exécution
d'applications préexistantes utilisant des services standards, tels que
les Threads POSIX, sur des plateformes multiprocesseurs hétérogènes
sans dégradation des performances par rapport aux autres systèmes
d'exploitation opérant sur des plateformes multiprocesseurs classiques.

--
Alexandre

mardi 21 septembre 2010

Changement de salle pour la soutenance de thèse de Jean-Philippe Dubus

Bonjour,

Suite à un problème de transports, ma soutenance de thèse, intialement
prévue le jeudi 23 septembre à 14h dans l'amphi 25 aura finalement lieu
à la même date et à la même heure dans la salle de visioconférence de
l'atrium (rez-de-chaussée, entrée 2). Le pot qui suivra la soutenance
est par contre maintenu dans l'amphi 25, après délibération du jury.

Pour rappel des informations liées à la soutenance :

"Prise de décision multiattribut avec le modèle GAI"

=========
Résumé
=========

Les réseaux GAI sont une représentation graphique compacte et expressive
des préférences d'un décideur en Décision Multiattribut, c'est-à-dire
dans des situations où les alternatives sur lesquelles portent les choix
du décideur sont décrites à l'aide d'un ensemble d'attributs (de
caractéristiques). L'exploitation de leur structure graphique permet de
définir des procédures efficaces d'élicitation de préférences
(détermination des préférences à l'aide de questionnaires) ainsi que des
algorithmes assez performants de prise de décision (calcul de
l'alternative préférée du décideur ou des k meilleures alternatives).
Le but de cette thèse est double. Tout d'abord elle vise à étendre les
algorithmes de prise de décision dans des cas où les réseaux GAI sont
denses, c'est-à-dire dans des situations où leur structure ne permet pas
aux algorithmes de l'état de l'art de s'exécuter en un temps
raisonnable. Pour cela, une nouvelle méthode de triangulation approchée
a été développée, qui produit des réseaux GAI approchés sur lesquels des
mécanismes d'inférence adaptés permettent d'obtenir les alternatives
optimales des réseaux GAI d'origine. Ensuite, elle propose de nouvelles
méthodes d'inférence en Décision multicritère. Plus précisément, elle
propose des approches pour déterminer des frontières de Pareto (exactes
ou approchées avec garantie de performance) ou des frontières de Lorenz.
Elle propose également des algorithmes pour déterminer des solutions
optimales dans les cas où les critères peuvent être agrégés via des
opérateurs tels que OWA (Ordered Weighted Average), l'intégrale de
Choquet ou bien encore la norme de Tchebycheff.

=========
Abstract
=========

GAI networks are a graphical model, both compact and expressive, for
representing the preferences of a Decision Maker in the context of
Multiattribute Decision Making, i.e., in situations where the set of
alternatives among which the Decision Maker has to make decisions are
described as a set of attributes (or features). GAI network's graphical
structures are exploited to develop efficient elicitation procedures
(determination of the Decision Maker's preferences using questionnaires)
as well as effective Decision Making algorithms (e.g., computing the
preferred alternative or the k-best alternatives).
The goal of this PhD thesis is twofold. First, it extends the
aforementioned state-of-the-art Decision Making algorithms to be able to
cope with dense GAI networks, i.e., with situations where the GAI
network's treewidth is too high for these algorithms to complete in a
reasonable amount of time. For this purpose, a new triangulation method
has been developed which produces approximated GAI networks on which
tailored inference mechanisms determine the alternatives that are
actually optimal for the original GAI network. Second, we have proposed
new inference algorithms for Multicriteria Decision Making. More
precisely, new approaches for determining Pareto-optimal sets (exact and
approximate with performance guarantee) and Lorenz-optimal sets have
been developed. In addition, we have also proposed new algorithms for
computing the optimal solutions in situations where criteria are
aggregated using various operators like OWA (Ordered Weighted Average),
Choquet integrals and Tchebycheff's norm.


========
Jury
========

- Christophe GONZALES, Professeur à l'Université Pierre et Marie Curie
(directeur de thèse)
- Philippe LERAY, Professeur à l'Université de Nantes (rapporteur)
- Régis SABBADIN, Chargé de recherche INRA (rapporteur)
- Nicolas MAUDET, Maître de conférence à l'Université Paris Dauphine
(examinateur)
- Alix MUNIER-KORDON, Professeur à l'Université Pierre et Marie Curie
(examinateur)
- Patrice PERNY, Professeur à l'Université Pierre et Marie Curie
(examinateur)


========
Accès
========
Plan du campus : http://www.rhs.upmc.fr/plan2004.pdf