vendredi 10 décembre 2010

Soutenance de thèse de Young-Min KIM du jeudi 16 décembre **Lieu corrigé**

Bonjour,

Désolée pour les réceptions multiples. Je corrige le lieu de ma
soutenance de thèse.
Elle aura lieu dans la salle 105 - couloir 25-26, 1er étage, *tour 26*
(pas tour 25).
Je joins l'annonce corrigée.

Bien cordialement,
Young-Min KIM
================================================================================

Bonjour,

C'est avec le plus grand plaisir que je vous invite à ma soutenance de
thèse intitulée

<<Apprentissage d'Espaces de Concepts pour le Partitionnement
Non-Supervisé de Documents Textuels>>

ainsi qu'au pot qui suivra.

=============
Date et lieu
=============
Jeudi 16 décembre 2010 à 14:00 au LIP6, 4 place Jussieu 75005 Paris
salle 105 - couloir 25-26, 1er étage, *tour 26*.

=============
Jury
=============
M. Bernd AMANN, Université Pierre et Marie Curie, Examinateur
M. Massih-Reza AMINI ,Université Pierre et Marie Curie, Directeur de thèse
M. Patrice BELLOT, Université d'Avignon, Examinateur
M. Patrick GALLINARI, Université Pierre et Marie Curie, Directeur de thèse
M. Eric GAUSSIER, Université Joseph Fourier, Rapporteur
M. Pascal PONCELET, Université Montpellier 2, Rapporteur

=============
Résumé
=============

La tâche de partitionnement de documents est l'un des problèmes centraux
en Recherche d'Information (RI). Les résultats de partitionnement
peuvent non-seulement donner une indication sur la structure d'une
collection de documents, mais ils sont aussi souvent utilisés dans
différents tâches de RI.

Dans cette thèse, nous nous somme intéressés à développer des techniques
probabilistes à base de modèles latents pour cette tâche. Dans ce but,
nous proposons quatre techniques différentes basées sur l'observation
que le partitionnement est bien plus effectif dans un espace de concepts
trouvé automatiquement que dans l'espace de sac-de-mots.

Cette observation est issue des résultats d'un partitionnement en deux
étapes, où dans une première phase, les mots de la collection sont
regroupés suivant l'hypothèse que les termes apparaissant dans les mêmes
documents avec les mêmes fréquences sont similaires. Les documents sont
ensuite regroupés dans l'espace induit par ces groupements de mots,
appelés concepts de mots. Sur ce principe, nous étendons le modèle
latent PLSA pour un partitionnement simultané des mots et des documents.
Nous proposons ensuite une stratégie de sélection de modèles permettant
de trouver efficacement le meilleur modèle parmi tous les choix
possibles. Et aussi, nous montrons comment le PLSA peut être adaptés
pour le partitionnement multi-vus de documents multi-langues.


Bien cordialement,
Young-Min KIM

mercredi 8 décembre 2010

Invitation à la soutenance de thèse de Joël Porquet (lundi 13 décembre à 15h, Jussieu, salle 26-25/105)

Bonjour,

C'est avec grand plaisir que je vous renouvelle l'invitation à la
soutenance de ma thèse intitulée :

"Architecture de sécurité dynamique pour systèmes multiprocesseurs
intégrés sur puce"

============
Date et lieu
============

La soutenance se déroulera le lundi 13 décembre 2010 à 15h00 au LIP6,
salle 105, couloir 25-26 (1er étage).

Vous êtes également invités au pot qui suivra.

======
Résumé
======

Cette thèse présente l'approche multi-compartiment, qui autorise un
co-hébergement sécurisé et flexible de plusieurs piles logicielles
autonomes au sein d'un même système multiprocesseur intégré sur puce.

Dans le marché des appareils orientés multimédia, ces piles logicielles
autonomes représentent généralement les intérêts des différentes parties
prenantes. Ces parties prenantes sont multiples (fabricants, fournisseurs
d'accès, fournisseurs de contenu, utilisateurs, etc.) et ne se font pas
forcément confiance entre elles, d'où la nécessité de trouver une manière
de les exécuter ensemble mais avec une certaine garantie d'isolation. Les
puces multimédia étant matériellement fortement hétérogènes -- peu de
processeurs généralistes sont assistés par une multitude de processeurs ou
coprocesseurs spécialisés -- et à mémoire partagée, il est difficile voire
impossible de résoudre cette problématique uniquement avec les récentes
techniques de co-hébergement (par exemple, la virtualisation).

L'approche multi-compartiment consiste en un nouveau modèle de confiance,
plus flexible et générique que l'existant, qui permet à des piles
logicielles variées de s'exécuter simultanément et de façon sécurisée sur
des plateformes matérielles hétérogènes. Le cœur de l'approche est
notamment composé d'un mécanisme global de protection, responsable du
partage sécurisé de l'unique espace d'adressage et logiquement placé dans
le réseau d'interconnexion afin de garantir le meilleur contrôle. Cette
approche présente également des solutions pour le partage des
périphériques, notamment des périphériques ayant une capacité DMA, entre
ces piles logicielles. Enfin, l'approche propose des solutions pour le
problème de redirection des interruptions matérielles, un aspect
collatéral au partage des périphériques.

Les principaux composants des solutions matérielles et logicielles
proposées sont mis en œuvre lors de la conception d'une plateforme
d'expérimentation, sous la forme d'un prototype virtuel. Outre la
validation de l'approche, cette plateforme permet d'en mesurer le coût, en
termes de performance et de surface de silicium. Concernant ces deux
aspects, les résultats obtenus montrent que le coût est négligeable.

Mots-clés : sécurité, système multiprocesseur intégré sur puce, réseau sur
puce, co-hébergement logiciel, virtualisation, conception
matérielle-logicielle, prototypage virtuel.

====
Jury
====

Alain GREINER, Professeur à l'UPMC (Directeur de thèse)
Tanguy RISSET, Professeur à l'INSA-Lyon (Rapporteur)
Albert COHEN, Directeur de recherche à l'INRIA (Rapporteur)
Jean-Claude BAJARD, Professeur à l'UPMC (Examinateur)
Renaud PACALET, Directeur d'étude à Telecom ParisTech (Examinateur)
Bernard KASSER, Directeur R&D à STMicroelectronics (Examinateur)
Christian SCHWARZ, Ingénieur R&D à Nagravision (Examinateur)

========
Accès
========

LIP6 : 4 Place Jussieu 75005 Paris
Plan d'accès : http://www.lip6.fr/informations/comment.php

Bien cordialement,

Joël Porquet

Invitation à la soutenance de thèse de Samuel BERNARD (vendredi 10 décembre à 10h, Jussieu, salle 26-25/105)

Bonjour,

C'est avec le plus grand plaisir que je vous invite à ma soutenance de
thèse intitulée :
« Algorithmique répartie : vaincre les contraintes des réseaux modernes »

Ainsi qu'au pot qui suivra.

La soutenance se déroulera le vendredi 10 décembre 2010 à 10h00, à
Jussieu, salle 26-25/105 (escalier 26, barre 26-25, 1er étage).
Le pot se déroulera en salle 26-00/116 (escalier 26, barre 26-00, 1er
étage).

Voici un plan d'accès :
http://www.upmc.fr/fr/universite/campus_et_sites/a_paris_et_en_idf/campus_jussieu2.html


=========
Résumé
=========

Dans cette thèse, nous examinons trois types de réseaux très différents.
Les réseaux unidirectionnels anonymes, pouvant servir de modèle à des
réseaux de capteurs légers communicant sans fil. Les réseaux dits «
pair-à-pair » permettant l'interaction de milliers voire de millions
d'utilisateurs différents. Et enfin les réseaux distribués « classiques
» servant de base à des jeux vidéo répartis utilisant des dizaines de
nœuds. Le point commun de nos travaux est que nous prenons en compte, à
chaque fois, un type de panne (ou faute) caractéristique du réseau
sous-jacent.
Ainsi, dans les réseaux unidirectionnels, nous résolvons le problème de
coloriage de sommets de manière auto-stabilisante. Ce problème, qui est
à la base de nombreux algorithmes distribués, fournit une indication
claire de la différence de complexité algorithmique avec les réseaux
bidirectionnels. Le caractère auto-stabilisant nous assure que, même
après un nombre arbitraire de fautes, l'algorithme retrouvera un
fonctionnement correct, sans intervention extérieure.
Dans les réseaux pair-à-pair, nous nous attaquons à deux des principales
difficultés de ce type de réseau : l'attrition et la sécurité. Nous
étudions ainsi la faisabilité d'un système de sauvegarde collaborative
par rapport à un taux élevé d'attrition, c'est-à-dire face à un grand
nombre de départs et d'arrivées pendant l'exécution du système. Ensuite,
nous présentons un algorithme de test de secrets à divulgation nulle de
connaissance, utilisé par les pairs pour savoir s'ils partagent un même
secret. Les pannes sont alors représentées par la présence
d'utilisateurs malicieux cherchant à corrompre le système.
Enfin, au travers de la thématique des jeux vidéo, nous proposons un
algorithme optimiste et robuste de diffusion totalement ordonnée pour
résoudre le problème de cohérence. Ce problème se pose lorsque que l'on
distribue la simulation d'un système, ici un jeu vidéo multijoueur. Nous
assurons le maintien de cette cohérence même en présence de fautes,
matérialisées ici par un crash ou la déconnexion de certains joueurs.

=========
Mots clés
=========

algorithme, tolérance aux fautes, auto-stabilisation, réseau
unidirectionnel, pair-à-pair, confidentialité, jeu vidéo multijoueur,
diffusion totalement ordonnée

========
Jury
========

Rapporteurs :
Eddy Caron, MCF. HDR, ENS de Lyon
Bertrand Ducourthial, Professeur, UTC

Soutenance devant le jury composé de :
Bertrand Ducourthial, Professeur, UTC (Rapporteur)
Serge Fdida, Professeur, UPMC (Examinateur)
Fabien Mathieu, Ing. de rech., Orange Labs (Examinateur)
Gwendal Simon, MCF., Telecom Bretagne (Examinateur)
Sébastien Tixeuil, Professeur, UPMC (Directeur)
Maria Potop-butucaru, MCF., UPMC (Co-encadrant)


Cordialement,
Samuel BERNARD

lundi 6 décembre 2010

Soutenance de thèse de Zach Lewkovicz

Bonjour,

C'est avec un très grand plaisir que je vous inviter à la soutenance de ma
thèse intitulée :

"Modélisation et simulation du marché du travail à l'aide de systèmes
multi-agents"

============
Date et lieu
============

La soutenance se déroulera vendredi 10 décembre 2010 à 15h00 au LIP6,
salle 101, couloir 25-26 (1er étage).

Vous êtes également invités au pot qui suivra.

======
Résumé
======

Le marché du travail (MdT) est le lieu de rencontre entre l'offre de main
d'oeuvre, proposée par les individus et la demande du travail, faite par
les firmes.
La simulation multi-agents offre une approche puissante pour modéliser de
tels processus sociaux.
Toutefois, les modèles actuels simplifient fortement les mécanismes
comportementaux et les processus décisionnels des agents.
Ces éléments sont pourtant reconnus comme ayant un impact très important
sur la dynamique du MdT puisqu'ils ont la capacité de l'expliquer au
niveau micro-économique.
Afin d'améliorer la descriptivité et l'utilité de la modélisation et de la
simulation du MdT, nous proposons dans cette thèse de représenter les
individus et les firmes comme des unités décisionnelles dont la prise de
décisions dépend de leurs propriétés, leur état et leur perception de
l'environnement.
Nous avons effectué une calibration automatique, une analyse de
sensibilité et une analyse comportementale afin de paramétrer et de
valider le modèle.
L'exploration par simulation du modèle permet notamment de mieux
comprendre la dynamique dans le MdT et de produire des données plus riches
et aussi des données qui sont inobservables dans une étude statistique
classique. Ainsi, le modèle développé exhibe un gain en descriptivité
important, permettant surtout de décrire les raisons qui ont amené un
phénomène observé au niveau macro-économique à partir des décisions prises
au niveau micro-économique.
Ce modèle a été calibré sur le MdT français.
Par exemple, toutes les interactions sont régies par la législation du
travail française.
Son pouvoir explicatif permet de générer des explications fines des
résultats (chômage des jeunes/seniors etc.).

====
Jury
====

* Amal EL FALLAH SEGHROUCHNI, Professeur [univ. Pierre et Marie Curie -
Paris 6] - Directrice de thèse
* Jean-Daniel KANT, Maître de conférences [univ. Pierre et Marie Curie -
Paris 6] - Encadrant
* Philippe MATHIEU, Professeur [univ. Lille 1] - Rapporteur
* Christophe SIBERTIN-BLANC, Professeur [univ. Capitole Toulouse 1] -
Rapporteur
* Gérard BALLOT, Professeur [univ. Assas - Paris 2] - Examinateur
* Jacques MALENFANT, Professeur [univ. Pierre et Marie Curie - Paris 6] -
Examinateur


========
Accès
========

LIP6 : 4 Place Jussieu 75005 Paris
Plan d'accès : http://www.lip6.fr/informations/comment.php

Cordialement,

Zach Lewkovicz


--

Zach LEWKOVICZ, PhD Student (UPMC)
http://www-poleia.lip6.fr/~lewkovicz/
Computer Science Laboratory of Paris VI - LIP6
Corridor 25-26
4th Floor
Office 406
Boîte courrier 169
4, place Jussieu
PARIS cedex 05
Tel: + 33 1 44 27 54 80
Fax: + 33 1 44 27 88 89
zach.lewkovicz@lip6.fr

Soutenance de thèse de Young-Min KIM du jeudi 16 décembre

Bonjour,

C'est avec le plus grand plaisir que je vous invite à ma soutenance de
thèse intitulée

<<Apprentissage d'Espaces de Concepts pour le Partitionnement
Non-Supervisé de Documents Textuels>>

ainsi qu'au pot qui suivra.

=============
Date et lieu
=============
Jeudi 16 décembre 2010 à 14:00 au LIP6, 4 place Jussieu 75005 Paris
salle 105 - couloir 25-26, 1er étage, tour 25.

=============
Jury
=============
M. Bernd AMANN, Université Pierre et Marie Curie, Examinateur
M. Massih-Reza AMINI ,Université Pierre et Marie Curie, Directeur de thèse
M. Patrice BELLOT, Université d'Avignon, Examinateur
M. Patrick GALLINARI, Université Pierre et Marie Curie, Directeur de thèse
M. Eric GAUSSIER, Université Joseph Fourier, Rapporteur
M. Pascal PONCELET, Université Montpellier 2, Rapporteur

=============
Résumé
=============

La tâche de partitionnement de documents est l'un des problèmes centraux
en Recherche d'Information (RI). Les résultats de partitionnement
peuvent non-seulement donner une indication sur la structure d'une
collection de documents, mais ils sont aussi souvent utilisés dans
différents tâches de RI.

Dans cette thèse, nous nous somme intéressés à développer des techniques
probabilistes à base de modèles latents pour cette tâche. Dans ce but,
nous proposons quatre techniques différentes basées sur l'observation
que le partitionnement est bien plus effectif dans un espace de concepts
trouvé automatiquement que dans l'espace de sac-de-mots.

Cette observation est issue des résultats d'un partitionnement en deux
étapes, où dans une première phase, les mots de la collection sont
regroupés suivant l'hypothèse que les termes apparaissant dans les mêmes
documents avec les mêmes fréquences sont similaires. Les documents sont
ensuite regroupés dans l'espace induit par ces groupements de mots,
appelés concepts de mots. Sur ce principe, nous étendons le modèle
latent PLSA pour un partitionnement simultané des mots et des documents.
Nous proposons ensuite une stratégie de sélection de modèles permettant
de trouver efficacement le meilleur modèle parmi tous les choix
possibles. Et aussi, nous montrons comment le PLSA peut être adaptés
pour le partitionnement multi-vus de documents multi-langues.


Bien cordialement,
Young-Min KIM

dimanche 5 décembre 2010

Invitation à la soutenance de thèse de Zied Ben Houidi (Mardi 21 décembre 2010 à 11h, au LIP6, salle 105)

Bonjour,

J'ai le plaisir de vous inviter à ma soutenance de thèse intitulée
"Scalable Routing in Provider-Provisioned Virtual Private Networks".

=============
Date et lieu
=============

Mardi 21 Décembre à 11 heures dans la salle 101, couloir 25/26, 1er étage.

Vous êtes également invités au pot qui suivra.

=========
Abstract
=========

Companies often have sites spread in distant locations that need to
communicate. Instead of building their own communication network, most
companies today prefer to contract a Virtual Private Network (VPN)
service. In this service model, a VPN service provider shares its
network infrastructure among multiple enterprises in order to
interconnect their distant sites, reducing thereby the communication
costs for each enterprise. Routing is the main task of VPN service
providers; it ensures the communication between VPN sites. The
performances and the robustness of routing are crucial for both VPN
customers and providers. VPN customers need availability, whereas VPN
providers, on the other hand, want a scalable solution to connect the
maximum number of customers. The most common provider-provisioned VPN
technology uses the Internet inter-domain routing protocol BGP for
routing. In Internet backbones, BGP slow convergence can hurt
availability and BGP routing table sizes have grown exponentially over
time, which threatens the scalability of the Internet whole routing
system.

Although they use the same routing protocol, VPN backbones are very
different from Internet backbones. This thesis studies how this
difference impacts the routing convergence and scalability of VPN
provider backbones. First, our measurements on a large VPN provider
backbone reported a route explosion phenomenon similar to that
observed on Internet backbones, if not worse. Some routers in such
networks have to handle from three to almost ten times the number of
BGP routes that a core Internet router handles. This route explosion
has a direct impact on the resiliency of such networks. In fact, some
failures can cause routers to loose a large fraction of their routing
tables. Our measurements showed that, due to the high number of
routes, routers can spend an immoderate amount of time to receive the
missing routes and recover. We call this recovery step, a BGP routing
table transfer. Setting aside the table transfer delays, some routers
in large VPN networks are unable to keep up with the ever-increasing
number of VPN routes, which threatens the expansion of VPN provider
backbones and their ability to host new customers. In order to
lengthen the life of VPN backbones, prior work proposed incremental
solutions. Although these solutions proved helpful, we argue that they
fail to address the root cause of current scalability problems, namely
the original design of BGP and its inadequacy to the VPN routing
specific requirements. We show that BGP is not the best for what we
defined as VPN routing and propose a new approach for VPN routing.

The contributions of this thesis are threefold. The first is a passive
measurement study to understand the VPN route explosion phenomenon and
characterize it using routing data collected from a large VPN
provider. The second is a controlled experiment based study to explain
the reasons behind slow BGP routing table transfers. The results of
this study also apply to Internet backbones in general. The third
contribution is a new scalable approach for VPN routing.


==========
Jury
==========

- Jon Crowcroft, University of Cambridge (Rapporteur)
- James Roberts, INRIA, (Rapporteur)

- Christophe Diot, Technicolor (Examinateur)
- Sébastien Tixeuil, UPMC Sorbonnes Universités (Examinateur)

- Renata Teixeira, UPMC Sorbonnes Universités & CNRS (Directeur)
- Serge Fdida , UPMC Sorbonnes Universités (Co-directeur)
- Mickael Meulle, France Telecom R&D, Orange Labs (Encadrant)


==================
Accès
==================

LIP6 : 4 Place Jussieu 75005 Paris
Détails: http://www.lip6.fr/informations/comment.php

Cordialement,
Zied Ben Houidi

samedi 4 décembre 2010

Invitation à la soutenance de thèse de Mehdi BEZAHAF (Jeudi 09 décembre 2010 à 11h, au LIP6, salle 105)

Bonjour,

C'est avec le plus grand plaisir que je vous invite à ma soutenance de
thèse intitulée :

"Gestion Transparente de la Mobilité dans un Environnement Maillé Sans-Fil Réel /
Transparent Mobility Management in a Real Wireless Mesh Environment".

Ainsi qu'au pot qui suivra.

La soutenance se déroulera le :

Jeudi 09 décembre 2010 à 11h00, au LIP6 salle 105 (barre 25-26) 1er étage.

http://www.upmc.fr/fr/universite/campus_et_sites/a_paris_et_en_idf/campus_jussieu2.html

Le pot se déroulera en salle 101 (barre 26-00) 1er étage.

=========
Abstract
=========
Over the last decade, we have witnessed a great success of wireless communications. 
In our daily life, most of electronic devices are equipped with a wireless interface, allowing users to be more mobile and pervasive. This requires specific communication architectures that respond to the challenges imposed by new user behaviors.
Wireless mesh networks fall in this category. Indeed, with their two-tiered architecture, they concentrate routing on a stable wireless backbone, while mobile clients are totally free to move around. In this context, one of the main challenges is to provide an efficient localization service so that clients can communicate with each other in a transparent way. This thesis investigates micro-mobility issues in wireless mesh networks by analyzing mobility management performance on real testbeds through measurements. The contributions are threefold: 

Enhanced mobility management. Most of existing solutions rely on some variant of full or partial flooding, which causes the well known broadcast storm problem, and very often they need support from end-users' devices. To deal with this latter issue, we propose Enhanced Mobility Management (EMM), a new efficient solution that does not rely on any modification or additional software on  client side, thus being totally transparent for end-users. EMM takes advantage of the existing Neighbor Discovery Protocol (NDP) cache to keep track of the latest association and uses this information to trigger an update in order to re-route packets. Measurements show that EMM significantly improve performance of mobility management. 

DHT-based location management. We design, implement, and test LORD, a new DHT-based scalable location management scheme through logical and experimental evaluation on our wireless mesh testbed. The main features of our proposed scheme are that broadcast packets are totally avoided and node localization is transparent to users. We compare it to our previous flooding-based location scheme (EMM). Our results show improved performance both in terms of percentage of dropped packets and handover latency introduced to re-establish open sessions after a user movement.

Link stability. Finally, to study the stability of our DHT approach, we investigate stability of links in wireless environments. We address some interesting questions related to persistence and prevalence of both dominant and sub-dominant routes between nodes in a real deployment. We note that source-destination pairs mostly use the dominant route and the two most sub-dominant routes to communicate. We also investigate the impact of the distance between a source and a destination on stability of routes. It turns out that the longer the distance, the larger the number of sub-dominant routes.

=========
Keywords: Multi-hop networks, Wireless mesh networks, Mobility management, Localization service, Distributed hash tables, flooding, Implementation, Experimentation, Wireless Links lifetime, Routing stability.
=========

=========
Résumé
=========
Les communications sans-fil ont fait l'objet durant la dernière décennie d'importantes avancées, poussées par l'expansion d'Internet et par la baisse de prix des appareils électroniques. D'autant plus que ces derniers sont de plus en plus dotés de technologie sans-fil, permettant ainsi aux utilisateurs d'être plus mobile et pervasif. Ces nouveaux besoins de connectivité ubiquitaire ont souligné l'importance des systèmes auto-organisables et des architectures distribuées pour les réseaux sans fil. 

Avec leur architecture à deux niveaux, les réseaux maillés sans-fil font partie de cette catégorie de réseaux, où le routage est concentré sur une partie stable (le premier niveau), qui offre une connectivité à des clients mobiles (le deuxième niveau). Dans ce contexte, le challenge est de préserver d'une façon transparente, les connexions ouvertes d'un client mobile quelque soit le type de ses déplacements. Cette thèse contribue à comprendre mieux la problématique de micro-mobility des clients dans les réseaux maillés sans-fil, et de proposer des approches plus adéquates à ce type de réseau. Les contributions sont au nombre de trois:

Gestion de mobilité avancée. En dépit des efforts déployés dans le domaine de la mobilité dans le contexte des réseaux maillés sans-fil, la plupart des solutions existantes se basent sur une variante de l'inondation totale ou partielle, ce qui provoque des problèmes d'interférences et de passage à l'échelle. D'autant plus que très souvent ces solutions nécessitent une collaboration des dispositifs des utilisateurs finaux. Pour faire face à cette dernière question, nous avons proposé EMM, une nouvelle solution efficace qui ne demande aucune modification ou installation logiciel supplémentaire de la part des clients. EMM se base sur l'utilisation du cache NDP (Neighbor Discovery Protocol) des clients afin de garder une trace de leur dernière association au cours de leurs déplacements. Cette trace est utilisée pour rediriger correctement les paquets à la nouvelle position des clients. Les mesures que nous avons effectuées montrent que l'approche EMM est capable d'améliorer sensiblement les performances de gestion de mobilité en réduisant considérablement le temps de déconnexion et donc les pertes de paquets.

Gestion de localisation distribuée. Nous avons conçu et mis en oeuvre LORD, une nouvelle approche de localisation distribuée, basée sur un mécanisme DHT. Nous avons testé ses performances sur une plateforme réelle en procédant à une évaluation logique et expérimentale. Notre approche est principalement caractérisée par l'exclusivité d'utilisation des paquets unicast (pas d'inondation) et par un service de localisation totalement transparent aux yeux des clients. Nous avons comparé LORD à notre précédente approche basée sur l'inondation (EMM). Les résultats montrent une amélioration des performances tant en termes de perte de paquets qu'en termes de latence nécessaire pour rétablir les sessions ouvertes après le déplacement d'un client.

Stabilité des liens. Comme dernière contribution, et afin d'étudier la stabilité de notre approche LORD, nous avons étudié la stabilité des liens dans un environnement sans-fil. Nous avons abordé quelques questions intéressantes liées à la persistance et la prévalence de la route dominante et les routes sous-dominantes entre les noeuds dans un environnement sans-fil réel. Nous avons remarqué que la plupart des paires source-destination utilisent la route dominante et les deux premières routes sous-dominantes pour communiquer. Nous avons également étudié comment la distance séparant une source et une destination peut-elle impacter la stabilité des routes. Il s'avère que plus la distance est grande, plus le nombre de route sous-dominante augmente.

=========
Mots-Clés : Réseaux Multi-Sauts, Réseaux Maillé sans-fil, Gestion de mobilité, Service de localisation,Table de hachage, Inondation, Implémentation,  Expérimentation, Vie d'un lien sans-fil, Stabilité de route.
=========

========
Jury
========
- Thomas NOEL, Professeur, Université Louis Pasteur de Strasbourg (Rapporteur)
- Vania CONAN, Chercheur, Thales Communications (Rapporteur)

- Pierre SENS, Professeur, UPMC Sorbonne Universités (Examinateur)
- Djamal ZEGHLACHE, Professeur, INT (Examinateur)
- Henrik LUNDGREN, Chercheur, Technicolor Lab, (Examinateur)

- Serge FDIDA, Professeur, UPMC Sorbonne Universités (Directeur)
- Luigi IANNONE, Chercheur, Deutsche Telekom Laboratories -- Berlin (Encadrant)

Cordialement,

Mehdi Bezahaf

mercredi 1 décembre 2010

Soutenance de thèse de Aso Darwesh

Bonjour,
C'est avec le plus grand plaisir que je vous invite à la soutenance de ma
thèse intitulée « Diagnostic cognitif en EIAH : Le système PépiMep »
----------------------------------------------------------------------
Date et lieu :
Mardi 14 Décembre 2010 à 9h00
Au LIP6 (4 Place Jussieu 75005 Paris), Tour 26, 1er étage, couloir 25-26,
salle Louis Laurière, salle 101
Vous êtes également invité au pot qui suivra.
Plan d'accès : http://www.lip6.fr/informations/comment.php
----------------------------------------------------------------------
Le jury est composé de :
Président :
Patrick Brézillon - Professeur Informatique, UPMC
Rapporteurs :
Agathe Merceron - Professeur Informatique UTH, Berlin
ean-Pierre Pécuchet - Professeur Informatique, INSA Rouen
Directeur :
Jean-Marc Labat - Professeur Informatique, UPMC
Encadrante :
Elisabeth Delozanne - Maître de conférences Informatique, UPMC
Examinatrice :
Brigitte Grugeon - Professeur, université Jule Vernes
Invité :
Sébastien Hache - Association Sésamath
----------------------------------------------------------------------
Résumé
L'objectif de notre travail est de concevoir un système de diagnostic
automatique fiable utilisé à grande échelle sur une plateforme
d'enseignement en ligne dans le domaine de l'apprentissage de l'algèbre
élémentaire. Ma thèse s'est déroulée dans le cadre du projet Lingot,
projet de recherche pluridisciplinaire regroupant, des informaticiens, des
didacticiens des mathématiques, des psychologues ergonomes, des
enseignants et des formateurs d'enseignants. Ce projet a deux objectifs
fondamentaux. Le premier consiste à concevoir des EIAH (Environnements
Informatiques pour l'Apprentissage Humain) pour aider les enseignants à
gérer la diversité cognitive des élèves pour l'apprentissage de l'algèbre
au collège. Le deuxième objectif est de fournir aux chercheurs des
dispositifs d'observation pour étudier, sur le long terme, les résultats
d'apprentissage des enseignements dispensés.
Notre apport est double : d'une part il porte sur l'évaluation du
diagnostic et l'amélioration de sa qualité et, d'autre part, il propose un
diagnostic adaptatif. Enfin notre système a été mis en œuvre sur la
plateforme de l'association Sésamath utilisée par des milliers
d'enseignants et d'élèves.
Le problème principal qui nous concerne, en tant qu'informaticien, est
celui du mode d'inférence des descripteurs de la compétence d'un apprenant
à partir des données recueillies lors d'un test diagnostic. Le processus
de diagnostic se décompose en deux étapes : un diagnostic local qui
consiste à analyser chaque réponse d'un élève, et un diagnostic que nous
qualifions de global qui consiste à détecter des cohérences dans les
réponses des élèves afin de dresser un bilan des compétences qui ont été
détectées. Nous avons, à partir de premiers prototypes, mis au point un
modèle conceptuel et un logiciel, PépiMep, qui le met en œuvre. Dans un
premier temps, PépiMep recueille des réponses ou des raisonnements
algébriques sur une plateforme d'enseignement en ligne, puis, dans un
deuxième temps, PépiMep analyse ces réponses en prenant en compte non
seulement leur degré de validité mais aussi leur caractérisation sur
plusieurs dimensions. Cette analyse s'appuie sur un logiciel de calcul
formel développé par l'équipe. Enfin PépiMep construit un bilan cognitif
qui caractérise la compétence de l'élève, en établissant des leviers pour
l'apprentissage et des fragilités à faire évoluer, et qui le situe sur une
échelle de compétence. Nous avons mis en place les modèles de données et
le système qui les interprète.
Nous nous sommes enfin penchés sur le problème de mettre au point un
diagnostic adaptatif pour minimiser le temps de passage du test
diagnostic. Ce diagnostic s'appuie sur le modèle markovien de décision
séquentielle.
Pour mener à bien notre travail de recherche, nous avons adopté une
démarche fondée sur le prototypage et sur l'analyse de corpus de réponses
d'élèves obtenus à partir de prototypes. Nous avons mis en place des
outils pour faciliter l'analyse de ces données par des experts humains
(enseignants et didacticiens des mathématiques dans notre cas) et la
comparaison entre le diagnostic automatique et celui d'experts ou de
professionnels humains. Les résultats de cette comparaison montrent que
notre système permet de faire instantanément un travail qui prend
plusieurs heures à un expert humain, selon un taux de concordance avec
l'expertise humaine qui est supérieur aux taux d'accords entre experts
humains avant discussion pour établir un consensus sur un corpus de
référence.

Bien cordialement
Aso DARWESH