jeudi 8 décembre 2011

soutenance de thèse de FENG Haifeng

Bonjour,

J'ai le plaisir de vous inviter à la soutenance de ma thèse intitulée
"Études des liens entre couleurs et émotions à partir des annotations
spontanées" ainsi qu'au pot qui suivra.

Cette soutenance aura lieu le jeudi 15 décembre 2011 à 9h30 au Laboratoire
d'Informatique de Paris 6 (LIP6) à Jussieu
(http://www.lip6.fr/informations/comment.php), salle 105 au 1er étage tour
26, couloir 26-25.

=========
Jury
=========

Rapporteurs :

Herman AKDAG, Professeur, LIASD - Université Paris 8
Carole BOUCHARD, HDR, LCPI - Arts et Métiers ParisTech

Examinateurs :

Amine AÏT YOUNES, Maître de conférences, CResTIC - IUT de
Reims-Châlons-Charleville
Bernadette BOUCHON-MEUNIER, Directeur de recherche, CNRS - LIP6 - UPMC -
Sorbonne Universités
Marcin DETYNIECKI, Chargé de recherche, CNRS - LIP6 - UPMC - Sorbonne
Université
Jean-Gabriel GANASCIA, Professeur, LIP6 - UPMC - Sorbonne Universités
Marie-Jeanne LESOT, Maître de conférences, LIP6 - UPMC - Sorbonne Universités
Jean-François OMHOVER, Maître de conférences, LCPI - Arts et Métiers
ParisTech

=========
Résumé :
=========

Cette thèse a pour objectif l'identification et la caractérisation de
relations entre couleurs et émotions sur une base constituée d'images
annotées. Plus précisément nous nous intéressons à la découverte
automatique de relations entre trois concepts : les «couleurs objectives»
données par le contenu chromatique des images, les «couleurs subjectives»
présentes dans des étiquettes fournies lors de l'annotation spontanée des
images, et les «émotions» également exprimées par le biais d'étiquettes
associées spontanément aux images.

Pour réaliser cette étude, nous construisons un corpus d'expérimentation
basé sur le site web FlickR. Cette interface de gestion et partage
d'images en ligne s'appuie sur un service d'indexation qui permet aux
créateurs des images d'étiqueter leurs ressources en leur laissant le
libre choix des étiquettes. Nous avons collecté environ 22000 images
annotées à la fois par des étiquettes chromatiques et émotionnelles,
c'est-à-dire pour lesquelles les contenus chromatique et émotionnel ont
été jugés importants par les utilisateurs.

Les caractérisations des 3 concepts sont établies à partir de diverses
représentations chromatiques, incluant un codage objectif classique, un
codage subjectif, et un niveau intermédiaire constitué d'un codage
objectif interprété. Pour ce dernier, nous avons proposé, construit et
analysé un dictionnaire visuel basé, non sur des hyperplans frontières
discriminants entre couleurs, mais sur des points de référence
représentatifs de chaque couleur.

En ce qui concerne la caractérisation des émotions, réalisée par arbres de
décision et règles d'association, notre approche montre non seulement que
les couleurs subjectives permettent de retrouver des relations connues
dans la littérature psychologique (p. ex. entre noir et peur), mais aussi
des relations moins attendues, par exemple entre rose et surprise. Les
expérimentations montrent aussi que les codages subjectif et objectif
interprété donnent des résultats similaires. Ceci signifie que tous deux
sont également importants – d'un point de vue applicatif – pour la
détection des émotions dans les images à partir des couleurs. Toutefois,
d'un point de vue analytique, le codage subjectif apparaît plus proche des
émotions.

Les relations entre les couleurs objectives et subjectives sont plus
fortes que celles entre couleurs et émotions, ce qui semble attendu
puisque ces relations sont plus immédiates. Les résultats expérimentaux
montrent toutefois que l'identification des couleurs subjectives, ou
couleurs saillantes, reste un problème difficile, indiquant que les
annotations choisies spontanément ne sont pas en relation simple avec la
couleur dominante des images ni des combinaisons des proportions des
couleurs.


Cordialement,

--
FENG Haifeng

lundi 5 décembre 2011

Invitation à la soutenance de thèse de Xiaomin Wang‏

Bonjour,

J'ai le plaisir de vous inviter à la soutenance de ma thèse intitulée
"Deciding on the type of the degree distribution of a graph (network)
from traceroute-like measurements".

Cette soutenance aura lieu le 13 décembre 2011 à 10h00 au Laboratoire
d'Informatique de Paris 6 (LIP6) à Jussieu
(http://www.lip6.fr/informations/comment.php), couloir 25-26, salle 105.

=====================
JURY
=====================

Rapporteur:
Mme. Delporte-Gallet Carole Professeur, Université de Paris 7-Denis Diderot
M. Hwang Hsien-kuei Senior Researcher, Institute of Statistical
Science Academia Sinica


Examineur:
M. Crespelle Christophe Maître de conférences, Université Claude
Bernard Lyon 1
M. Latapy Matthieu Directeur de recherche (co-directeur), CNRS
affecté au LIP6
Mme. Legrand Bénédicte Maître de conférences (HDR), Université
Pierre et Marie Curie, LIP6
Mme. Soria Michèle Professeur (directrice), Université Pierre et
Marie Curie, LIP6


=====================
Résumé
=====================
The degree distribution of the Internet topology is considered as one
of its main properties. However, it is only known through a measure-
ment procedure which gives a biased estimate. This measurement may
in first approximation be modeled by a BFS (Breadth-First Search)
tree. We explore here our ability to infer the type (Poisson or power-
law) of the degree distribution from such a limited knowledge. We
design procedures which estimate the degree distribution of a graph
from a BFS or multi-BFS trees, and show experimentally (on models
and real-world data) that our approaches succeed in making the diffe-
rence between Poisson and power-law degree distribution and in some
cases can also estimate the number of links. In addition, we establish
a method, which is a diminishing urn, to analyze the procedure of the
queue. We analyze the profile of the BFS tree from a random graph
with a given degree distribution. The expected number of nodes and
the expected number of invisible links at each level of BFS tree are
two main results that we obtain. Using these informations, we propose
two new methodologies to decide on the type of the underlying graph.


Cordialement,
Xiaomin

Invitation à la soutenance de thèse de Alex Spengler

Bonjour,


J'ai le plaisir de vous inviter à ma soutenance de thèse, intitulée

« Analyse probabiliste du contenu de pages Web : Représentation des
sémantiques de contenu dans le paradigme Bayésien »

(Probabilistic Web Content Analysis. Representation of Content
Semantics in the Bayesian Diagnostic Paradigm.)

ainsi qu'au pot qui suivra.

Cette soutenance aura lieu à l'Université Pierre et Marie Curie le
lundi 12 décembre 2011 à 11h00 dans la salle Laurière (salle 101
couloir 25-26, 1er étage).

Plan d'accès : http://www.lip6.fr/informations/comment.php

Composition du Jury
=========================

Rapporteur :

Boris CHIDLOVSKII, Chercheur Principal au Xerox Research Centre
Europe
Isabelle TELLIER, Professeur à l'Université Sorbonne Nouvelle

Examinateur :

Mathieu CORD, Professeur à l'Université Pierre et Marie Curie
Gregory GREFENSTETTE, Directeur Scientifique chez Exalead

Directeur de thèse :

Patrick GALLINARI, Professeur à l'Université Pierre et Marie Curie


Résumé
============

Une identification automatique des contenus pertinents de pages Web,
comme les titres, paragraphes, publicités, images de produits où
commentaires des utilisateurs, facilite une large variété
d'applications réelles, de la transcription du texte en parole pour
les malvoyants aux moteurs de recherche structurés. Finalement, une
telle identification nécessite toujours une segmentation du contenu
ainsi qu'une classification des segments résultants donné par des
catégories sémantiques dépendant de l'application concrète. Nous
proposons donc d'aborder l'analyse du contenu de pages Web dans un
cadre de classification interdépendante, établissant la cohérence
sémantique à travers des fonctions caractéristiques d'interaction
qui décrivent la configuration de plusieurs régions de contenu
sémantiquement indivisible.

Un des obstacles majeurs à l'accès pertinent au contenu de pages Web
est que leur organisation sémantique est souvent inappropriée. En
conséquence, il est généralement impossible de caractériser une
région de contenu intéressante avec certitude. Dans cette thèse,
nous proposons de traiter les incertitudes dans une analyse du
contenu de pages Web avec un cadre probabiliste cohérent : le
paradigme Bayésien. Nous tentons d'éclairer les conditions pour
lesquelles un modèle probabiliste peut être justifié en déduisant sa
forme de représentation à partir d'hypothèses sur des quantités
observables qui sont basées sur les concepts d'échangeabilité,
d'indépendance conditionnelle et de suffisance. En particulier, nous
examinons différentes dépendances Markoviennes entre des catégories
de contenu d'une même page Web et discutons comment on peut prendre
en compte la structure qui existe entre des pages et des sites.

Nous présentons également une analyse informelle des
caractéristiques, élucidant l'information disponible dans le
contenu, la structure et le style d'une page Web. Une telle analyse
est essentielle à la fois pour une modélisation probabiliste
formelle et pour une bonne performance prédictive. En outre, nous
introduisons une nouvelle base de données publique, appelée News600.
Elle contient 604 pages Web réelles de 206 sites, avec plus de 30
catégories sémantiques annotées de manière précise. Enfin, nous
menons une série d'expériences sur ce corpus, en comparant des
approches différentes pour classifier le contenu de nouvelles pages
Web. Elle démontre que même des modèles relativement simples dans
notre cadre atteignent des résultats significativement meilleurs que
l'état de l'art actuel.


Abstract
==============

An automatic identification of meaningful content sections on web
pages, such as titles, paragraphs, advertisements, product images or
user comments, facilitates a large number of applications, ranging
from speech rendering for the visually impaired over contextual
advertisement to structured web search. Ultimately, such an
identification always necessitates both, a partitioning of the
content and a classification of the resulting partitions into a
number of application-dependent semantic categories. We hence
propose to approach the analysis of web content in an interdependent
classification framework, integrating semantic coherence, just as in
segmentation, via interaction features which describe the semantic
configuration of two or more semantically atomic content regions.

One of the major obstacles to gaining meaningful access to web
contents is their semantically inappropriate organisation and
markup. As a consequence, it generally is impossible to characterise
an interesting content region with certainty. In this thesis, we
propose to treat the uncertainties arising in an analysis of web
content in a coherent probabilistic framework, the Bayesian
diagnostic paradigm, and attempt to illuminate the conditions under
which some probability model might be justified, deriving its form
of representation from assumptions about observable quantities such
as region features and semantics, utilising the concepts of
exchangeability, conditional independence and sufficiency. In
particular, we examine different Markovian dependencies between the
semantic content categories within individual web pages and discuss
how to take into account the structure that exists between pages and
sites.

We equally present an informal feature analysis which elucidates the
manifold information available in the content, structure and style
of a web page. Such an analysis is a quintessential prerequisite to
both formal probabilistic modelling and high predictive performance.
Furthermore, we introduce a new, publicly available data set of 604
real-world news web pages from 177 distinct sites with accurate
annotations based on 30 distinct semantic categories, termed the
News600 corpus. Finally, we conduct a series of experiments on the
News600 corpus to empirically compare a number of different
approaches for web news content classification. It demonstrates that
even relatively simple models in our framework achieve significantly
better results than the current state of the art.


Cordialement,
Alex Spengler

Invitation à la soutenance de thèse de Tuan Minh PHAM

Bonjour,

J'ai le plaisir de vous inviter à ma soutenance de thèse intitulée
"Modélisation et analyse de la distribution de contenus dans un réseau
DTN".

Elle aura lieu au Laboratoire d'Informatique de Paris 6 (LIP6) à
Jussieu (http://www.lip6.fr/informations/comment.php), le mercredi 14
décembre 2011 à 15h00 en salle 25-26/105 et vous êtes également
chaleureusement conviés au pot qui suivra en salle 26-00/101.

==========
Jury
==========

Le jury sera composé de:

Rapporteurs :
Philippe Nain, Directeur de Recherche, INRIA
Kavé Salamatian, Professeur, Université de Savoie

Examinateurs :
Mostafa Ammar, Professeur, Georgia Institute of Technology
Mario Gerla, Professeur, University of California, Los Angeles
Sebastien Tixeuil, Professeur, UPMC Sorbonne Universités

Encadrant :
Serge Fdida, Professeur, UPMC Sorbonne Universités

==========
Résumé
==========

Cette thèse étudie la faisabilité de la diffusion de contenu sur un
réseau tolérant aux délais (DTN) dans une zone urbaine. L'application
cible est la distribution de la version électronique d'un journal dans
une grande ville. Bien que des contraintes de temps ne s'appliquent
pas de manière stricte, il est tout de même attendu que la diffusion
d'information se fasse dans un délai raisonnable. Deux métriques de
performance sont considérés : le délai de message et le temps de
propagation. Le délai de message est le délai nécessaire pour
transmettre un contenu à partir d'un nœud mobile à un autre nœud,
tandis que le temps de propagation est le délai nécessaire pour
diffuser un contenu sur un ensemble de nœuds du réseau.

Premièrement, notre objectif est de mesurer de manière analytique les
performances d'un environnement DTN simple lorsqu'un contenu est
distribué exclusivement à travers des contacts entre les nœuds
mobiles. Nos contributions résultent de la prise en compte de la
probabilité d'intérêt/acceptation dans l'expression en forme fermée et
l'expression asymptotique du délai moyen de message. La probabilité
d'intérêt/acceptation représente la probabilité qu'un contenu soit
accepté par un nœud qui manifeste de l'intérêt pour ce contenu lors
d'un contact. L'expression asymptotique permet de déterminer des
moyens efficaces d'améliorer le délai moyen de messages dans une zone
où la densité des nœuds mobiles est basse ou haute. Nous montrons
aussi une relation entre le délai moyen de message et le temps moyen
de propagation dans de tels environnements.

Deuxièmement, si le délai est jugé excessif, nous suggérons un
déploiement de kiosques de données dans l'environnement afin
d'améliorer les performances de la diffusion de contenu. Les kiosques
de données sont des dispositifs simples qui reçoivent les contenus
directement depuis leur source, le plus souvent en utilisant des
réseaux filaires ou cellulaires. Un des problèmes posés pour concevoir
efficacement un tel réseau est le nombre de kiosques de données qu'il
faut déployer pour satisfaire aux objectifs de performance. Pour
répondre à ce problème, nous déterminons les valeurs de la borne
supérieure et de la borne inférieure du nombre de kiosques de données
nécessaires pour distribuer le contenu dans une zone géographique en
optimisant un temps moyen de propagation pris comme objectif. Nous
montrons aussi une propriété importante que ces bornes varient
linéairement avec le taux de contact entre un nœud mobile et un
kiosque de données.

Enfin, nous considérons le problème de l'emplacement optimal des
kiosques de données dans un scénario plus réaliste où les utilisateurs
se déplacent en utilisant un système de transport (comme le métro ou
le train de banlieue) qui relie plusieurs régions. Nous analysons le
choix des stations de métro où installer un kiosque de données pour
optimiser le temps moyen de propagation. Les résultats de l'analyse
confirment que l'emplacement optimal des kiosques de données n'est pas
seulement influencé par les caractéristiques d'une région, mais aussi
par le nombre d'utilisateurs mobiles qui recevront le contenu. Nous
validons nos résultats analytiques par des simulations en prenant
différents modèles de mobilité ainsi que des données de mobilité
résultant de mesures réelles.

==========
Abstract
==========

This dissertation studies the practicality of content distribution
over a Delay Tolerant Network (DTN) in an urban area. The target
application is the distribution of the electronic version of a
newspaper in a large city. Although strict time constraints do not
apply, spreading the information should be achieved within a
reasonable delay. Two performance metrics, the spreading time and the
message delay, are considered. The message delay is the delay required
to transmit content from a mobile node to another node, while the
spreading time is the delay needed for the content to spread over a
part of the network.

Firstly, our goal is to increase our understanding of the performance
of a simple DTN environment when content is distributed solely through
inter-contact of mobile nodes. We contribute both the close-form
expression and the asymptotic expression of the expected message delay
to the literature when considering the probability of
interest/acceptance for a given piece of content at each contact. The
asymptotic expression provides the insights on the efficient ways for
improving the expected message delay in the case of an area with low
or high density of mobile nodes. We also show a relationship between
the expected message delay and the expected spreading time in such
environment.

Secondly, if the delay is found to be excessive, we suggest the
deployment of some data kiosks in the environment to better support
the dissemination of content. Data kiosks are simple devices that
receive content directly from the source, usually using wired or
cellular networks. A key issue when designing efficiently such network
is to determine the number of data kiosks required to satisfy a
performance target. We investigate both an upper bound and a lower
bound of the number of data kiosks to distribute the content over a
geographical area within an expected spreading time objective. We also
show the important property that those bounds scale linearly with the
contact rates between a mobile node and a data kiosk.

Finally, we consider the question of the optimal locations of data
kiosks in a more realistic scenario where users move along a
transportation system (like a subway or suburban train) that connects
several regions. We provide an analysis used to decide which subway
stop should host a data kiosk to optimize the spreading time. These
findings support the view that the optimal locations of data kiosks
are influenced not only by the conditions of a region but also by the
target number of mobile users that will receive the contents.
Analytical results are validated by simulations under a number of
mobility models and real datasets.


Cordialement,

----------

Tuan Minh Pham
http://www-npa.lip6.fr/~tuanminh/

vendredi 2 décembre 2011

soutenance de thèse de François Nel

Bonjour,

J'ai le plaisir de vous inviter à la soutenance de ma thèse intitulée
"Suivi des mouvements informationnels : construction, modélisation et
simulation de graphes de citations, application à la détection de buzz"
ainsi qu'au pot qui suivra.

Cette soutenance aura lieu le 7 décembre 2011 à 9h30 au Laboratoire
d'Informatique de Paris 6 (LIP6) à Jussieu
(http://www.lip6.fr/informations/comment.php), salle 105 au 1er étage tour
26, couloir 26-25.

=========
Jury
=========

Rapporteurs :

Marie-Aude Aufaure, Professeur, MAS - Ecole Centrale Paris
Djamel Zighed, Professeur, ERIC - Université Lumière Lyon 2

Examinateurs :

Bernd Amann, Professeur, LIP6 - UPMC - Sorbonne Universités
Bernadette Bouchon-Meunier, Directeur de recherche, LIP6 - UPMC - Sorbonne
Universités
Thomas Delavallade, Ingénieur, Thales Communications
Marie-Jeanne Lesot, Maître de conférences, LIP6 - UPMC - Sorbonne
Universités
Camille Roth, Chargé de recherche, CAMS - CNRS/EHESS


=========
Résumé :
=========

La démocratisation du Web en tant que support de diffusion de
l'information a considérablement modifié l'environnement médiatique.
L'information est sujette à de nouveaux phénomènes ayant parfois des
conséquences majeures sur des décisions politiques, stratégiques ou
économiques. Ces phénomènes s'observent sous la forme de mouvements
informationnels, dont l'étude fait l'objet de cette thèse.

La démarche que nous avons retenue pour aborder l'étude des mouvements
informationnels se base sur l'étude du graphe des citations entre sites
d'information sur le Web. Nous la structurons selon trois axes principaux
: la construction, l'analyse et la génération d'un graphe de citations,
puis nous appliquons nos travaux à la problématique de la détection de
buzz.

Pour construire le graphe de citations, nous proposons une méthode de
crawling adaptée à l'extraction de corpus de relations de citations entre
sources Web. La stratégie choisie se base sur une extraction exhaustive
des publications des sources et s'accompagne du nettoyage des pages afin
d'en extraire les liens hypertextes utiles.

L'analyse du graphe de citations consiste en une méthode de
caractérisation des nœuds du graphe, considérés comme des sources
d'information ayant des comportements distincts. Elle nous permet
d'identifier quatre comportements de publication des sources à partir des
données issues du Web, se distinguant principalement par la fréquence de
publication, la diversité des sources citées et la capacité à exploiter
les spécificités de publication sur le Web.

En ce qui concerne la problématique de génération, et afin de mener à bien
des expérimentations sur des corpus variés, l'objectif est de générer des
graphes de citations réalistes, c'est-à-dire capables de reproduire les
comportements de publication identifiés sur les données réelles. Ainsi,
nous proposons un modèle de génération de graphes de citations
suffisamment flexible et adaptable en imitant au mieux le processus de
publication réel d'un article sur un site. Ce modèle est implémenté en un
outil de simulation adapté à l'étude des phénomènes de diffusion
informationnels.

Enfin, nous proposons une mise en application de la méthode de génération
ainsi que de l'outil de simulation dans le cadre d'une étude sur la
détection de buzz. Pour ce faire, nous étudions le concept de buzz en
proposant une définition sur laquelle nous basons plusieurs formalisations
adaptées aux données disponibles. L'interprétation des expérimentations
effectuées nous conduit à attribuer les méthodes de détection proposées à
des cas d'application spécifiques selon la sémantique qui peut leur être
attribuée.


Cordialement,

--
François Nel

mercredi 30 novembre 2011

Invitation à la soutenance de thèse de Mathieu Valero

Bonjour,

J'ai le plaisir de vous inviter à la soutenance de ma thèse intitulée
"Amélioration des performances et de la fiabilité des architectures pair
à pair arborescentes".

Cette soutenance aura lieu le 1 décembre 2011 à 10h30 au Laboratoire
d'Informatique de Paris 6 (LIP6) à Jussieu
(http://www.lip6.fr/informations/comment.php), tour 26, couloir 26-25,
salle 101.

=========
Jury
=========

Rapporteurs:
Olivier Beaumont, Directeur de recherche, LABRI - France
Pascal Felber, Professeur, Institut d'informatique de Neuchatel - Suisse

Examinateurs:
Roberto Baldoni, Professeur, Université Sapienza de Rome - Italie
Serge Fdida, Professeur, LIP6 - France

Encadrants:
Pierre Sens, professeur, LIP6 - France
Luciana Arantes, maître de conférence, LIP6 - France
Maria Potop-Butucaru, maître de conférence, LIP6 - France

Résumé:

Despite having been widely studied over the last decade, peer-to-peer
(P2P) systems remain a challenging field of research. They are designed
to scale, but scalability comes at a price: they must deal with
unpredictability of nodes joining and leaving the systems (churn),
failures, heterogeneity in processing power and communication speeds,
etc. These problems are particularly difficult to solve when P2P systems
have to maintain a given structure, as in the case of tree-based overlays.

This thesis tackles a set of well-focused research problems in the
context of tree-based P2P overlays: performance and dependability
improvements.

A demain !

Cordialement,

Mathieu Valero

http://pagesperso-systeme.lip6.fr/Mathieu.Valero

Soutenance de thèse de SALAH BRAHIM Abdelhamid

Bonjour,

J'ai le plaisir de vous inviter à ma soutenance de thèse intitulée "
Diffusion d'information et structure en communautés dans un réseau de
blogs"

La soutenance aura lieu le Jeudi 8 décembre 2011 à 10h30 , en salle 105
couloir 25-26 (1er étage), au Laboratoire d'Informatique de Paris 6 (LIP6),
4 Place Jussieu, 75005 Paris.
Voici le plan d'accès :
http://www.upmc.fr/fr/universite/campus_et_sites/a_paris_et_en_idf/jussieu.html

Vous êtes également invités au pot qui suivra.


=========
Jury
=========

Le jury sera composé de :

Rapporteurs :
Isabelle CHRISMENT, Professeur, Université Henri
Poincaré, Nancy 1
Marie-Aude AUFAURE, Professeur, Ecole Centrale Paris

Examinateurs :
Marcelo DIAS DE AMORIM, Directeur de recherche (DR)
CNRS, Université Pierre et Marie Curie
Cécile BOTHOREL, Maître de conférence, Telecom Bretagne
Christophe PRIEUR, Maître de conférence, Université
Paris didrot

Directeurs:
Matthieu LATAPY, Directeur de recherche CNRS,
Université Pierre et Marie Curie
Bénédicte LE GRAND, Maître de conférence (HDR),
Université Pierre et Marie Curie


=========
Résumé :
=========

On peut modéliser de nombreux objets issus du monde
réel par des graphes. Ces objets sont issus de contextes très
différents (ex. réseaux informatiques, sociaux ou biologiques),
cependant ils se ressemblent au sens de certaines propriétées
statistiques. On les désigne sous le terme général de graphes de
terrain (complex networks en anglais) ou grands graphes d'interaction.
L'analyse des graphes de terrain est probablement le
plus grand champ de recherche du domaine et l'étude des phénomènes de
diffusion constitue un des axes importants dans la compréhension de
ces objets. Beaucoupde précédentes études ont été menées sur la
diffusion avec une approche théorique mais avec l'apparition de
données issues du monde réel de plus en plus riches, une approche
empirique de l'analyse de ces réseaux est apparue comme une nécessité.

La diffusion peut être de différentes natures:
diffusion d'information, d'idées ou d'opinion. Cette diffusion est
vue dans la plupart des travaux comme le résultat de l'interaction
entre les éléments du réseau (i.e. les nœuds du graphe). En complément
de cette vision, nous considérons dans cette thèse que la diffusion,
en plus de se produire entre les nœuds, est aussi le résultat de
l'interaction entre des groupes de nœuds, appelés communautés, qui ont
des propriétés en commun. On dit que le réseau possède une structure
en communautés. Cette approche ouvre de nouvelles perspectives pour la
compréhension et la caractérisation des graphes de terrain.

L'objectif de cette thèse est d'étudier les
phénomènes de diffusion de manière empirique non seulement à l'échelle
des nœud mais à différents niveaux de la structure en communautés. A
l'aide d'une approche statistique, nous proposons un ensemble de
méthodes et de métriques pour aborder la diffusion sous un nouvel
angle et aller plus loin dans la caractérisation de ces phénomènes
.Nous nous proposons d'étudier les liens de diffusion au sein d'un
réseau de blogs francophones. Nous montrons en premier lieu l'impact
des communautés sur la popularité des blogs et distinguons des classes
de comportement. Cela nous conduit à investiguer les interactions
entre les communautés. Pour ce faire, nous définissons deux mesures:
la distance communautaire et l'Homophilie. En dernier lieu, nous
étudions la diffusion de proche on proche dans le graphe, caractérisée
par des cascades de diffusion. Nous montrons que notre approche permet
de détecter et d'interpréter les différents comportements de diffusion
et de faire le lien entre les propriétés topologiques, temporelles et
communautaires.

Cordialement,

--
-------------------------------------------------------
SALAH BRAHIM Abdelhamid
Abdelhamid.Salah-Brahim@lip6.fr
http://www-rp.lip6.fr/~salah/

mardi 29 novembre 2011

Invitation à la soutenance de thèse de Mubashir Husain Rehmani


Bonjour,

J'ai le grand plaisir de vous inviter à la soutenance de ma thèse intitulée "Dissémination Opportuniste de données dans les réseaux ad-hoc à radio cognitive" ainsi qu'au pot (couloir 26-00, salle 101) qui suivra.

Cette soutenance aura lieu le 12 décembre 2011 à 10h00 au Laboratoire d'Informatique de Paris 6 (LIP6) à Jussieu (http://www.lip6.fr/informations/comment.php), salle 105 au 1er étage de tours 25-26,  en présence du jury suivant:

=========
Jury
=========

Rapporteurs:
Jean-Marie Gorce, Professor, INSA-Lyon - France
Thierry Turletti, Researcher, INRIA - Sophia Antipolis - France

Examinateurs:
Hakima Chaouchi, Professor, Institut Télécom SudParis - France
Pierre Sens, Professor, UPMC - Sorbonne Universités – Paris - France
Hicham Khalife, Assistant Professor, LaBRI/ENSEIRB – Bordeaux - France

Encadrants:
Aline Carneiro Viana, Research Scientist, INRIA – Saclay - France
Serge Fdida, Directeur de thèse, Professor, UPMC - Sorbonne Universités – Paris - France

Titre: Dissémination Opportuniste de données dans les réseaux ad-hoc à radio cognitive

=========
Résumé :
=========

Les progrès récents des technologies de communication et la prolifération de l'informatique sans fil et des dispositifs de communication, ont induit à une surcharge dans l'utilisation du spectre radio. Cependant, les expériences de la Commission Fédérale de Communication (FCC) ont révélé que l'utilisation du spectre varie entre 15% et 85%.  Par conséquent, les réseaux radios cognitifs (Cognitive Radio Networks ou CRNs) sont proposés afin d'utiliser le spectre radio d'une manière opportuniste.

Dans ce type de réseaux radios cognitifs, où les fréquences de transmission sont sélectionnées d'une manière opportuniste - également sont appelés réseaux Ad-Hoc à radios cognitives -, la fiabilité de la dissémination des données est difficile à réaliser. D'abord, en plus des défis déjà connus dans les environnements sans fils, la diversité dans le nombre de fréquences  qu'un noeud à radio cognitif a droit d'utiliser ajoute un autre défi, en limitant l'accessibilité à ses noeuds voisins. Deuxièmement, les noeuds à radio cognitif (CR) doivent conquérir les ressources de fréquences résiduelles
avec les noeuds à radio primaire (PR), tout en essayent de les exploiter d'une manière opportuniste. En outre, les noeuds CR ne devraient pas perturber la qualité de réception des noeuds PR durant leur communication, et ce en limitant les interférences entre les deux de noeuds. Par conséquent, une nouvelle méthode de sélection de fréquences est requise afin de réduire le nombre d'interférences nuisibles aux noeuds PR, et maximiser les chances de délivrance des messages aux voisins récepteurs des noeuds CR, et augmenter ainsi la fiabilité des données disséminées.

Dans cette thèse nous proposons SURF, une nouvelle méthode distribuée de sélection de fréquences pour la dissémination fiable de données dans un réseau radio cognitif multi-sauts. SURF classifie les fréquences radio disponibles en fonction de l'occupation des fréquences des noeuds à radio primaire et le nombre de noeuds à radio cognitive utilisant ces fréquences.  Les résultats de simulation obtenus par NS-2 confirment que SURF est une stratégie efficace dans la sélection des meilleures fréquences de diffusion de données, comparée aux autres approches liées. Nous avons aussi constaté que les stratégies de sélection de fréquences sont considérablement influencées par l'activité des noeuds à radio primaire. Dans la suite ce cette thèse, nous étudierons et analyserons l'impact des modèles d'activités des noeuds PR sur les différentes stratégies de sélection de fréquences à travers des simulations basées NS-2. Nous avons remarqué que l'activité intermittente de PR est le cas où les solutions intelligentes doivent opérées. C'est dans ce cas où SURF donne les meilleures résultats et la région ciblée se serve des opportunités de communication.

Enfin, dans cette thèse, nous allons encore plus loin en vérifiant l'applicabilité et la faisabilité de SURF. Dans cette perspective, d'abord, nous proposons une architecture d'accès à internet basée sur la radio cognitive pour les réseaux partiellement endommagés. Nous discutons les détails architecturaux et le principe de fonctionnement de l'architecture proposée. Nous avons également passé en revue les enjeux et les défis de déploiement de cette nouvelle architecture. Deuxièmement, nous discutons l'applicabilité de SURF dans le contexte de l'agrégation de fréquences et à cet égard, nous discutons une stratégie d'interférence basée sur l'agrégation de fréquences pour les réseaux radios cognitifs.


Title:  Opportunistic Data Dissemination in Ad-Hoc Cognitive Radio Networks

=========
Abstract:
=========
Recent advances in communication technologies and the proliferation of wireless computing and communication devices make the radio spectrum overcrowded. However, experiments from the Federal Communication Commission (FCC) reveals that the spectrum utilization varies from 15% − 85%. Consequently, Cognitive Radio Networks (CRNs) are proposed to utilize the radio spectrum opportunistically.

In types of cognitive radio networks where channels for transmission are opportunistically selected – also called Cognitive Radio Ad-Hoc Networks –, reliability in data dissemination is difficult to achieve. First, in addition to the already known issues of wireless environments, the diversity in the number of channels that each cognitive node can use adds another challenge by limiting node's accessibility to its neighbors. Second, Cognitive Radio (CR) nodes have to compete with the Primary Radio (PR) nodes for the residual resources  on channels and use them opportunistically. Besides, CR nodes should communicate in a way that does not disturb the reception quality of PR nodes by limiting CR-to-PR interference. Therefore, a new channel selection strategy is required which cause less harmful interference to PR nodes and try to maximize the chances that the message is delivered to the neighboring cognitive radio receivers, thus increasing the data dissemination reachability.

In this thesis, we propose SURF, a distributed channel selection strategy for robust data  dissemination in multi-hop cognitive radio ad-hoc networks. SURF classifies the available channels on the basis of primary radio unoccupancy and the number of cognitive radio neighbors using the channels. Simulation results in NS-2 confirmed that SURF is effective in selecting the best channels for data dissemination, when compared to related approaches. We observe that the channel selection strategies are greatly influenced by the primary radio nodes activity. Next in this thesis, we study and analyze the impact of PR nodes activity patterns on different channel selection strategies through NS-2 based simulations. We observed that intermittent PR activity is the case where clever solutions need to operate. This is where SURF gives the best results and the target region to avail communication opportunities.

Finally, in this thesis, we go one step further and check the applicability and feasibility of SURF. In this perspective, first we propose a cognitive radio based Internet access framework  for disaster response networks. We discuss the architectural details and the working principle of the proposed framework. We highlight the challenges and issues related with the deployment and connectivity of the framework. Second, we discuss the applicability of SURF in the context of channel bonding and in this regard, we discuss an interference based channel bonding strategy for cognitive radio networks.


En espérant vous voir nombreux à cette soutenance,

Cordialement,


--
Mubashir Husain Rehmani


PhD Student,
Lip6, UPMC
http://www-npa.lip6.fr/~rehmani/


jeudi 24 novembre 2011

Soutenance de thèse de Nicolas Hidalgo

Bonjour,

J'ai le grand plaisir de vous inviter à la soutenance de ma thèse
intitulée "Towards an Efficient Support for Complex Queries on
Structured Peer-to-Peer Networks" ainsi qu'au pot qui suivra.

Cette soutenance aura lieu au Laboratoire d'Informatique de Paris 6
(LIP6) à Jussieu (http://www.lip6.fr/informations/comment.php), salle
25/26-105 le 29 novembre 2011 à 16h00 en présence du jury suivant:

- Anne-Marie Kermarrec, Directrice de Recherche INRIA - Rapporteur
- Claudia Roncancio, Professeur Université de Grenoble - Rapporteur
- Peter Druschel, Scientific Director Max Planck Institute for
Software Systems - Examinateur
- Franck Petit, Professeur Université Pierre et Marie Curie - Examinateur
- Xavier Bonnaire, Professeur Associé Universidad Tecnica Federico
Santa Maria - co-directeur de thèse
- Pierre Sens, Professeur Université Pierre et Marie Curie - Directeur
de Thèse
- Luciana Arantes, Maitre de Conference Université Pierre et Marie
Curie - co-directeur de thèse

ABSTRACT:
Distributed Hash Tables (DHTs) provide the substrate to build
scalable, structured, and efficient Peer-to-Peer (P2P) networks which
are distributed systems with the potential to handle massive amounts
of data on a very large scale. Due to the hashing assignment of object
keys to peers and its lookup operation, exact match queries present
very good performance on DHT-based P2P systems. Although, traditional
DHTs cannot provide an effective support for complex queries, such as
range queries. In this work, we are particularly interested in those
solutions based on prefix tree indexes since they provide a portable
and scalable approach for satisfying complex queries over DHTs.
Nevertheless, the search methods proposed by such solutions usually
generate both high latencies and unnecessary message traffic overhead
which degrade system performance. Furthermore, some of them present
load balancing problems and do not tolerate P2P churn.

In this thesis we have proposed two solutions: PORQUE and ECHO. The
former is oriented to support low-latency searches while the latter is
oriented to support low-overhead searches. Performance evaluation
results of experiments confirm that both PORQUE and ECHO can reduce
latency and message traffic of searches by more than 50 \% when
compared to PHT. Our solutions also offer load balancing minimising
as much as possible bottlenecks over the index structure. By
exploiting different datasets distributions, performance results show
that our solutions perform independently of data skewness. Moreover,
performance of PORQUE and ECHO do not degrade in dynamic environments.

Résumé:
Les Tables de Hachage Distribuées (Distributed Hash Tables, ou DHT, en
anglais) permettent la construction de réseaux pair-à-pair structurés
pour des services de stockage persistant, hautement disponibles, et
passant à l'échelle. Les fonctions de hachage utilisées pour générer
les clés assurent une bonne répartition des objets sur les pairs du
réseau et permettent la localisation très efficace d'un objet à partir
de sa clé. Cependant, les DHTs sont peu efficaces pour gérer des
requêtes complexes telles que les requêtes par intervalle. Pour
pallier cela, plusieurs solutions ont été proposées dans la
littérature. Dans cette thèse, nous nous intéressons plus
particulièrement aux solutions reposant sur des arbres préfixes (trie
en anglais) construit au-dessus des DHTs car ces arbres fournissent
une solution portable et passant à l'échelle pour réaliser des
requêtes complexes. Cependant, les méthodes de recherche proposées par
les arbres préfixes distribués ont généralement une latence importante
et génèrent un nombre de messages élevés qui dégradent les
performances du système global. De plus, certaines des solutions
proposées équilibrent mal la charge des noeuds et sont
particulièrement inefficaces en cas d'arrivées et de départs massifs
de noeuds (churn en anglais).

Cette thèse vise donc à fournir de nouveaux supports pour les arbres
préfixes au-dessus de DHT permettant de faire des requêtes complexes
performantes. Nos approches assurent un bon un équilibrage de charge
des noeuds stockant les index et offrent un surcoût limité en messages
combiné à une latence faible. De plus, elles supportent mieux la
dynamique du réseau pair-à-pair par rapport aux approches classiques.
Nous avons étendu l'arbre préfixe PHT en proposant deux solutions:
PORQUE et ECHO. PORQUE vise à réduire la latence tandis qu'ECHO
fournit des recherches avec un faible surcoût. Nous avons implémenté
et évalué ses deux solutions au-dessus du simulateur PeerSim. Les
résultats des expérimentations confirment que PORQUE et ECHO peuvent
réduire la latence et le trafic réseau de plus de 50% par rapport à
PHT. Nos solutions équilibrent aussi la charge en évitant les goulets
d'étranglement dans les noeuds stockant les niveaux supérieurs de
l'arbre. Nous avons réalisé nos évaluations sur plusieurs ensembles de
données (réels et synthétiques) ayant des répartitions de clés
différentes. Les résultats montrent que nos solutions sont peu
sensibles à l'asymétrie dans la distribution des clés tout en ayant
une bonne résistance à la dynamique du réseau.


Cordialement,
Nicolas HIDALGO
Laboratoire LIP6, équipe-projet REGAL

Invitation à la soutenance de thèse de Erika Rosas

Bonjour,

J'ai le plaisir de vous inviter à ma soutenance de thèse intitulée
«Building Trustworthy Services in P2P networks» qui aura lieu le mardi
29 novembre 2011 à 13h30 au Laboratoire d'Informatique de Paris 6
(LIP6) à Jussieu, salle 105 couloir 25-26.

Le jury est composé de :

* Peter Druschel, Scientific Director, Max Planck Institute for
Software Systems / rapporteur
* Patrick Valduriez, Directeur de Recherche, Inria / rapporteur
* Bertil Folliot, Professeur, Université Pierre et Marie Curie / examinateur
* Anne-Marie Kermarrec, Directrice de Recherche, Inria / examinateur
* Xavier Bonnaire, Professeur Associé, Universidad Técnica Federico
Santa María / co-encadrant de thèse
* Olivier Marin, Maître de Conférence, Université Pierre et Marie
Curie / co-encadrant de thèse
* Pierre Sens, Professeur, Université Pierre et Marie Curie /
directeur de thèse

= Abstract =

Building trust is a major concern in Peer-to-Peer networks as several
kinds of application rely on the presence of trusted services.
However, the presence of untrusted peers may hinder the robustness and
degrade the overall performance of applications. Untrusted nodes in
the network may be faulty, malicious, selfish, or even act together to
attack the application. Traditional techniques for countering
untrusted node activity do not scale, produce very high overhead, or
rely on unrealistic assumptions.

This thesis aims to provide a framework to build trustworthy
applications over structured Peer-to-Peer networks. We describe and
evaluate both a reputation system and a membership algorithm which
builds a community of reputable peers. Our reputation system
introduces the concept of risk to make applications aware of several
malicious node behaviours. We propose a risk metric that complements
the reputation value and show that it significantly reduces the number
of malicious transactions. We propose a new membership algorithm to
build a scalable pseudo-trusted ring within a Distributed Hash Table.
Our algorithm uses a reputation-based approach to decide whether a
node can participate to the ring. We demonstrate the benefits of this
approach, present some example applications and evaluate how much it
improves the reliability of a trusted routing service.


= Résumé =

La mise en place d'un service applicatif au sein d'un système
pair-à-pair (P2P) nécessite un fonctionnement correct au niveau de
chaque pair. Dans un environnement P2P ouvert et hétérogène, certains
pairs peuvent toutefois se révéler malicieux et porter atteinte à la
fiabilité de l'application à laquelle ils participent. La confiance
devient donc un élément essentiel pour encourager la coopération
active de chaque pair vis-à-vis de l'application, et améliorer la
qualité du service fourni. La présente thèse constitue une étude de
solutions pour construire des applications P2P pseudo-fiables,
c'est-à-dire avec une probabilité élevée de fournir un service fiable.
Nous détaillons dans un premier temps l'état de l'art des activités de
recherche dans le domaine de la gestion répartie de la réputation et
de la confiance. Puis nous proposons deux solutions complémentaires:
un système de réputation novateur en ce qu'il introduit une mesure du
risque associé à la valeur de la réputation de chaque pair, ainsi
qu'un ensemble d'algorithmes P2P pour établir et maintenir un groupe
de pairs réputés fiables. Pour finir nous proposons plusieurs exemples
de services applicatifs pseudo-fiables en expliquant comment les bâtir
à l'aide de nos solutions, et étudions plus précisément un service de
routage pour évaluer le degré de confiance qui peut être atteint grâce
à notre approche.


Cordialement,
Erika Rosas

vendredi 18 novembre 2011

Invitation à la soutenance de thèse de Zeinab Movahedi

Bonjour,

J'ai le grand plaisir de vous inviter à la soutenance de ma thèse intitulée "Une architecture autonomique pour les réseaux sans-fil: proposition et méthodologie d'évaluation" ainsi qu'au pot qui suivra.
La soutenance aura lieu le Vendredi 25 Novembre à 10h45 à:

 Université Pierre et Marie curie
 Tour 25/26, 1er étage, salle 105
  4, place Jussieu
  75252 Paris


***********
Résumé

***********
Autonomic network management is a promising approach to reduce the cost and the complexity of managing network infrastructures. It relates to the capability of the network to fulfill self-configuration, self-optimization, self-protection and self-healing functionalities. To achieve these properties, a new network management solution based on autonomic architecture is paramount. The objective of this thesis consists in providing an autonomic architecture for wireless mobile networks which is able to self-adapt according to their dynamic context.
To achieve this, we proposed SADA, a self-adaptive autonomic architecture for wireless mobile networks. SADA presents two new autonomic features: first, it enriches the IBM reference autonomic model exploited by existing architectures with self-adaptation capabilities. Second, it defines a second autonomic control loop around the monitoring component, allowing it to self-adapt according to the network context. The proposed SADA architecture provides the self-adaptation features based on a learning mechanism which uses the experienced outcome of its decisions to enhance its operation. Moreover, the SADA architecture uses a self-adaptive monitoring approach which provides required information for adaptation algorithms with a minimum extra overhead.
As a case of application, SADA has been employed in routing service, resulting in the proposal of a self-adaptive routing scheme. Simulation results showed that SADA improves significantly the network performance in terms of packet delivery ratio, average end-to-end delay and routing overhead compared to the classical IP-based architecture.
Moreover, we applied the SADA architecture to design a self-adaptive knowledge monitoring scheme for autonomic network trust management. The objective of this case study was to investigate the effectiveness of the autonomic monitoring mechanism proposed by the SADA architecture.
Lastly, we proposed a quantitative evaluation methodology to evaluate and compare the efficiency of autonomic architectures from the autonomicity standpoint. To show the applicability of our methodology, we considered two use cases in two different contexts: (i) a wireless ad-hoc network using SADA architecture, and (ii) an infrastructure-based wireless network. Results showed that the proposed SADA architecture constitutes an efficient autonomic solution, characterized by its distributed intelligence, learning capability, self-adaptation features, low complexity, light monitoring, high quality of knowledge, security support and evolvability.



*****************
Jury de thèse
*****************

Francine Krief, Rapporteur, Professeur à l'ENSEIRIB
Otto Carlos Muniz Bandeira Duarte, Rapporteur, Professeur au Brésil
Yacine Ghamri-Doudane, Examinateur, HDR à l'ENSIIE
Marcelo DIAS DE AMORIM, Examinateur, Directeur de recherche CNRS, UPMC
Guy Pujolle, Directeur de thèse, Professeur à l'UPMC
Rami Langar, Co-encadrant, Maître de conférence à l'UPMC

mercredi 16 novembre 2011

Modification de l'heure de la soutenance de thèse de Myriam Ben Saad

Bonjour,

Vous êtes cordialement invités à ma soutenance de thèse intitulée :

« Qualité des archives Web : Modélisation et Optimisation »

La soutenance aura lieu le Vendredi 18 Novembre 2011 à 10h45 (au lieu de
14h30), en salle 105 couloir 25-26 (1er étage), au Laboratoire
d'Informatique de Paris 6 (LIP6), 4 Place Jussieu, 75005 Paris.

Un pot suivra dans la même salle, auquel vous êtes aussi conviés.


----------------------------------------------------------------------

Résumé de la thèse :

Aujourd'hui, le Web est devenu le moyen le plus important pour véhiculer
des informations qui peuvent avoir une grande valeur culturelle,
scientifique, économique, etc. Archiver son contenu ou du moins une partie
est devenu crucial afin de préserver certaines informations utiles pour
les générations futures de chercheurs, écrivains, historiens, etc.
Cependant, les archivistes doivent faire face à un grand défi qui consiste
à préserver la qualité des données collectées pour garantir la plus grande
fidélité du Web. C'est dans cette perspective d'améliorer la qualité des
archives que nos travaux de thèse s'inscrivent. Nous nous intéressons aux
deux mesures de qualité: la complétude temporelle et la cohérence
temporelle qui sont très pertinentes pour évaluer les archives Web. Nous
proposons une nouvelle approche d'archivage qui exploite le rendu visuel
des pages pour y détecter les changements de la même manière que les
utilisateurs les perçoivent. Nous proposons ensuite une méthode pour
évaluer l'importance des changements visuels ainsi détectés. Par la suite,
nous modélisons l'importance des changements sous forme de patterns, par
le modèle PPaC (Pattern of Pages Changes). Contrairement aux modèles déjà
existants basés sur un taux moyen de changements, PPaC permet de mieux
prédire les moments les plus opportuns durant lesquels des modifications
importantes sont censées survenir dans les pages. En se basant sur PPaC,
nous proposons différentes stratégies de crawling qui visent à améliorer
la complétude et/ou la cohérence temporelle. Nos différentes stratégies
ont été implémentées puis expérimentées aussi bien sur des pages simulées
que sur de vraies pages Web. Les résultats obtenus démontrent que le
modèle PPaC basé sur l'importance des changements est un instrument utile
pour améliorer considérablement la qualité des archives.

----------------------------------------------------------------------

Membres du jury :
Serge Abiteboul Directeur de recherche à INRIA-Saclay [Rapporteur]
Vassilis Christophides Professeur à FORTH-ICS [Rapporteur]
Elisabeth Murisasco Professeur à l'USTV [Examinateur]
Bernd Amann Professeur à l'UPMC [Examinateur]
Julien Masanès Directeur d'Internet Memory Foundation [Examinateur]
Jérôme Mainka Directeur de recherche à Antidot [Examinateur]
Stéphane Gançarski Maitre de conférences (HDR) à l'UPMC [Directeur de thèse]


Cordialement,
Myriam Ben Saad.

jeudi 10 novembre 2011

Invitation à la soutenance de thèse de Myriam Ben Saad

Bonjour,

Vous êtes cordialement invité à ma soutenance de thèse intitulée :

« Qualité des archives Web : Modélisation et Optimisation »

La soutenance aura lieu le Vendredi 18 Novembre 2011 à 14h30, en salle 105
couloir 25-26 (1er étage), au Laboratoire d'Informatique de Paris 6
(LIP6), 4 Place Jussieu, 75005 Paris.

Un pot suivra dans la même salle, auquel vous êtes aussi conviés.


----------------------------------------------------------------------

Résumé de la thèse :

Aujourd'hui, le Web est devenu le moyen le plus important pour véhiculer
des informations qui peuvent avoir une grande valeur culturelle,
scientifique, économique, etc. Archiver son contenu ou du moins une partie
est devenu crucial afin de préserver certaines informations utiles pour
les générations futures de chercheurs, écrivains, historiens, etc.
Cependant, les archivistes doivent faire face à un grand défi qui consiste
à préserver la qualité des données collectées pour garantir la plus grande
fidélité du Web. C'est dans cette perspective d'améliorer la qualité des
archives que nos travaux de thèse s'inscrivent. Nous nous intéressons aux
deux mesures de qualité: la complétude temporelle et la cohérence
temporelle qui sont très pertinentes pour évaluer les archives Web. Nous
proposons une nouvelle approche d'archivage qui exploite le rendu visuel
des pages pour y détecter les changements de la même manière que les
utilisateurs les perçoivent. Nous proposons ensuite une méthode pour
évaluer l'importance des changements visuels ainsi détectés. Par la suite,
nous modélisons l'importance des changements sous forme de patterns, par
le modèle PPaC (Pattern of Pages Changes). Contrairement aux modèles déjà
existants basés sur un taux moyen de changements, PPaC permet de mieux
prédire les moments les plus opportuns durant lesquels des modifications
importantes sont censées survenir dans les pages. En se basant sur PPaC,
nous proposons différentes stratégies de crawling qui visent à améliorer
la complétude et/ou la cohérence temporelle. Nos différentes stratégies
ont été implémentées puis expérimentées aussi bien sur des pages simulées
que sur de vraies pages Web. Les résultats obtenus démontrent que le
modèle PPaC basé sur l'importance des changements est un instrument utile
pour améliorer considérablement la qualité des archives.

----------------------------------------------------------------------

Membres du jury :
Serge Abiteboul Directeur de recherche à INRIA-Saclay [Rapporteur]
Vassilis Christophides Professeur à FORTH-ICS [Rapporteur]
Elisabeth Murisasco Professeur à l'USTV [Examinateur]
Bernd Amann Professeur à l'UPMC [Examinateur]
Julien Masanès Directeur d'Internet Memory Foundation [Examinateur]
Jérôme Mainka Directeur de recherche à Antidot [Examinateur]
Stéphane Gançarski Maitre de conférences (HDR) à l'UPMC [Directeur de thèse]


Cordialement,
Myriam Ben Saad.

mardi 8 novembre 2011

Soutenance de thèse de Mathieu Sassolas

Bonjour,

j'ai le plaisir de vous inviter à la soutenance de ma thèse intitulée

Méthodes qualitatives et quantitatives
pour la détection d'information cachée

ainsi qu'au pot qui suivra.

La soutenance aura lieu le lundi 28 novembre 2011 à 10h à Jussieu en
salle 25-26/105.


========================================================================
Résumé
========================================================================

Les systèmes informatiques sont devenus omniprésents et sont utilisés au
quotidien pour gérer toujours plus d'information. Ces informations sont
de plus en plus souvent confidentielles : il peut s'agir d'informations
stratégiques militaires ou financières, ou bien d'informations
personnelles. La fuite de ces informations peut ainsi avoir des
conséquences graves telles que des pertes humaines, financières, des
violations de la vie privée ou de l'usurpation d'identité.

Les méthodes formelles de vérification sont nécessaires pour garantir la
sûreté et la sécurité du système. Ces techniques s'appliquent sur des
modèles du système où certains paramètres – en particulier des
paramètres quantitatifs – peuvent avoir été abstraits. Ces paramètres
ont pu être utilisés dans des attaques de systèmes réputés sûrs. Les
modèles actuels intègrent donc ces informations, qui se rapportent le
plus souvent à l'écoulement (continu) du temps ou aux lois de
probabilités qui régissent le fonctionnement du système.

Les modèles intègrent d'autre part le découpage de l'application en
divers processus, mûs par des buts différents, voire contraires : l'un
peut chercher à dissimuler de l'information tandis que l'autre cherche à
la découvrir. Lorsque le fonctionnement de tous les processus est
partiellement ou totalement inconnu, les méthodes formelles doivent
considérer tous les cas possibles, ce qui est en général impossible en
théorie – s'il existe un nombre infini de possibilités – ou en pratique
– s'il existe trop de possibilités pour que l'on puisse les envisager
exhaustivement.

Les contributions de cette thèse se découpent en trois parties. Tout
d'abord, nous étudions le problème de synthèse d'un canal de
communication dans un système décrit par un transducteur. Malgré les
limites imposées par ce modèle, nous montrons que le problème de
synthèse est indécidable en général. Cependant, lorsque le système est
fonctionnel, c'est-à-dire que son fonctionnement externe est toujours le
même, le problème devient décidable.

Nous généralisons ensuite le concept d'opacité aux systèmes
probabilistes, en donnant des mesures groupées en deux familles. Lorsque
le système est opaque, nous évaluons la robustesse de cette opacité
vis-à-vis des informations données par les lois de probabilités du
système. Lorsque le système n'est pas opaque, nous évaluons la taille de
la faille de sécurité induite par cette non opacité.

Enfin, nous étudions le modèle des automates temporisés à interruptions
(ITA) où les informations sur l'écoulement du temps sont organisées en
niveaux comparables à des niveaux d'accréditation. Nous étudions les
propriétés de régularité et de clôture des langages temporisés générés
par ces automates et proposons des algorithmes de model-checking pour
des fragments de logiques temporelles temporisées. Ces résultats
permettent la vérification de propriétés telles que « le système est
(dans un état) prêt avant les 7 premières unités de temps de
fonctionnement du système ».


========================================================================
Abstract
========================================================================

Information systems have become ubiquitous and are used to handle each
day more and more data. This data is increasingly confidential: it may
be strategic military or financial information, or private information.
Any leakage of this data can be harmful in many different ways, such
that human casualties, money loss, privacy breaching or identity theft.

The use of formal methods and especially formal verification of such
systems has become necessary to ensure both the safety of the behavior
of the system and the security of the information it handles. These
techniques are applied on models of the system where some parameters –
especially quantitative parameters – may have been abstracted. These
omitted parameters have sometimes been used in order to breach the
security of supposedly secure systems. Nowadays, models tend to include
more of this information, which is often relative to the (continuous)
elapsing of time or to the probability distributions that rule the
system's behavior.

Models also include the architecture of the systems as several
processes, who may have different, or even contradictory, goals: one may
want to keep a secret while the other tries to discover it. When the
behavior of all processes is partially or completely unknown, formal
methods have to consider all possible cases, which is in general
impossible (if there exist an infinite number of choice) or intractable
(if there exist too many possibilities to consider them all).

The contributions of this thesis are threefold. First, we study the
problem of synthesis of a communication channel inside a system given as
a transducer. Even though the model of transducers is syntactically
limiting, we show that this synthesis problem is undecidable in general.
However, when the system is functional, meaning that its behavior from
an external point of view is always the same, the problem becomes decidable.

We then generalize the concept of opacity to probabilistic systems, by
giving measures separated in two groups. When the system is opaque, we
evaluate the robustness of this opacity with respect to the bias induced
by the probability distributions in the system. When the system is not
opaque, we evaluate the size of the security hole opened by this
non-opacity.

Finally, we study the model of Interrupt Timed Automata (ITA) where
information about time elapsing is organized along levels, which
therefore resemble accreditation levels. We study properties of
regularity and closure of the time languages accepted by these automata
and give some model-checking algorithms for fragments of timed temporal
logics. These results allow to verify formulas such as "the system is
(in state) ready before 7 time units have elapsed since the beginning of
the system's execution".


========================================================================
Composition du jury
========================================================================

Catuscia PALAMIDESSI, INRIA et École polytechnique; rapporteur.
Jean-François RASKIN, Université Libre de Bruxelles; rapporteur.
Philippe DARONDEAU, IRISA/INRIA Rennes; examinateur.
Serge HADDAD, École normale supérieure de Cachan; examinateur.
Fabrice KORDON, Université Pierre et Marie Curie; examinateur.
Béatrice BÉRARD, Université Pierre et Marie Curie; directrice de thèse.

Cordialement,
--
Mathieu Sassolas

vendredi 21 octobre 2011

Soutenance de Thèse : Isaac Maia Pessoa : 15h30

Bonjour,

désolée pour les réceptions multiples

Je vous invite à ma soutenance de thèse:

Titre: Simulation Parallèle de Systèmes Multi-Processeurs Intégré sur
Puce Modélisé en SystemC au Niveau Transactionnel
Date: 25/10/2011 ( Mardi Prochain )
Lieu: salle 203-205 dans le bat. 41 (en face du gymnase de sport au
2ème étage)
heure: 15h30

Résumé

Le cerveau des dispositifs électroniques est construit à partir de
petits composants appelés circuits intégrés (microchip ou simplement
puce). L'avènement de l'intégration à très grande échelle (VLSI –
Very Large Scale Integration) dans l'industrie microélectronique a
permis l'assemblage de plusieurs composants dans une seule puce,
appelée système sur puce (SoC – System on a Chip).

Dans les applications multimédia, les systèmes sur puce contenant un
seul processeur deviennent obsolètes en raison de la puissance requise
: la puce contrôlant un téléphone intelligent peut contenir plusieurs
dizaines de processeurs fonctionnant en parallèle qui exécutent des
multitâches logicielles complexes, contrôlées par un O.S embarqué. Ces
systèmes sont appelés systèmes multiprocesseurs sur puce (MP-SoC).

SoCLib est un environnement de prototypage virtuel pour MP-SoC
contenant diverses bibliothèques de modèles de simulation SystemC pour
les composants matériels génériques (modèles de simulation IP-cores),
y compris les différents niveaux d'abstraction.

TLM-DT est une bibliothèque de composants MP-SOC inclus dans SoCLib.
TLM-DT essaie de mélanger les principes TLM (modélisation au niveau
transactionnel), et PDES (simulation parallèle à événements discrets).
L'idée de TLM-DT est donc de soutenir les principes de simulation
parallèle au niveau transactionnel.

Le sujet principal de cette thèse est la simulation parallèle de
prototypes MP-SoC modélisés avec la bibliothèque TLM-DT.

Jury:
Mme Florence MARANINCHI
M. Pascal SAINRAT
M. Jean Luc LAMOTTE
M. Etienne Lantreibecq

M. François PECHEUX co-directeur de Thèse
M. Alain GREINER Directeur de Thèse


Cordialement,

Isaac

Soutenance de Thèse : Isaac Maia Pessoa

Bonjour,

Je vous invite à ma soutenance de thèse:

Titre: Simulation Parallèle de Systèmes Multi-Processeurs Intégré sur
Puce Modélisé en SystemC au Niveau Transactionnel
Date: 25/10/2011 ( Mardi Prochain )
Lieu: salle 203-205 dans le bat. 41 (en face du gymnase de sport au
2ème étage)

Résumé

Le cerveau des dispositifs électroniques est construit à partir de
petits composants appelés circuits intégrés (microchip ou simplement
puce). L'avènement de l'intégration à très grande échelle (VLSI –
Very Large Scale Integration) dans l'industrie microélectronique a
permis l'assemblage de plusieurs composants dans une seule puce,
appelée système sur puce (SoC – System on a Chip).

Dans les applications multimédia, les systèmes sur puce contenant un
seul processeur deviennent obsolètes en raison de la puissance requise
: la puce contrôlant un téléphone intelligent peut contenir plusieurs
dizaines de processeurs fonctionnant en parallèle qui exécutent des
multitâches logicielles complexes, contrôlées par un O.S embarqué. Ces
systèmes sont appelés systèmes multiprocesseurs sur puce (MP-SoC).

SoCLib est un environnement de prototypage virtuel pour MP-SoC
contenant diverses bibliothèques de modèles de simulation SystemC pour
les composants matériels génériques (modèles de simulation IP-cores),
y compris les différents niveaux d'abstraction.

TLM-DT est une bibliothèque de composants MP-SOC inclus dans SoCLib.
TLM-DT essaie de mélanger les principes TLM (modélisation au niveau
transactionnel), et PDES (simulation parallèle à événements discrets).
L'idée de TLM-DT est donc de soutenir les principes de simulation
parallèle au niveau transactionnel.

Le sujet principal de cette thèse est la simulation parallèle de
prototypes MP-SoC modélisés avec la bibliothèque TLM-DT.

Jury:
Mme Florence MARANINCHI
M. Pascal SAINRAT
M. Jean Luc LAMOTTE
M. Etienne Lantreibecq

M. François PECHEUX co-directeur de Thèse
M. Alain GREINER Directeur de Thèse


Cordialement,

Isaac

mardi 18 octobre 2011

Changement de salle : Soutenance de thèse de Charles Delort

Contrairement à ce qui était indiqué, la soutenance se déroulera en salle
101 - 1er étage du couloir 25/26

> Bonjour,
> J'ai le plaisir de vous inviter à ma soutenance de thèse intitulée :
"Algorithmes d'énumération implicite pour l'optimisation multi-objectifs
exacte : exploitation d'ensembles bornant et application aux problèmes
de
> sac à dos et d'affectation"
> La soutenance se déroulera le :
> ==========
> Mercredi 19 Octobre à 14h00 au LIP6, salle 101 - 1er étage du couloir
26/00 (site Jussieu)
> ==========
> Vous êtes également invités au pot qui suivra.
> =========
> Résumé
> =========
> Dans cette thèse, nous nous intéressons à des méthodes permettant de
> calculer le front de Pareto dans des problèmes d'optimisation
> combinatoire multi-objectifs. Ce genre de problème se pose
> quotidiennement, par exemple lorsque l'on souhaite trouver un itinéraire
minimisant à la fois le temps de parcours et le prix de cet itinéraire.
L'objectif de nos travaux est double. Dans un premier temps, nous
développons des algorithmes d'énumération implicite (branch and bound,
programmation dynamique, ...) adaptés au cadre multi-objectifs, pour
résoudre efficacement certains problèmes d'optimisation combinatoire
multi-objectifs, à savoir le problème du sac à dos bi-objectifs et le
problème d'affectation bi-objectifs.
> Dans un second temps, nous élargissons le champ d'application de ces
méthodes à un problème d'optimisation combinatoire ordinale : le
problème
> de sélection de comité avec contrainte de budget. Pour résoudre ce
problème nous le réduisons à un problème multi-objectifs, ce qui nous
permet d'exploiter les travaux conduits sur le sac à dos
multi-objectifs.
> En outre, nous proposons également un algorithme dédié pour ce problème
de
> sélection de comité.
> =========
> Abstract
> =========
> In this thesis, we are interested in methods computing the Pareto front
of
> multiobjective combinatorial optimization problems. This kind of problem
arises everyday, for instance, when one wants to find a route minimizing
both the time taken and the price of this route. The goal of this thesis
is twofold. First, we develop new implicit enumeration algorithms
(branch
> and bound, dynamic programming, ...) adapted to the multiobjective case,
in order to solve efficiently some multiobjective combinatorial
optimization problems, namely the biobjective knapsack problem and the
biobjective assignment problem.
> The second goal of our thesis is to enlarge the scope of these methods
to
> a ordinal optimization problem : the committee selection with a weight
constraint problem. We give a reduction from this problem to a
> multiobjective problem, enabling us to use the previous methods to solve
it. Besides, we also propose a dedicated solution algorithm for this
committee selection problem.
> ========
> Jury
> ========
> - Patrice PERNY, Professeur à l'Université Pierre et Marie Curie (Paris VI)
> (directeur de thèse)
> - Olivier SPANJAARD, Maître de Conférence à l'Université Pierre et Marie
Curie (Paris VI) (co-encadrant de thèse)
> - Xavier GANDIBLEUX, Professeur à l'Université de Nantes (rapporteur) -
Daniel VANDERPOOTEN, Professeur à l'Université Paris-Dauphine (Paris
IX)
> (rapporteur)
> - Christian ARTIGUES, Chargé de recherche HDR, LAAS CNRS (examinateur) -
Evripidis BAMPIS, Professeur à l'Université Pierre et Marie Curie
(Paris
> VI) (examinateur)
> ========
> Accès
> ========
> LIP6 : 4 Place Jussieu 75005 Paris
> Plan d'accès : http://www.lip6.fr/informations/comment.php

jeudi 13 octobre 2011

Soutenance de thèse de Charles Delort

Bonjour,

J'ai le plaisir de vous inviter à ma soutenance de thèse intitulée :
"Algorithmes d'énumération implicite pour l'optimisation multi-objectifs
exacte : exploitation d'ensembles bornant et application aux problèmes de
sac à dos et d'affectation"

La soutenance se déroulera le :

==========
Mercredi 19 Octobre à 14h00 au LIP6, salle 101 - 1er étage du couloir
26/00 (site Jussieu)
==========

Vous êtes également invités au pot qui suivra.

=========
Résumé
=========
Dans cette thèse, nous nous intéressons à des méthodes permettant de
calculer le front de Pareto dans des problèmes d'optimisation
combinatoire multi-objectifs. Ce genre de problème se pose
quotidiennement, par exemple lorsque l'on souhaite trouver un itinéraire
minimisant à la fois le temps de parcours et le prix de cet itinéraire.
L'objectif de nos travaux est double. Dans un premier temps, nous
développons des algorithmes d'énumération implicite (branch and bound,
programmation dynamique, ...) adaptés au cadre multi-objectifs, pour
résoudre efficacement certains problèmes d'optimisation combinatoire
multi-objectifs, à savoir le problème du sac à dos bi-objectifs et le
problème d'affectation bi-objectifs.
Dans un second temps, nous élargissons le champ d'application de ces
méthodes à un problème d'optimisation combinatoire ordinale : le problème
de sélection de comité avec contrainte de budget. Pour résoudre ce
problème nous le réduisons à un problème multi-objectifs, ce qui nous
permet d'exploiter les travaux conduits sur le sac à dos multi-objectifs.
En outre, nous proposons également un algorithme dédié pour ce problème de
sélection de comité.

=========
Abstract
=========

In this thesis, we are interested in methods computing the Pareto front of
multiobjective combinatorial optimization problems. This kind of problem
arises everyday, for instance, when one wants to find a route minimizing
both the time taken and the price of this route. The goal of this thesis
is twofold. First, we develop new implicit enumeration algorithms (branch
and bound, dynamic programming, ...) adapted to the multiobjective case,
in order to solve efficiently some multiobjective combinatorial
optimization problems, namely the biobjective knapsack problem and the
biobjective assignment problem.
The second goal of our thesis is to enlarge the scope of these methods to
a ordinal optimization problem : the committee selection with a weight
constraint problem. We give a reduction from this problem to a
multiobjective problem, enabling us to use the previous methods to solve
it. Besides, we also propose a dedicated solution algorithm for this
committee selection problem.


========
Jury
========
- Patrice PERNY, Professeur à l'Université Pierre et Marie Curie (Paris VI)
(directeur de thèse)
- Olivier SPANJAARD, Maître de Conférence à l'Université Pierre et Marie
Curie (Paris VI) (co-encadrant de thèse)
- Xavier GANDIBLEUX, Professeur à l'Université de Nantes (rapporteur)
- Daniel VANDERPOOTEN, Professeur à l'Université Paris-Dauphine (Paris IX)
(rapporteur)
- Christian ARTIGUES, Chargé de recherche HDR, LAAS CNRS (examinateur)
- Evripidis BAMPIS, Professeur à l'Université Pierre et Marie Curie (Paris
VI) (examinateur)

========
Accès
========
LIP6 : 4 Place Jussieu 75005 Paris
Plan d'accès : http://www.lip6.fr/informations/comment.php

vendredi 23 septembre 2011

Invitation à la soutenance de thèse - Haluk Ozaktas

Bonjour,

J'ai le grand plaisir de vous inviter à la soutenance de ma thèse intitulée :

"Compression de code et optimisation multicritère des systèmes embarqués
dans un contexte temps réel strict"

Date & lieu : 29 septembre 2011 à 15h00 au LIP6, tour 55-65 salle 211.

Vous êtes également invités au pot qui suivra à la maison de la pédagogie
salle A002.

Résumé :

Pour des raisons économiques, énergétiques et/ou ergonomiques, les
systèmes embarqués sont soumis à de nombreuses contraintes comme être
performants en moyenne ou dans le pire cas, avoir une consommation
d'énergie et une mémoire de taille aussi réduite que possible. En
conséquence, les systèmes embarqués ont plusieurs critères à optimiser
lors de leur conception. Ce travail de thèse s'intéresse à la mise au
point de stratégies d'optimisation de code multicritère pour des
applications embarquées potentiellement temps réel strict.

Dans un premier temps, un schéma de compression de code a été développé et
mis en place pour optimiser principalement la taille de code. Ce schéma
utilise une décompression dans le pipeline du processeur pour pouvoir
optimiser aussi la consommation d'énergie et la performance moyenne ou
pire cas. L'analyse des effets du schéma proposé a montré qu'il peut
simultanément optimiser, ou offrir de bons compromis entre, plusieurs
critères.

Dans un deuxième temps, une plateforme d'optimisation multicritère a été
mise en œuvre pour appliquer simultanément plusieurs transformations de
code ciblant différents critères. Cette plateforme utilise une approche
itérative pour trouver les points de compromis entre les critères
d'intérêt.

Finalement, afin de mettre au point des stratégies d'optimisation
multicritère, nous avons proposé d'utiliser une méthode de comparaison
statistique de l'efficacité des algorithmes de recherche à trouver
rapidement de bonnes optimisations. Nous avons appliqué cette méthode à
différents algorithmes de recherche dans plusieurs cas d'optimisation.

Mots-clés : compression de code, optimisation multicritère, compilation
itérative, systèmes embarqués, temps réel, haute performance.

Jury :

- Nathalie DRACH-TEMAM, Directrice de thèse
Professeur à l'UPMC
- Karine HEYDEMANN, Encadrante
Maître de Conférences à l'UPMC
- François BODIN, Rapporteur
Professeur à l'Université de Rennes 1 - CAPS Entreprise
- Pascal SAINRAT, Rapporteur
Professeur à l'Université Paul Sabatier
- Jean-Luc LAMOTTE, Examinateur
Professeur à l'UPMC
- Marc DURANTON, Examinateur
Chercheur au CEA

Cordialement,
Haluk Ozaktas

jeudi 22 septembre 2011

Invitation à la soutenance de thèse de Benjamin Canou

Bonjour,

J'ai le plaisir de vous convier à la soutenance de ma thèse intitulée
"Programmation Web Typée", qui s'articule autour des problématiques de
programmation du navigateur et de manipulations sûres du document.

La soutenance aura lieu le 4 octobre 2011 à 10h45, en salle 25-26-105,
sur le campus de Jussieu.

Un pot suivra, auquel vous êtes aussi conviés, en salle 25-26-101.

----------------------------------------------------------------------

Résumé de la thèse :

Le but de cet thèse est de contribuer à rendre la programmation Web plus
flexible et plus sûre qu'elle ne l'est avec les solutions répandues
actuellement. Pour ceci, proposons une solution dans la lignée des
langages de la famille ML, qui laisse un maximum de liberté au
programmeur de part son côté multi-paradigmes, tout en offrant un degré
de sûreté important grâce au typage statique.

Dans une première partie, nous montrons qu'il est possible de programmer
le navigateur sans se plier au style de JavaScript. Notre solution est
OBrowser, une implantation en JavaScript de la machine virtuelle OCaml.
L'implantation prend en charge l'ensemble du langage OCaml et de sa
bibliothèque, y compris le modèle de concurrence préemptif. Nous
présentons de plus un mécanisme d'inter-opérabilité entre la couche
objet de JavaScript et celle d'OCaml, permettant d'utiliser de façon
bien typée l'environnement du navigateur avec les objets d'OCaml.

Dans une seconde partie, nous fournissons une API de manipulation du
document plus sûre et de plus haut niveau que le DOM des navigateurs. En
particulier, nous cherchons à éliminer les déplacements implicites
effectués par le DOM pour maintenir la forme d'arbre, qui limitent les
possibilités de typage statique. Nous donnons d'abord fDOM, un modèle
formel minimal similaire au DOM. Puis nous proposons cDOM, un modèle
alternatif où les déplacements sont remplacés par des copies. Nous
décrivons ensuite FidoML, un langage basé sur ML, permettant les
manipulations bien typées du document grâce à l'utilisation de cDOM.
Dans toute cette partie, nous faisons attention à ce que les solutions
données soient aussi adaptables que possible.

Dans une troisième partie, nous montrons comment les travaux, jusqu'ici
principalement présentés dans le cadre du navigateur, s'appliquent à un
contexte multi-tiers. Nous donnons d'abord un tour d'horizon des
plates-formes multi-tiers proches issues de la recherche. Nous décrivons
en particulier les solutions qu'elles apportent à un ensemble de
problématiques spécifiques à la programmation Web. Puis nous concluons
en présentant les grandes lignes d'un langage multi-tiers mettant à
profit les travaux des deux parties précédentes dans les solutions à ces
différentes problématiques.

----------------------------------------------------------------------

Composition du jury :

- Emmanuel Chailloux, directeur,
Professeur à l'Université Pierre et Marie Curie
- Vincent Balat, directeur,
Maître de Conférences à l'Université Paris Diderot
- Jacques Garrigue, rapporteur,
Professeur à l'Université de Nagoya,
- Peter Van Roy, rapporteur,
Professeur à l'Université Catholique de Louvain
- Christian Queinnec,
Professeur à l'Université Pierre et Marie Curie
- Giuseppe Castagna,
Directeur de Recherches au CNRS
- Manuel Serrano,
Directeur de Recherches à l'INRIA Sophia Antipolis
- Alain Frisch,
Directeur Technique, LexiFi

----------------------------------------------------------------------

Pour un récapitulatif de ces informations : http://canou.fr/soutenance/

Benjamin Canou.

mercredi 21 septembre 2011

Invitation à la soutenance de thèse de Luk Bettale

Bonjour,

J'ai le plaisir de vous inviter à ma soutenance de thèse intitulée:
"Cryptanalyse algébrique : outils et applications"

La soutenance aura lieu le Lundi 3 Octobre à 13h00 à l'UPMC (Jussieu),
Tour 25-26, 1er étage, salle 105 devant le jury suivant:

Jean-Claude Bajard, examinateur, professeur à l'UPMC,

Jean-Charles Faugère, directeur de thèse, directeur de recherche à l'INRIA,

Pierre-Alain Fouque, rapporteur, maître de conférences à l'ÉNS,

Jaime Gutierrez, rapporteur, professeur à l'Universidad de Cantabria,
Santander (Espagne),

Franck Landelle, examinateur, ingénieur à la DGA maîtrise de l'information,

Ludovic Perret, co-encadrant, maître de conférences à l'UPMC.


Vous êtes également invité au pot qui suivra.


résumé de la thèse (a summary in english is following):
Cette thèse traite de la cryptanalyse algébrique qui consiste à
modéliser une primitive cryptographique en un système d'équations
polynomiales en plusieurs variables dans le but de le résoudre (ou au
moins d'en estimer la difficulté). Pour la résolution, nous utilisons
des outils provenant du calcul formel (bases de Gröbner).
Un première axe a été la modélisation et la recherche d'antécédents sur
des fonctions de hachages cryptographiques. Nos travaux permettent
d'estimer que le coût d'une recherche d'antécédent est inférieure à la
recherche exhaustive pour les fonctions les plus courantes. Nous
observons même une meilleure complexité que les attaques existantes.
Un deuxième axe a été la conception et l'étude d'algorithmes qui tirent
parti du contexte d'application (corps finis). Notre méthode mélange
l'énumération exhaustive des éléments du corps avec le calcul de bases
de Gröbner. Nous donnons une étude fine de sa complexité et nous
quantifions le gain apporté (un gain exponentiel en le nombre de
variables). La conception de ces algorithmes est motivée par l'attaque
de cryptosystèmes multivariés. Nos résultats permettent de montrer la
faiblesse de certains paramètres proposés (pour le schéma UOV par exemple).
Nous analysons également les schémas HFE et leurs généralisations
Multi-HFE. Nous donnons dans cette thèse une attaque en recouvrement de
clé qui est polynomiale en la taille du chiffré. Notre attaque permet
aussi de montrer que les schémas Multi-HFE sont moins sûrs que les
schémas HFE originels. Enfin, nous donnons des adaptations qui
permettent d'attaquer aussi les variantes sensées renforcer le schéma.

summary:
This thesis is about algebraic cryptanalysis, a technique consisting in
modeling a cryptographic primitive with a system of multivariate
polynomial equations. The goal is to solve it (or at least, estimate the
difficulty). For the solving step, we use tools from computer algebra
(Gröbner bases).
A first direction was the modeling and preimage attacks on cryptographic
hash fuctions. Our work allows to estimate that the cost of an algebraic
preimage attack is lesser than the exhaustive search. We observe a
better complexity than existing attacks.
A second direction was the design and study of solving algorithms for
finite fields. Our approach (hybrid approach) mixes exhaustive search
and Gröbner bases computation. We give the precise asymptotic complexity
of the approach, and we estimate the gain brought over classical methods
(an exponential gain in the number of variables). The design of this
approach is motivated by attacks on multivariate cryptosystems. Our
results permit to show the weakness of parameters proposed for such
schemes (for example the UOV scheme).
We also studied HFE schemes and their generalization Multi-HFE. We give
in this thesis a (practical) key recovery attack whose complexity is
proved to be polynomial in the size of the ciphertext. Our attack shows
that Multi-HFE schemes are less secure than original HFE schemes.
Finally, we adapt our attack to attack several variants supposed to
strengthen the schemes.

Bien cordialement,

--
Luk Bettale

lundi 19 septembre 2011

Invitation à la soutenance de thèse de Meriem Abid

Bonjour,

J'ai le plaisir de vous inviter à ma soutenance de thèse intitulée :
"Pilotage autonomique de la mobilité dans les réseaux sans fil hétérogènes"

La soutenance aura lieu le Vendredi 23 Septembre à 14h30 à la grande
salle de visioconférence au rez-de-chaussée du bâtiment Atrium,
couloir jaune, porte 2.

Vous êtes également invités au pot qui suivra.


***********
Résumé

***********

La convergence des réseaux sans fil hétérogènes autour d'un réseau
cœur IP est la conséquence de plusieurs facteurs qui sont d'une part
la complémentarité des technologies déployées (en terme de zone de
couverture, de capacité,...) et la démocratisation d'équipements
terminaux sophistiqués supportant de nouveaux services multimédia
d'autre part. Dans ce travail, nous nous intéressons à la qualité
d'expérience des utilisateurs mobiles afin qu'ils soient toujours
connectés au mieux et qu'ils puissent bénéficier des meilleurs
services selon leurs préférences. Pour cela, nous avons proposé une
solution qui s'appuie sur le paradigme de l'autonomique et qui
s'articule autour de deux axes de recherche à savoir la gestion de la
connaissance (plan de connaissance) et la gestion des traitements et
de l'optimisation (plan de pilotage). Nous avons donc proposé un plan
de connaissance uniquement dédié à la connaissance et à sa gestion
afin de réduire sa complexité. Ce plan permettra d'introduire de
nouvelles informations dans le réseau et enrichira le processus de
décision du handover. Par ailleurs, une stratégie de décision basée
sur la théorie de l'utilité a également été mise en œuvre pour traiter
les challenges d'un problème multiobjectifs que pose la procédure de
décision du handover.


*****************
Jury de thèse
*****************

Jean-Marie Bonnin, Rapporteur, Professeur à Telecom Bretagne
André-luc Beylot, Rapporteur, Professeur à l'E.N.S.E.E.I.H.T.
Francine Krief, Examinatrice, Professeur à l'ENSEIRB
Pierre Sens, Examinateur, Professeur à l'Université Pierre et Marie Curie
Hubert Zimmermann, Examinateur, PDG de Ginkgo Networks
Guy Pujolle, Directeur de thèse, Professeur à l'Université Pierre et
Marie Curie
Tara Ali Yahiya, Co-encadrante, Maître de conférence à l'Université d'Orsay


- - -


Meriem ABID

PhD Student

Phare team - LIP6 - UPMC
BC 169 - Office 25/26-310
4, Place Jussieu 75005 Paris, France
Phone : +33 1 44 27 88 79