lundi 21 juillet 2014

soutenance de thèse Moustapha Cissé 25 Juillet 2014, 10h, salle 105-LIP6

Bonjour,

J'ai le plaisir de vous inviter à ma soutenance de thèse intitulée
"Efficient Extreme Classification".

Elle aura lieu au Laboratoire d'Informatique de Paris 6 (LIP6) à
Jussieu, le **vendredi 25 juillet 2014 à 10h00 en salle 25-26/105** et
vous êtes
également chaleureusement conviés au pot qui suivra.

Plan d'accès :

http://www.upmc.fr/fr/universite/campus_et_sites/a_paris_et_en_idf/jussieu.html


Cordialement,
Moustapha Cissé


----------------------------------------------------------------
Jury
----------------------------------------------------------------

Eric Gaussier, LIG (Grenoble-France) Reviewer
Georges Paliouras, Demokritos (Athens-Greece), Reviewer
Christophe Marsala, LIP6 (Paris-France), Examinator
Nicolas Usunier UTC/CNRS (Compiegne-France), Examinator
Thierry Artieres LIP6 (Paris-France), Co-advisor
patrick Gallinari LIP6 (Paris-France),Co-advisor




----------------------------------------------------------------
Résumé de la thèse (l'exposé sera en anglais)
----------------------------------------------------------------

Humans naturally and instantly recognize relevant objects in images
despite the large number of potential visual concepts. They can also
instantly tell which topics are relevant for a given text document
even though these topics are chosen among thousands of semantic
concepts. This ability to quickly categorize information is an
important aspect of high level intelligence and endowing machines with
it is an important step towards artificial intelligence.

We propose in this thesis new methods to tackle classification
problems with a large number of labels, also called extreme
classification. The proposed approaches aim at reducing the inference
complexity in comparison with the classical methods (such as
one-versus-rest) in order to make learning machines usable in a real
life scenario. We propose two types of methods respectively designed
for single label and multilabel classification.

The first proposed method uses existing hierarchical information among
the categories in order to learn low dimensional binary representation
of the categories. The second type of approaches, dedicated to
multilabel problems, adapts the framework of Bloom Filters to
represent subsets of labels with sparse low dimensional binary
vectors. For both methods, binary classifiers are learned to predict
the new low dimensional representation of the categories and several
algorithms are also proposed to recover the set of relevant labels.
Large scale experiments validate the methods.

Soutenance de thèse Moustapha Cissé 25 Juillet 2014, 10h

Bonjour,

J'ai le plaisir de vous inviter à ma soutenance de thèse intitulée
"Efficient Extreme Classification".

Elle aura lieu au Laboratoire d'Informatique de Paris 6 (LIP6) à
Jussieu, le **vendredi 25 juillet 2014 à 10h00 en salle 25-26/101** et
vous êtes
également chaleureusement conviés au pot qui suivra.

Plan d'accès :

http://www.upmc.fr/fr/universite/campus_et_sites/a_paris_et_en_idf/jussieu.html


Cordialement,
Moustapha Cissé


----------------------------------------------------------------
Jury
----------------------------------------------------------------

Eric Gaussier, LIG (Grenoble-France) Reviewer
Georges Paliouras, Demokritos (Athens-Greece), Reviewer
Christophe Marsala, LIP6 (Paris-France), Examinator
Nicolas Usunier UTC/CNRS (Compiegne-France), Examinator
Thierry Artieres LIP6 (Paris-France), Co-advisor
patrick Gallinari LIP6 (Paris-France),Co-advisor




----------------------------------------------------------------
Résumé de la thèse (l'exposé sera en anglais)
----------------------------------------------------------------

Humans naturally and instantly recognize relevant objects in images
despite the large number of potential visual concepts. They can also
instantly tell which topics are relevant for a given text document
even though these topics are chosen among thousands of semantic
concepts. This ability to quickly categorize information is an
important aspect of high level intelligence and endowing machines with
it is an important step towards artificial intelligence.

We propose in this thesis new methods to tackle classification
problems with a large number of labels, also called extreme
classification. The proposed approaches aim at reducing the inference
complexity in comparison with the classical methods (such as
one-versus-rest) in order to make learning machines usable in a real
life scenario. We propose two types of methods respectively designed
for single label and multilabel classification.

The first proposed method uses existing hierarchical information among
the categories in order to learn low dimensional binary representation
of the categories. The second type of approaches, dedicated to
multilabel problems, adapts the framework of Bloom Filters to
represent subsets of labels with sparse low dimensional binary
vectors. For both methods, binary classifiers are learned to predict
the new low dimensional representation of the categories and several
algorithms are also proposed to recover the set of relevant labels.
Large scale experiments validate the methods.

mercredi 16 juillet 2014

Rectificatif : changement d'horaire de la soutenance de thèse de Jean-Pierre Lozi (13h30 -> 14h00)

Chers collèges, dear all,

Ma soutenance de thèse aura lieu aujourd'hui à 14h00 au lieu de 13h30.
My PhD defense will take place today at 2pm instead of 1:30pm.


===========================================================

[English Text Below]

J'ai le plaisir de vous inviter à ma soutenance de thèse intitulée:
"Vers des mécanismes d'exclusion mutuelle plus efficaces pour les architectures multi-cœur" et au pot qui suivra.

La soutenance se déroulera le mercredi 16 juillet 2014 à 13h30, tour 25-26, 1er étage, salle 105 du Laboratoire d'Informatique de Paris 6 (LIP6) situé à:
4, Place Jussieu, 75005 Paris, France (accès par métro M7 ou M10, station Jussieu).

Membres du jury :

M. Bouganim Luc (INRIA Paris-Rocquencourt), Examinateur
M. Herlihy Maurice (Brown University), Examinateur
M. Harris Tim (Oracle Labs), Examinateur
M. Muller Gilles (UPMC/INRIA/LIP6), Directeur de thèse
M. Quéma Vivien (INP/ENSIMAG/LIG), Rapporteur
M. Schröder-Preikschat Wolfgang (Friedrich-Alexander-Universität), Rapporteur
M. Thomas Gaël (UPMC/INRIA/LIP6), Directeur de thèse

Résumé :

Le passage à l'échelle des applications multi-fil sur les systèmes multi-cœur actuels est limité par la performance des algorithmes de verrou, à cause des coûts d'accès à la mémoire sous forte congestion et des défauts de cache. La contribution principale présentée dans cette thèse est un nouvel algorithme, Remote Core Locking (RCL), qui a pour objectif d'améliorer la vitesse d'exécution des sections critiques des applications patrimoniales sur les architectures multi-cœur. L'idée de RCL est de remplacer les acquisitions de verrou par des appels de fonction distants (RPC) optimisés vers un fil d'exécution matériel dédié appelé serveur. RCL réduit l'effondrement des performances observé avec d'autres algorithmes de verrou lorsque de nombreux fils d'exécution essaient d'obtenir un verrou de façon concurrente, et supprime le besoin de transférer les données partagées protégées par le verrou vers le fil d'exécution matériel qui l'acquiert car ces données peuvent souvent demeurer dans les caches du serveur.

 

D'autres contributions sont présentées dans cette thèse, notamment un profiler qui identifie les verrous qui sont des goulots d'étranglement dans les applications multi-fil et qui peuvent par conséquent être remplacés par RCL afin d'améliorer les performances, ainsi qu'un outil de réécriture de code développé avec l'aide de Julia Lawall. Cet outil transforme les acquisitions de verrou POSIX en acquisitions RCL. L'évaluation de RCL a porté sur dix-huit applications: les neuf applications des benchmarks SPLASH-2, les sept applications des benchmarks Phoenix 2, Memcached, ainsi que Berkeley DB avec un client TPC-C. Huit de ces applications sont incapables de passer à l'échelle à cause de leurs verrous et leur performance est améliorée par RCL sur une machine x86 avec quatre processeurs AMD Opteron et 48 fils d'exécution matériels. Utiliser RCL permet de multiplier les performances par 2.5 par rapport aux verrous POSIX sur Memcached, et par 11.6 fois sur Berkeley DB avec le client TPC-C. Sur une machine SPARC avec deux processeurs Sun Ultrasparc T2+ et 128 fils d'exécution matériels, les performances de trois applications sont améliorées par RCL: les performances sont multipliées par 1.3 par rapport aux verrous POSIX sur Memcached et par 7.9 fois sur Berkeley DB avec le client TPC-C.



=== English ===

It is with great pleasure that I am inviting you to attend my PhD defense, entitled: "Towards More Scalable Mutual Exclusion for Multicore Architectures".

The PhD defense will be held on Wednesday the 16th of July 2014 at 1:30pm, tower 25-26, first floor, room 105 of the "Laboratoire d'Informatique de Paris 6" (LIP6) which is located at the following address:
4, Place Jussieu, 75005 Paris, France (access via the M7 or M10 metro lines, Jussieu station).

Jury members:

M. Bouganim Luc (INRIA Paris-Rocquencourt), Examiner
M. Herlihy Maurice (Brown University), Examiner
M. Harris Tim (Oracle Labs), Examiner
M. Muller Gilles (UPMC/INRIA/LIP6), Advisor
M. Quéma Vivien (INP/ENSIMAG/LIG), Reviewer
M. Schröder-Preikschat Wolfgang (Friedrich-Alexander-Universität), Reviewer
M. Thomas Gaël (UPMC/INRIA/LIP6), Advisor

Abstract:

The scalability of multithreaded applications on current multicore systems is hampered by the performance of lock algorithms, due to the costs of access contention and cache misses. The main contribution presented in this thesis is a new lock algorithm, Remote Core Locking (RCL), that aims to improve the performance of critical sections in legacy applications on multicore architectures. The idea of RCL is to replace lock acquisitions by optimized remote procedure calls to a dedicated hardware thread, which is referred to as the server. RCL limits the performance collapse observed with other lock algorithms when many threads try to acquire a lock concurrently and removes the need to transfer lock-protected shared data to the hardware thread acquiring the lock because such data can typically remain in the server's cache.

Other contributions presented in this thesis include a profiler that identifies the locks that are the bottlenecks in multithreaded applications and that can thus benefit from RCL, and a reengineering tool developed with Julia Lawall that transforms POSIX locks into RCL locks. Eighteen applications were used to evaluate RCL: the nine applications of the SPLASH-2 benchmark suite, the seven applications of the Phoenix 2 benchmark suite, Memcached, and Berkeley DB with a TPC-C client. Eight of these applications are unable to scale because of locks and benefit from RCL on an x86 machine with four AMD Opteron processors and 48 hardware threads. Using RCL locks, performance is improved by up to 2.5 times with respect to POSIX locks on Memcached, and up to 11.6 times with respect to Berkeley DB with the TPC-C client. On an SPARC machine with two Sun Ultrasparc T2+ processors and 128 hardware threads, three applications benefit from RCL. In particular, performance is improved by up to 1.3 times with respect to POSIX locks on Memcached, and up to 7.9 times with respect to Berkeley DB with the TPC-C client.


-- 
Jean-Pierre Lozi
PhD student, REGAL Team, LIP6/UPMC

mardi 8 juillet 2014

Rectificatif : changement d'horaire de la soutenance de thèse d'Amal Oudni

Bonjour,

Toutes mes excuses pour le changement d'horaire de ma soutenance!
Ma soutenance de thèse est avancée à 14:00h,

Bonne journée,
Amal

-------- Message original --------
Objet: [Invitation] Soutenance de thèse d'Amal Oudni le mercredi 9
juillet 2014
Date: 2014-07-02 18:37
De: Amal Oudni <Amal.Oudni@lip6.fr>
À: Tout Lip6 <tout-lip6@lip6.fr>

(english version below)


Bonjour,

J'ai le plaisir de vous inviter à ma soutenance de thèse intitulée :
"Fouille de données par extraction de motifs graduels :
contextualisation et enrichissement"

La soutenance aura lieu le : mercredi 9 juillet à 14h30,

elle se tiendra à :
Université Pierre et Marie Curie, 4 place Jussieu
75005 Paris - Salle 105, Tour 25/26.

Vous êtes également conviés au pot qui suivra dans la même salle.

http://www.upmc.fr/fr/vie_des_campus/handicap/plan_d_acces.html

=============================================================
Membres du jury :
=============================================================
Bernd Amann Professeur LIP6 - UPMC
Examinateur
Sadok Ben Yahia Professeur URPAH - Université des
Sciences de Tunis Examinateur
Anne Laurent Professeur LIRMM - Université
Montpellier 2 Rapportrice
Marie-Jeanne Lesot Maître de Conférences [HDR] LIP6 - UPMC
Directrice de thèse
Olivier Pivert Professeur ENSSAT - Université
Rennes 1 Rapporteur
Maria Rifqi Maître de Conférences [HDR] LEMMA - Université
Paris 2 Directrice de thèse

==============================================================
Résumé
==============================================================
Les travaux de cette thèse s'inscrivent dans le cadre de l'extraction
de connaissances et de la fouille de données appliquée à des bases de
données numériques ou floues afin d'extraire des résumés linguistiques
sous la forme de motifs graduels exprimant des corrélations de
co-variations
des valeurs des attributs, de la forme « plus la température augmente,
plus la pression augmente ». Notre objectif est de les contextualiser
et de les enrichir en proposant différents types de compléments
d'information afin d'augmenter leur qualité et leur apporter une
meilleure interprétation.

Nous proposons quatre formes de nouveaux motifs : nous avons
tout d'abord étudié les motifs dits « renforcés », qui effectuent,
dans le cas de données floues, une contextualisation par intégration
d'attributs complémentaires, ajoutant des clauses introduites
linguistiquement par l'expression « d'autant plus que ».
Ils peuvent être illustrés par l'exemple « plus la température diminue,
plus le volume de l'air diminue, d'autant plus que sa densité augmente
».
Ce renforcement est interprété comme validité accrue des motifs
graduels.
Nous nous sommes également intéressées à la transposition de la notion
de renforcement aux règles d'association classiques en discutant de
leurs interprétations possibles et nous montrons leur apport limité.

Nous proposons ensuite de traiter le problème des motifs graduels
contradictoires rencontré par exemple lors de l'extraction simultanée
des deux motifs « plus la température augmente, plus l'humidité augmente
»
et « plus la température augmente, plus l'humidité diminue ». Pour gérer
ces contradictions, nous proposons une définition contrainte du support
d'un motif graduel, qui, en particulier, ne dépend pas uniquement du
motif
considéré, mais aussi de ses contradicteurs potentiels. Nous proposons
également deux méthodes d'extraction, respectivement basées sur un
filtrage a posteriori et sur l'intégration de la contrainte du
nouveau support dans le processus de génération.

Nous introduisons également les motifs graduels caractérisés, définis
par l'ajout d'une clause linguistiquement introduite par l'expression
« surtout si » comme par exemple « plus la température diminue,
plus l'humidité diminue, surtout si la température varie dans [0, 10] °C
» :
la clause additionnelle précise des plages de valeurs sur lesquelles
la validité des motifs est accrue. Nous formalisons la qualité
de cet enrichissement comme un compromis entre deux contraintes
imposées à l'intervalle identifié, portant sur sa taille et sa validité,
ainsi qu'extension tenant compte de la densité des données.
Nous proposons une méthode d'extraction automatique basée sur des outils
de morphologie mathématique et la définition d'un filtre approprié
et transcription.

Nous définissons aussi les motifs graduels accélérés, qui qualifient les
corrélations entre les valeurs d'attributs et contextualisent les motifs
graduels par l'expression linguistique « rapidement », comme par exemple
« plus la température augmente, plus l'humidité augmente rapidement ».
Nous traduisons cet effet comme une contrainte de convexité que nous
modélisons comme une contrainte de covariation supplémentaire,
qui s'exprime dans le même formalisme que les contraintes d'ordre des
motifs classiques.
Nous proposons et étudions deux méthodes d'extraction, par filtrage
a posteriori et intégration dans le processus de génération.

Pour chacune des quatre contextualisation proposées, nous étudions
et formalisons la sémantique et l'interprétation souhaitées.
Nous proposons ensuite des mesures de qualité pour évaluer la validité
des motifs proposés. Nous proposons et implémentons des algorithmes
efficaces d'extraction automatique des motifs qui maximisent les
critères
de qualité proposés.
Enfin, nous réalisons une étude expérimentale, à la fois sur des données
jouets pour étudier et analyser le comportement des approches proposées,
et sur des données réelles pour montrer la pertinence des approches
et l'intérêt des motifs extraits.
Les expérimentations réalisées pour chaque approche permettent de
valider
l'apport des différentes formes de motifs proposées, ainsi que leur
interprétation associée.  

--------------------- english version -----------------------

Hello,

I am pleased to invite you to my PhD defence entitled:

"Data mining based on gradual itemsets extraction: contextualization and
enrichment"

The defence will take place on:

Wednesday, July 9th at 2.30 pm,

it will be held in french at:

Université Pierre et Marie Curie, 4 place Jussieu
75005 Paris - Salle 105, Tour 25/26.

You are also invited afterwards for drinks and celebration in the same
room.

http://www.upmc.fr/fr/vie_des_campus/handicap/plan_d_acces.html

=============================================================
Jury members
=============================================================
Bernd Amann Professeur LIP6 - UPMC
Examinateur
Sadok Ben Yahia Professeur URPAH - Université
des Sciences de Tunis Examinateur
Anne Laurent Professeur LIRMM - Université
Montpellier 2 Rapportrice
Marie-Jeanne Lesot Maître de Conférences [HDR] LIP6 - UPMC
Directrice de thèse
Olivier Pivert Professeur ENSSAT - Université
Rennes 1 Rapporteur
Maria Rifqi Maître de Conférences [HDR] LEMMA - Université
Paris 2 Directrice de thèse


==============================================================
Summary
==============================================================
This thesis's works belongs to the framework of knowledge extraction
and data mining applied to numerical or fuzzy data in order to extract
linguistic summaries in the form of gradual itemsets: the latter express
correlation between attribute values of the form « the more the
temperature
increases, the more the pressure increases ». Our goal is to
contextualize
and enrich these gradual itemsets by proposing different types of
additional
information so as to increase their quality and provide a better
interpretation.

We propose four types of new itemsets: first of all, reinforced gradual
itemsets,
in the case of fuzzy data, perform a contextualization by integrating
additional
attributes linguistically introduced by the expression « all the more ».
They can be illustrated by the example « the more the temperature
decreases,
the more the volume of air decreases, all the more its density increases
».
Reinforcement is interpreted as increased validity of the gradual
itemset.
In addition, we study the extension of the concept of reinforcement to
association rules,
discussing their possible interpretations and showing their limited
contribution.

We then propose to process the contradictory itemsets that arise for
example
in the case of simultaneous extraction of « the more the temperature
increases,
the more the humidity increases » and « the more the temperature
increases,
the less the humidity decreases ». To manage these contradictions,
we define a constrained variant of the gradual itemset support, which,
in particular, does not only depend on the considered itemset, but also
on its potential
contradictors. We also propose two extraction methods: the first one
consists in filtering,
after all itemsets have been generated, and the second one integrates
the filtering process
within the generation step.

We introduce characterized gradual itemsets, defined by adding a clause
linguistically
introduced by the expression « especially if » that can be illustrated
by a sentence
such as « the more the temperature decreases, the more the humidity
decreases,
especially if the temperature varies in [0, 10] °C »: the additional
clause precise value
ranges on which the validity of the itemset is increased. We formalize
the quality of this
enrichment as a trade-off between two constraints imposed to identified
interval,
namely a high validity and a high size, as well as an extension taking
into account
the data density. We propose a method to automatically extract
characterized gradual
based on appropriate mathematical morphology tools and the definition of
an
appropriate filter and transcription.

We define also accelerated gradual itemsets that quantify the
correlations between
the attribute values and contextualize the gradual itemset through the
linguistic
expression « quickly », for example « the more the temperature
increases, the more
quickly the humidity increases ».

We propose an interpretation as convexity constraint imposed on the
relation between
the attributes composing a considered gradual itemset that we model as
an additional constraint covariation, which is expressed in the same
formalism
as constraints of classical gradual itemsets.
We propose and study two extraction methods, by filtering a posteriori
and
integrating in the generation process.

For each of the four proposed contextualizations, we study and formalize
the semantics
and desired interpretation. We then propose quality measures to evaluate
the validity of the given enriched itemset.
We also propose and implement efficient algorithms for the automatic
extraction
of itemsets that maximize the proposed quality criteria. Finally, we
carry out
experimental studies both on artificial data,
to study and analyze the behavior of the proposed approaches, and on
real data
to show the relevance of the proposed approaches and the interest of
extracted
enriched itemsets.
The experimental results for each approach allow to validate the
contribution
of the different proposed gradual itemsets and their associated
interpretation.


Amal

vendredi 4 juillet 2014

Soutenance de thèse d'Etienne Millon - 10 juillet, 14h

Bonjour,

J'ai le plaisir de vous inviter à ma soutenance de thèse intitulée:

Analyse de sécurité de logiciels système par typage statique
Application au noyau Linux

Mots clefs: sécurité, typage, isolation, linux, pointeurs utilisateur

Cette soutenance aura lieu *le jeudi 10 juillet 2014 à 14h*

à l'UPMC – Campus Jussieu, 4 Place Jussieu - 75005 Paris
Couloir 26-25, 1er étage, salle 105

devant le jury composé de

Rapporteurs:
Sandrine Blazy, IRISA
Pierre Jouvelot, MINES ParisTech
Examinateurs:
Gilles Muller, Université Pierre et Marie Curie
Vincent Simonet, Google
Directeurs:
Emmanuel Chailloux, Université Pierre et Marie Curie
Sarah Zennou, Airbus Group Innovations
Invité:
Olivier Levillain, ANSSI, Invité

Résumé:

Les noyaux de systèmes d'exploitation manipulent des données
fournies par les programmes utilisateur via les appels système. Si
elles sont manipulées sans prendre une attention particulière, une
faille de sécurité connue sous le nom de Confused Deputy Problem
peut amener à des fuites de données confidentielles ou l'élévation
de privilèges d'un attaquant.

Le but de cette thèse est d'utiliser des techniques de typage
statique afin de détecter les manipulations dangereuses de pointeurs
contrôlés par l'espace utilisateur.

La plupart des systèmes d'exploitation sont écrits dans le langage
C. On commence par en isoler un sous-langage sûr nommé Safespeak. Sa
sémantique opérationnelle et un premier système de types sont
décrits, et les propriétés classiques de sûreté du typage sont
établies. La manipulation des états mémoire est formalisée sous la
forme de lentilles bidirectionnelles, qui permettent d'encoder les
mises à jour partielles des états et variables. Un première analyse
sur ce langage est décrite, permettant de distinguer les entiers
utilisés comme bitmasks, qui sont une source de bugs dans les
programmes C.

On ajoute ensuite à Safespeak la notion de valeur provenant de
l'espace utilisateur. La sûreté du typage est alors brisée, mais on
peut la réétablir en donnant un type particulier aux pointeurs
contrôlés par l'espace utilisateur, ce qui force leur déférencement
à se faire de manière contrôlée. Cette technique permet de détecter
deux bugs dans le noyau Linux: le premier concerne un pilote de
carte graphique AMD, et le second l'appel système ptrace sur
l'architecture Blackfin.

Vous êtes également invités au pot qui suivra.

Bien cordialement,

--
Etienne Millon

Soutenance de thèse de Alexandru Tatar - 9 juillet 2014, 14h

Bonjour,

J'ai le plaisir de vous inviter à ma soutenance de thèse intitulée "Predicting User-Centric Behavior: Content Popularity and Mobility".

Elle aura lieu au Laboratoire d'Informatique de Paris 6 (LIP6) à Jussieu, le **mercredi 9 juillet 2014 à 14h00 en salle 25-26/101** et vous êtes
également chaleureusement conviés au pot qui suivra.



Cordialement,
Alexandru Tatar



----------------------------------------------------------------
Jury
----------------------------------------------------------------

Walid Dabbous, INRIA Sophia Antipolis
Andrea Passarella, IIT-CNR
Martin May, Technicolor
Anne-Marie Kermarrec, INRIA Rennes
Sebastien Tixeuil, UPMC Sorbonne Universités
Marcelo Dias De Amorim, CNRS and UPMC Sorbonne Universités
Serge Fdida, UPMC Sorbonne Universités



----------------------------------------------------------------
Résumé de la thèse (l'exposé sera en anglais)
----------------------------------------------------------------

Understanding user behavior is fundamental in the design of efficient communication systems. Unveiling the complex online and real-life interactions among users, deciphering online activity, or understanding user mobility patterns — all forms of user activity — have a direct impact on the performance of the network. But observing user behavior is not sufficient. To transform information in valuable knowledge, one needs however to make a step forward and go beyond observing and explaining the past to building models that will predict future behavior. In this thesis, we focus on the case of users consuming content on the move, especially when connectivity is poor or intermittent. We consider both traditional infrastructure-based communications and opportunistic device-to-device transfers between neighboring users. We offer new perspectives of how to use additional information about user behavior in the design of more efficient solutions for mobile opportunistic communications. In particular, we put forward the case that the collective user behavior, both in terms of content consumption and contacts between mobile users, can be used to build dynamic data replication strategies.

We first investigate content consumption patterns. Our contribution in this area is two-fold. First, we analyze a large news data set published on 20minutes.fr, a popular daily newspaper in France. We survey the different prediction algorithms proposed in the literature and compare the ability of two of these methods to predict the popularity of online news articles. We observe that a linear model on a logarithmic scale is an effective solution to predict the popularity of online news. Furthermore, in the context of automatic online news ranking we observe that this method is also an effective solution to correctly rank items based on their future popularity with a performance that can evenly match more customized learning-to-rank algorithms. We study then the practical impact of using a model that can predict content popularity in a mobile opportunistic scenario. We place this in the context of mobile data offloading where the goal is to proactively seed content during idle periods to reduce data traffic during the peak periods. We show that the ability to actually predict future user demand can improve the benefit of proactive seeding for a mobile opportunistic data offloading solution compared to traditional methods that consider a stable evolution of content popularity.

In a mobile scenario, users who share common interest in a content and are within physical proximity, can establish device-to-device connections and retrieve content directly from their neighbors. We study the predictability of human contacts. User mobility, represented as a highly dynamic system, is not completely random and patterns can be learned after studying user movement for a certain period of time. But contacts between mobile users are a scarce resource, as some users will often come close to each other but never in direct contact. We thus extend the prediction task to the multi-hop contact case — predict if mobile users will find themselves at a distance of at most k-hops from one another. By analyzing three real-life contact traces we observe that, in a mobile scenario characterized by frequent disconnections, one can obtain better performance when predicting that nodes will find themselves at a greater distance from one another compared to the direct contact case.  To assess the impact of these findings in a real-life scenario, we propose a simulation experiment in which, by combining mobile opportunistic communications with k-contact prediction, one can reduce the amount of traffic used in the communication of mobile nodes with the cellular infrastructure.

[invitation] Soutenance de thèse de Ruomin Wang

Cher(e)s collègues, Cher(e)s ami(e)s,
 
J'ai le plaisir de vous convier à la soutenance de ma thèse de doctorat, intitulée :

"Modélisation à haut niveau d'abstraction de l'intégrité du signal dans les bus de communication »

La soutenance se déroulera le Mardi 15 Juillet 2014 à 14h, Tour 55-65, 2ème étage, salle 211
(située 4, Place Jussieu, 75005 Paris, France,
Accès par métro M7 ou M10, station Jussieu)

Elle sera suivie d'un pot qui aura lieu dans Tour 65-66, 1er étage, dans les locaux de l'équipe SYEL.

Le jury sera composé de :

[Rapporteur] Francis Calmon, Professeur des universités (INSA Lyon)
[Rapporteur] Luc Hébrard, Professeur des Universités (Université de Strasbourg)
[Examinatrice] Sonia Ben Dhia, Maître de conférence (HDR) des Universités (INSA de Toulouse)
[Examinateur] Marc Hélier, Professeur des Universités (Université Pierre et Marie Curie)
[Examinateur] Jacques-Olivier Klein, Professeur des Universités (Université Paris Sud)
[Directeur de thèse] Patrick Garda, Professeur des Universités (Université Pierre et Marie Curie)
[Encadrant] Julien Denoulet, Maître de conférences (Université Pierre et Marie Curie)
[Encadrant] Sylvain Feruglio, Maître de conférences (Université Pierre et Marie Curie)
[Encadrant] Farouk Vallette, Maître de conférences (Université Pierre et Marie Curie)

Résumé de la thèse :

En raison de l'évolution technologique vers les petites dimensions, de la densité d'intégration croissante et de l'augmentation des vitesses de fonctionnement, l'analyse de l'intégrité du signal est devenue de plus en plus critique dans la conception des systèmes électroniques. Plusieurs méthodes d'analyse ont été proposées et sont utilisées par les concepteurs. Cependant, en considérant l'hétérogénéité croissante des systèmes et la réduction du temps de mise sur le marché des applications, les concepteurs ont besoin de nouvelles méthodes travaillant à haut niveau d'abstraction, afin qu'elles puissent être intégrées facilement à un modèle au niveau système de l'application, et ainsi analyser l'intégrité du signal au plus tôt dans le cycle de conception. Dans cette thèse, nous proposons une méthode de modélisation de l'intégrité du signal basée sur deux types de blocs complémentaires, nommés blocs fonctionnels et blocs non-fonctionnels, décrits à l'aide d'un même langage (C/C++ et les bibliothèques SystemC/SystemC-AMS), et donc aisément simulables dans un unique environnement. Les blocs fonctionnels servent à modéliser les comportements idéaux du système. Les comportements non-idéaux, introduits par les problèmes d'intégrité du signal, sont modélisés dans les blocs non-fonctionnels à l'aide de réseaux de neurones. Pour valider notre méthodologie, deux applications autour des bus I2C et USB 3.0 ont été modélisées à l'aide de notre méthode. Les résultats de simulations démontrent la faisabilité de notre méthodologie. En la comparant à des modèles de référence, notre méthode permet de réduire de façon remarquable le temps de simulation (20% par rapport à un modèle équivalent SystemC/SystemC-AMS à bas niveau et 99% par rapport à un modèle SPICE équivalent). En termes de précision, l'écart moyen entre nos modèles et les modèles de référence est d'environ 3%. Notre méthode offre enfin certaines possibilités de flexibilité et de modularité. Il est en effet possible de paramétrer les modèles (par exemple, pour émuler les modes de configuration d'un émetteur) et de composer un modèle d'une application complexe à l'aide de sous-modèles élémentaires. En perspective, cette méthode originale de modélisation de l'intégrité du signal à haut niveau d'abstraction pourra être intégrée au futur environnement de conception de systèmes cyber-physiques.

Au plaisir de vous voir.
Très cordialement.

Ruomin WANG

*********************************************************************************************************************************************************************

Dear colleagues, Dear friends,

I'm glad to invite you to my PhD defense, entitled:

"High-level modeling of signal integrity in communication buses"

The defense will take place on Tuesday the 15th of July 2014 at 2 PM, Tour 55-65, third floor, Room 211, at the address:

 4, Place Jussieu, 75005 Paris, France,
Access via the metro M7 or M10, station Jussieu.

A celebratory cocktail  will follow at Tour 65-66, second floor, group SYEL.

Jury members:

[Rapporteur] Francis Calmon, Professor (INSA Lyon)
[Rapporteur] Luc Hébrard, Professor (Université de Strasbourg)
[Examinatrice] Sonia Ben Dhia, Associate Professor (HDR) (INSA de Toulouse)
[Examinateur] Marc Hélier, Professor (Université Pierre et Marie Curie)
[Examinateur] Jacques-Olivier Klein, Professor (Université Paris Sud)
[Directeur de thèse] Patrick Garda, Professor (Université Pierre et Marie Curie)
[Encadrant] Julien Denoulet, Associate Professor (Université Pierre et Marie Curie)
[Encadrant] Sylvain Feruglio, 
Associate Professor (Université Pierre et Marie Curie)
[Encadrant] Farouk Vallette, Associate Professor (Université Pierre et Marie Curie)

Abstract :

The continuing growth of electronic technology has led to smaller size, higher density of integration and higher frequencies. As a result, signal integrity analysis becomes nowadays a more and more critical challenge in the electronic system design process. To address this issue, designers have proposed and used several approaches. However, in respect of the higher heterogeneity of modern applications, along with an aggressive reduction of time-to-market, a new modeling methodology is required to provide the system's signal integrity performance at a high-level of abstraction. Moreover, it should be easily interoperable with a functional model of this system. The aim of this work is to propose a new modeling methodology for signal integrity analysis that can meet these requirements. Our method is based on the combination of two kinds of blocks, named functional blocks and nonfunctional blocks. They are built in C/C++ or SystemC/SystemC-AMS, and can therefore be easily simulated in a single environment. The functional block is used to model the ideal behavior of the system. The non-functional block is used to represent the highly nonlinear and non-ideal behaviors, caused by signal integrity issues. In the non-functional block, neural networks are used to model these non-ideal behaviors. To validate our method, we developed two applications based on I2C application and USB 3.0. Our method greatly increases simulation speed (running 20% faster than a low-level SystemC/SystemCAMS equivalent model, or 99% faster than a SPICE equivalent model). Furthermore, our method achieves very good accuracy (relative absolute error is around 3%). Finally, our method is a flexible approach, since our models can be parameterized, to help designers to configure their systems. It's also modular: a model of a complex application can be built by combining models of each component. In the future, this original method for high-level modeling of signal integrity could be integrated in the forthcoming design flours of cyber-physical systems.

I will be pealed to meet you then.
Best Regards.

Ruomin WANG
-------------------------------------------------------------
UPMC - LIP6
Boîte courrier 167
Couloir 65-66, Étage 1, Bureau 112a
4 place Jussieu
75252 PARIS CEDEX 05
Tel: 01 44 27 75 07

mercredi 2 juillet 2014

[Invitation] Soutenance de thèse d'Amal Oudni le mercredi 9 juillet 2014

(english version below)


Bonjour,

J'ai le plaisir de vous inviter à ma soutenance de thèse intitulée :
"Fouille de données par extraction de motifs graduels :
contextualisation et enrichissement"

La soutenance aura lieu le : mercredi 9 juillet à 14h30,

elle se tiendra à :
Université Pierre et Marie Curie, 4 place Jussieu
75005 Paris - Salle 105, Tour 25/26.

Vous êtes également conviés au pot qui suivra dans la même salle.

http://www.upmc.fr/fr/vie_des_campus/handicap/plan_d_acces.html

=============================================================
Membres du jury :
=============================================================
Bernd Amann Professeur LIP6 - UPMC
Examinateur
Sadok Ben Yahia Professeur URPAH - Université des
Sciences de Tunis Examinateur
Anne Laurent Professeur LIRMM - Université
Montpellier 2 Rapportrice
Marie-Jeanne Lesot Maître de Conférences [HDR] LIP6 - UPMC
Directrice de thèse
Olivier Pivert Professeur ENSSAT - Université
Rennes 1 Rapporteur
Maria Rifqi Maître de Conférences [HDR] LEMMA - Université
Paris 2 Directrice de thèse

==============================================================
Résumé
==============================================================
Les travaux de cette thèse s'inscrivent dans le cadre de l'extraction
de connaissances et de la fouille de données appliquée à des bases de
données numériques ou floues afin d'extraire des résumés linguistiques
sous la forme de motifs graduels exprimant des corrélations de
co-variations
des valeurs des attributs, de la forme « plus la température augmente,
plus la pression augmente ». Notre objectif est de les contextualiser
et de les enrichir en proposant différents types de compléments
d'information afin d'augmenter leur qualité et leur apporter une
meilleure interprétation.

Nous proposons quatre formes de nouveaux motifs : nous avons
tout d'abord étudié les motifs dits « renforcés », qui effectuent,
dans le cas de données floues, une contextualisation par intégration
d'attributs complémentaires, ajoutant des clauses introduites
linguistiquement par l'expression « d'autant plus que ».
Ils peuvent être illustrés par l'exemple « plus la température diminue,
plus le volume de l'air diminue, d'autant plus que sa densité augmente
».
Ce renforcement est interprété comme validité accrue des motifs
graduels.
Nous nous sommes également intéressées à la transposition de la notion
de renforcement aux règles d'association classiques en discutant de
leurs interprétations possibles et nous montrons leur apport limité.

Nous proposons ensuite de traiter le problème des motifs graduels
contradictoires rencontré par exemple lors de l'extraction simultanée
des deux motifs « plus la température augmente, plus l'humidité augmente
»
et « plus la température augmente, plus l'humidité diminue ». Pour gérer
ces contradictions, nous proposons une définition contrainte du support
d'un motif graduel, qui, en particulier, ne dépend pas uniquement du
motif
considéré, mais aussi de ses contradicteurs potentiels. Nous proposons
également deux méthodes d'extraction, respectivement basées sur un
filtrage a posteriori et sur l'intégration de la contrainte du
nouveau support dans le processus de génération.

Nous introduisons également les motifs graduels caractérisés, définis
par l'ajout d'une clause linguistiquement introduite par l'expression
« surtout si » comme par exemple « plus la température diminue,
plus l'humidité diminue, surtout si la température varie dans [0, 10] °C
» :
la clause additionnelle précise des plages de valeurs sur lesquelles
la validité des motifs est accrue. Nous formalisons la qualité
de cet enrichissement comme un compromis entre deux contraintes
imposées à l'intervalle identifié, portant sur sa taille et sa validité,
ainsi qu'extension tenant compte de la densité des données.
Nous proposons une méthode d'extraction automatique basée sur des outils
de morphologie mathématique et la définition d'un filtre approprié
et transcription.

Nous définissons aussi les motifs graduels accélérés, qui qualifient les
corrélations entre les valeurs d'attributs et contextualisent les motifs
graduels par l'expression linguistique « rapidement », comme par exemple
« plus la température augmente, plus l'humidité augmente rapidement ».
Nous traduisons cet effet comme une contrainte de convexité que nous
modélisons comme une contrainte de covariation supplémentaire,
qui s'exprime dans le même formalisme que les contraintes d'ordre des
motifs classiques.
Nous proposons et étudions deux méthodes d'extraction, par filtrage
a posteriori et intégration dans le processus de génération.

Pour chacune des quatre contextualisation proposées, nous étudions
et formalisons la sémantique et l'interprétation souhaitées.
Nous proposons ensuite des mesures de qualité pour évaluer la validité
des motifs proposés. Nous proposons et implémentons des algorithmes
efficaces d'extraction automatique des motifs qui maximisent les
critères
de qualité proposés.
Enfin, nous réalisons une étude expérimentale, à la fois sur des données
jouets pour étudier et analyser le comportement des approches proposées,
et sur des données réelles pour montrer la pertinence des approches
et l'intérêt des motifs extraits.
Les expérimentations réalisées pour chaque approche permettent de
valider
l'apport des différentes formes de motifs proposées, ainsi que leur
interprétation associée.  

--------------------- english version -----------------------

Hello,

I am pleased to invite you to my PhD defence entitled:

"Data mining based on gradual itemsets extraction: contextualization and
enrichment"

The defence will take place on:

Wednesday, July 9th at 2.30 pm,

it will be held in french at:

Université Pierre et Marie Curie, 4 place Jussieu
75005 Paris - Salle 105, Tour 25/26.

You are also invited afterwards for drinks and celebration in the same
room.

http://www.upmc.fr/fr/vie_des_campus/handicap/plan_d_acces.html

=============================================================
Jury members
=============================================================
Bernd Amann Professeur LIP6 - UPMC
Examinateur
Sadok Ben Yahia Professeur URPAH - Université
des Sciences de Tunis Examinateur
Anne Laurent Professeur LIRMM - Université
Montpellier 2 Rapportrice
Marie-Jeanne Lesot Maître de Conférences [HDR] LIP6 - UPMC
Directrice de thèse
Olivier Pivert Professeur ENSSAT - Université
Rennes 1 Rapporteur
Maria Rifqi Maître de Conférences [HDR] LEMMA - Université
Paris 2 Directrice de thèse


==============================================================
Summary
==============================================================
This thesis's works belongs to the framework of knowledge extraction
and data mining applied to numerical or fuzzy data in order to extract
linguistic summaries in the form of gradual itemsets: the latter express
correlation between attribute values of the form « the more the
temperature
increases, the more the pressure increases ». Our goal is to
contextualize
and enrich these gradual itemsets by proposing different types of
additional
information so as to increase their quality and provide a better
interpretation.

We propose four types of new itemsets: first of all, reinforced gradual
itemsets,
in the case of fuzzy data, perform a contextualization by integrating
additional
attributes linguistically introduced by the expression « all the more ».
They can be illustrated by the example « the more the temperature
decreases,
the more the volume of air decreases, all the more its density increases
».
Reinforcement is interpreted as increased validity of the gradual
itemset.
In addition, we study the extension of the concept of reinforcement to
association rules,
discussing their possible interpretations and showing their limited
contribution.

We then propose to process the contradictory itemsets that arise for
example
in the case of simultaneous extraction of « the more the temperature
increases,
the more the humidity increases » and « the more the temperature
increases,
the less the humidity decreases ». To manage these contradictions,
we define a constrained variant of the gradual itemset support, which,
in particular, does not only depend on the considered itemset, but also
on its potential
contradictors. We also propose two extraction methods: the first one
consists in filtering,
after all itemsets have been generated, and the second one integrates
the filtering process
within the generation step.

We introduce characterized gradual itemsets, defined by adding a clause
linguistically
introduced by the expression « especially if » that can be illustrated
by a sentence
such as « the more the temperature decreases, the more the humidity
decreases,
especially if the temperature varies in [0, 10] °C »: the additional
clause precise value
ranges on which the validity of the itemset is increased. We formalize
the quality of this
enrichment as a trade-off between two constraints imposed to identified
interval,
namely a high validity and a high size, as well as an extension taking
into account
the data density. We propose a method to automatically extract
characterized gradual
based on appropriate mathematical morphology tools and the definition of
an
appropriate filter and transcription.

We define also accelerated gradual itemsets that quantify the
correlations between
the attribute values and contextualize the gradual itemset through the
linguistic
expression « quickly », for example « the more the temperature
increases, the more
quickly the humidity increases ».

We propose an interpretation as convexity constraint imposed on the
relation between
the attributes composing a considered gradual itemset that we model as
an additional constraint covariation, which is expressed in the same
formalism
as constraints of classical gradual itemsets.
We propose and study two extraction methods, by filtering a posteriori
and
integrating in the generation process.

For each of the four proposed contextualizations, we study and formalize
the semantics
and desired interpretation. We then propose quality measures to evaluate
the validity of the given enriched itemset.
We also propose and implement efficient algorithms for the automatic
extraction
of itemsets that maximize the proposed quality criteria. Finally, we
carry out
experimental studies both on artificial data,
to study and analyze the behavior of the proposed approaches, and on
real data
to show the relevance of the proposed approaches and the interest of
extracted
enriched itemsets.
The experimental results for each approach allow to validate the
contribution
of the different proposed gradual itemsets and their associated
interpretation.


Amal

Fwd: Avis de soutenance de thèse de Boukary OUATTARA

De la part de Boukary OUATTARA,


Bonjour,
J'ai le plaisir de vous inviter à ma soutenance de thèse intitulée :

Prévision des effets de vieillissement par électromigration dans les circuits intégrés CMOS en nœuds technologiques submicroniques.Â
La soutenance aura lieu le Mardi 08 juillet 2014 à 14h00 à l'université Pierre et Marie Curie, salle 105, tour 25-26, 1er étage.

4 place Jussieu, 75005 Paris.Â
Station métro: Jussieu (M7 et M10).

Le jury est composé de:

M. WOUTERS Yves, SIMaP Grenoble, Rapporteur de thèse

M. ROUZEYRE Bruno, LIRMM Montpellier, Rapporteur de thèse

M. KOKABI Hamid, UMPC Paris 6, Examinateur

M. VIVET Pascal, CEA Grenoble, Examinateur

M. BAZARGAN-SABET LIP6 Paris 6, Co-encadrant de thèse

Mlle. DOYEN Lise, STMicroelectronics Crolles, Encadrante industrielle de thèse

M. MEHREZ Habib, LIP6 Paris 6,  Directeur de thèse


Vous êtes également conviés au pot qui suivra la soutenance et qui se tiendra à la salle A002 (Maison de la pédagogie).Â

Veuillez trouver ci-dessous le résumé (français et anglais) de la thèse et le plan du site de soutenance


Bien cordialement

Boukary OUATTARA

Doctorant/PhD Student

******************************

STMicroelectronics Crolles/Â LIP6Â Laboratory,

Systems On Chips department.

Pierre and Marie Curie University - Paris VI

France


​****************************************************


​
Résumé :

L’électromigration (EMG) est l’une des conséquences de la course à la miniaturisation des composants électroniques en général et la réduction des dimensions des interconnexions en particulier. Il est identifié comme l’un des phénomènes critiques de fiabilité pour les circuits intégrés en technologies submicroniques. Les méthodes de vérification de ce phénomène utilisées durant la conception de circuits sont pour la plupart basées sur des règles de densité de courant et de température. Ces règles deviennent de plus en plus difficiles à mettre en place, compte tenue de l’augmentation des densités de courant dans les réseaux d’interconnexions. Les travaux de cette thèse s’inscrivent dans la dynamique de recherches de moyens d’amélioration de la détection des risques d’électromigration durant la phase de conception. Le but est d’établir une relation entre violations des règles électriques et la physique de dégradation des interconnexions. Les résultats obtenus au cours des tests de vieillissement nous ont permis de repousser les limites de courant sans altérer les durées de vie des circuits. Enfin, ce projet été l’occasion de définir des règles conception basé sur l’optimisation des cellules d’horloges dans la grille d’alimentation des circuits intégrés. L’application des solutions proposées au cours de ces travaux ont permis de réaliser des circuits robustes aux effets EMG.

 Abstract :

Electromigration (EMG) is a consequence of miniaturization of integrated circuits in general and the reduction of interconnect dimensions in particular. It is identified as one of the critical reliability phenomenon for integrated circuits designed in submicron technologies. The methods of checking this phenomenon at design level are mostly based on current density rules and temperature. These rules are becoming difficult to implement due to increasing current density in interconnection network. This thesis is based on researching for ways to improve detection of electromigration risks at design level. The goal is to establish a relation between electrical rules and interconnect degradation mechanism. Results obtained from ageing tests permit us to relax current limit without altered circuit lifetimes. Finally, this project has been instrumental to define design rules based on optimization of clock tree cells placement in integrated circuit power grid. The application of solution proposed during this work permit to design robust circuits toward EMG.



Content-Type: image/jpeg; name="plan_UPMC.jpg"
Content-Disposition: inline; filename="plan_UPMC.jpg"
Content-ID: <ii_146f5fae52fb2047>
X-Attachment-Id: ii_146f5fae52fb2047

mardi 1 juillet 2014

Soutenance de thèse de Jean-Pierre Lozi

[English Text Below]

Bonjour,

J'ai le plaisir de vous inviter à ma soutenance de thèse intitulée:
"Vers des mécanismes d'exclusion mutuelle plus efficaces pour les architectures multi-cœur" et au pot qui suivra.

La soutenance se déroulera le mercredi 16 juillet 2014 à 13h30, tour 25-26, 1er étage, salle 105 du Laboratoire d'Informatique de Paris 6 (LIP6) situé à:
4, Place Jussieu, 75005 Paris, France (accès par métro M7 ou M10, station Jussieu).

Membres du jury :

M. Bouganim Luc (INRIA Paris-Rocquencourt), Examinateur
M. Herlihy Maurice (Brown University), Examinateur
M. Harris Tim (Oracle Labs), Examinateur
M. Muller Gilles (UPMC/INRIA/LIP6), Directeur de thèse
M. Quéma Vivien (INP/ENSIMAG/LIG), Rapporteur
M. Schröder-Preikschat Wolfgang (Friedrich-Alexander-Universität), Rapporteur
M. Thomas Gaël (UPMC/INRIA/LIP6), Directeur de thèse

Résumé :

Le passage à l'échelle des applications multi-fil sur les systèmes multi-cœur actuels est limité par la performance des algorithmes de verrou, à cause des coûts d'accès à la mémoire sous forte congestion et des défauts de cache. La contribution principale présentée dans cette thèse est un nouvel algorithme, Remote Core Locking (RCL), qui a pour objectif d'améliorer la vitesse d'exécution des sections critiques des applications patrimoniales sur les architectures multi-cœur. L'idée de RCL est de remplacer les acquisitions de verrou par des appels de fonction distants (RPC) optimisés vers un fil d'exécution matériel dédié appelé serveur. RCL réduit l'effondrement des performances observé avec d'autres algorithmes de verrou lorsque de nombreux fils d'exécution essaient d'obtenir un verrou de façon concurrente, et supprime le besoin de transférer les données partagées protégées par le verrou vers le fil d'exécution matériel qui l'acquiert car ces données peuvent souvent demeurer dans les caches du serveur.

 

D'autres contributions sont présentées dans cette thèse, notamment un profiler qui identifie les verrous qui sont des goulots d'étranglement dans les applications multi-fil et qui peuvent par conséquent être remplacés par RCL afin d'améliorer les performances, ainsi qu'un outil de réécriture de code développé avec l'aide de Julia Lawall. Cet outil transforme les acquisitions de verrou POSIX en acquisitions RCL. L'évaluation de RCL a porté sur dix-huit applications: les neuf applications des benchmarks SPLASH-2, les sept applications des benchmarks Phoenix 2, Memcached, ainsi que Berkeley DB avec un client TPC-C. Huit de ces applications sont incapables de passer à l'échelle à cause de leurs verrous et leur performance est améliorée par RCL sur une machine x86 avec quatre processeurs AMD Opteron et 48 fils d'exécution matériels. Utiliser RCL permet de multiplier les performances par 2.5 par rapport aux verrous POSIX sur Memcached, et par 11.6 fois sur Berkeley DB avec le client TPC-C. Sur une machine SPARC avec deux processeurs Sun Ultrasparc T2+ et 128 fils d'exécution matériels, les performances de trois applications sont améliorées par RCL: les performances sont multipliées par 1.3 par rapport aux verrous POSIX sur Memcached et par 7.9 fois sur Berkeley DB avec le client TPC-C.



=== English ===

Dear all,

It is with great pleasure that I am inviting you to attend my PhD defense, entitled: "Towards More Scalable Mutual Exclusion for Multicore Architectures".

The PhD defense will be held on Wednesday the 16th of July 2014 at 1:30pm, tower 25-26, first floor, room 105 of the "Laboratoire d'Informatique de Paris 6" (LIP6) which is located at the following address:
4, Place Jussieu, 75005 Paris, France (access via the M7 or M10 metro lines, Jussieu station).

Jury members:

M. Bouganim Luc (INRIA Paris-Rocquencourt), Examiner
M. Herlihy Maurice (Brown University), Examiner
M. Harris Tim (Oracle Labs), Examiner
M. Muller Gilles (UPMC/INRIA/LIP6), Advisor
M. Quéma Vivien (INP/ENSIMAG/LIG), Reviewer
M. Schröder-Preikschat Wolfgang (Friedrich-Alexander-Universität), Reviewer
M. Thomas Gaël (UPMC/INRIA/LIP6), Advisor

Abstract:

The scalability of multithreaded applications on current multicore systems is hampered by the performance of lock algorithms, due to the costs of access contention and cache misses. The main contribution presented in this thesis is a new lock algorithm, Remote Core Locking (RCL), that aims to improve the performance of critical sections in legacy applications on multicore architectures. The idea of RCL is to replace lock acquisitions by optimized remote procedure calls to a dedicated hardware thread, which is referred to as the server. RCL limits the performance collapse observed with other lock algorithms when many threads try to acquire a lock concurrently and removes the need to transfer lock-protected shared data to the hardware thread acquiring the lock because such data can typically remain in the server's cache.

Other contributions presented in this thesis include a profiler that identifies the locks that are the bottlenecks in multithreaded applications and that can thus benefit from RCL, and a reengineering tool developed with Julia Lawall that transforms POSIX locks into RCL locks. Eighteen applications were used to evaluate RCL: the nine applications of the SPLASH-2 benchmark suite, the seven applications of the Phoenix 2 benchmark suite, Memcached, and Berkeley DB with a TPC-C client. Eight of these applications are unable to scale because of locks and benefit from RCL on an x86 machine with four AMD Opteron processors and 48 hardware threads. Using RCL locks, performance is improved by up to 2.5 times with respect to POSIX locks on Memcached, and up to 11.6 times with respect to Berkeley DB with the TPC-C client. On an SPARC machine with two Sun Ultrasparc T2+ processors and 128 hardware threads, three applications benefit from RCL. In particular, performance is improved by up to 1.3 times with respect to POSIX locks on Memcached, and up to 7.9 times with respect to Berkeley DB with the TPC-C client.


-- 
Jean-Pierre Lozi
PhD student, REGAL Team, LIP6/UPMC

[invitation] Soutenance de thèse de Patrick Simo Kanmeugne

##########################################################################

Bonjour à tous.

J'ai le plaisir de vous inviter à la soutenance de ma thèse intitulée :

<< simulation crédible des déplacements de piétons en temps réel :
modèle microscopique à influence macroscopique >>


La soutenance se déroulera le Vendredi 11 Juillet 2014 à 10h30,
Tour 25-26, 1er étage, salle 101 du Laboratoire d'Informatique de
Paris 6 (LIP6) situé à :

4, Place Jussieu, 75005 Paris, France.
Accès par métro M7 ou M10, station Jussieu.

Elle sera suivie d'un pot qui aura lieu dans la même salle.

##########################################################################

Le jury sera composé de :

[Rapporteur] René Mandiau, Professeur des universités (Université de
Valenciennes)
[Rapporteur] Olivier Simonin, Professeur des Universités (INSA Lyon)
[Examinatrice] Salima Hassas, Professeur des Universités (Université
de Lyon 1)
[Examinateur] Nicolas Bredèche, Professeur des Universités
(Université Pierre et Marie Curie)
[Examinateur] Jean-Daniel Zucker, Directeur de Recherche (IRD)
[Directrice de thèse] Amal El Fallah Seghrouchni, Professeur des
Universités (Université Pierre et Marie Curie)
[Encadrante] Aurélie Beynier, Maître de conférences (Université
Pierre et Marie Curie)
[Encadrant] Jean-Yves Donnart, Responsable études avancées (Thales Group)

##########################################################################

Résumé de la thèse :

Cette thèse s'inscrit dans le cadre d'un projet de recherche et de
développement qui vise à mettre en place des technologies de
simulation permettant de reproduire des comportements humains dans une
ville. L'objectif de nos travaux est de définir des algorithmes
permettant de simuler les déplacements d'une grande quantité de
piétons dans un environnement urbain, en temps réel, et de manière
crédible. Pour ce type d'exercice, plusieurs solutions existent. Ces
solutions sont principalement développées à partir de deux types
d'approches : les approches microscopiques, où les piétons sont
modélisés comme des agents autonomes, et les approches macroscopiques,
où les piétons sont considérés comme soumis à des lois d'écoulement
continues ou discrètes. Notre position est que ces deux approches ne
s'opposent pas, contrairement à ce qui ressort de la pratique
courante, mais se complètent mutuellement. Privilégier l'une au
détriment de l'autre fait courir le risque de produire des solutions
partiellement satisfaisantes. Aussi nous sommes nous proposés de
clarifier le cadre formel permettant d'appréhender la complexité des
déplacements.

En ligne avec plusieurs études statistiques et psychologiques sur
le déplacement des piétons, nous explicitons un déplacement crédible
comme un déplacement économe en énergie métabolique. Nous nous
inspirons des jeux de congestion et du paradigme multi-agent pour
proposer une formulation générique du problème de déplacement des
piétons : nous introduisons la notion de ressources de navigation, que
nous décrivons comme des régions de l'espace que les agents utilisent
pour atteindre leurs destinations, et via lesquelles les agents
interagissent pour estimer leurs dépenses énergétiques de manière
robuste. Nous proposons une stratégie de déplacement basée sur les
heuristiques taboues et nous considérons le principe influence et
réaction pour implémenter les actions de déplacements.

Le concept d'environnement issu du paradigme multi-agent s'avère
particulièrement utile pour appréhender la complexité de la
simulation. L'environnement est considéré comme un composant
indépendant et ontologiquement différent des agents qui est pris en
compte à tous les niveaux de décisions. Une importante partie de la
dynamique de la simulation peut ainsi être déléguée à l'environnement
sans altérer l'autonomie des agents. Cette séparation favorise à la
fois la crédibilité des résultats et le passage à l'échelle.

Nous avons choisi de comparer notre proposition avec un modèle
microscopique standard à travers plusieurs scénarios de simulation. Il
ressort de notre comparaison que notre modèle permet de reproduire des
résultats plus crédibles du point de vue d'un observateur extérieur et
plus proches des études empiriques connues sur les déplacements des
piétons.

##########################################################################

Cordialement,
Patrick SIMO KANMEUGNE