lundi 21 juillet 2014
soutenance de thèse Moustapha Cissé 25 Juillet 2014, 10h, salle 105-LIP6
J'ai le plaisir de vous inviter à ma soutenance de thèse intitulée
"Efficient Extreme Classification".
Elle aura lieu au Laboratoire d'Informatique de Paris 6 (LIP6) à
Jussieu, le **vendredi 25 juillet 2014 à 10h00 en salle 25-26/105** et
vous êtes
également chaleureusement conviés au pot qui suivra.
Plan d'accès :
http://www.upmc.fr/fr/universite/campus_et_sites/a_paris_et_en_idf/jussieu.html
Cordialement,
Moustapha Cissé
----------------------------------------------------------------
Jury
----------------------------------------------------------------
Eric Gaussier, LIG (Grenoble-France) Reviewer
Georges Paliouras, Demokritos (Athens-Greece), Reviewer
Christophe Marsala, LIP6 (Paris-France), Examinator
Nicolas Usunier UTC/CNRS (Compiegne-France), Examinator
Thierry Artieres LIP6 (Paris-France), Co-advisor
patrick Gallinari LIP6 (Paris-France),Co-advisor
----------------------------------------------------------------
Résumé de la thèse (l'exposé sera en anglais)
----------------------------------------------------------------
Humans naturally and instantly recognize relevant objects in images
despite the large number of potential visual concepts. They can also
instantly tell which topics are relevant for a given text document
even though these topics are chosen among thousands of semantic
concepts. This ability to quickly categorize information is an
important aspect of high level intelligence and endowing machines with
it is an important step towards artificial intelligence.
We propose in this thesis new methods to tackle classification
problems with a large number of labels, also called extreme
classification. The proposed approaches aim at reducing the inference
complexity in comparison with the classical methods (such as
one-versus-rest) in order to make learning machines usable in a real
life scenario. We propose two types of methods respectively designed
for single label and multilabel classification.
The first proposed method uses existing hierarchical information among
the categories in order to learn low dimensional binary representation
of the categories. The second type of approaches, dedicated to
multilabel problems, adapts the framework of Bloom Filters to
represent subsets of labels with sparse low dimensional binary
vectors. For both methods, binary classifiers are learned to predict
the new low dimensional representation of the categories and several
algorithms are also proposed to recover the set of relevant labels.
Large scale experiments validate the methods.
Soutenance de thèse Moustapha Cissé 25 Juillet 2014, 10h
J'ai le plaisir de vous inviter à ma soutenance de thèse intitulée
"Efficient Extreme Classification".
Elle aura lieu au Laboratoire d'Informatique de Paris 6 (LIP6) à
Jussieu, le **vendredi 25 juillet 2014 à 10h00 en salle 25-26/101** et
vous êtes
également chaleureusement conviés au pot qui suivra.
Plan d'accès :
http://www.upmc.fr/fr/universite/campus_et_sites/a_paris_et_en_idf/jussieu.html
Cordialement,
Moustapha Cissé
----------------------------------------------------------------
Jury
----------------------------------------------------------------
Eric Gaussier, LIG (Grenoble-France) Reviewer
Georges Paliouras, Demokritos (Athens-Greece), Reviewer
Christophe Marsala, LIP6 (Paris-France), Examinator
Nicolas Usunier UTC/CNRS (Compiegne-France), Examinator
Thierry Artieres LIP6 (Paris-France), Co-advisor
patrick Gallinari LIP6 (Paris-France),Co-advisor
----------------------------------------------------------------
Résumé de la thèse (l'exposé sera en anglais)
----------------------------------------------------------------
Humans naturally and instantly recognize relevant objects in images
despite the large number of potential visual concepts. They can also
instantly tell which topics are relevant for a given text document
even though these topics are chosen among thousands of semantic
concepts. This ability to quickly categorize information is an
important aspect of high level intelligence and endowing machines with
it is an important step towards artificial intelligence.
We propose in this thesis new methods to tackle classification
problems with a large number of labels, also called extreme
classification. The proposed approaches aim at reducing the inference
complexity in comparison with the classical methods (such as
one-versus-rest) in order to make learning machines usable in a real
life scenario. We propose two types of methods respectively designed
for single label and multilabel classification.
The first proposed method uses existing hierarchical information among
the categories in order to learn low dimensional binary representation
of the categories. The second type of approaches, dedicated to
multilabel problems, adapts the framework of Bloom Filters to
represent subsets of labels with sparse low dimensional binary
vectors. For both methods, binary classifiers are learned to predict
the new low dimensional representation of the categories and several
algorithms are also proposed to recover the set of relevant labels.
Large scale experiments validate the methods.
mercredi 16 juillet 2014
Rectificatif : changement d'horaire de la soutenance de thèse de Jean-Pierre Lozi (13h30 -> 14h00)
4, Place Jussieu, 75005 Paris, France (accès par métro M7 ou M10, station Jussieu).
Le passage à l'échelle des applications multi-fil sur les systèmes multi-cœur actuels est limité par la performance des algorithmes de verrou, à cause des coûts d'accès à la mémoire sous forte congestion et des défauts de cache. La contribution principale présentée dans cette thèse est un nouvel algorithme, Remote Core Locking (RCL), qui a pour objectif d'améliorer la vitesse d'exécution des sections critiques des applications patrimoniales sur les architectures multi-cœur. L'idée de RCL est de remplacer les acquisitions de verrou par des appels de fonction distants (RPC) optimisés vers un fil d'exécution matériel dédié appelé serveur. RCL réduit l'effondrement des performances observé avec d'autres algorithmes de verrou lorsque de nombreux fils d'exécution essaient d'obtenir un verrou de façon concurrente, et supprime le besoin de transférer les données partagées protégées par le verrou vers le fil d'exécution matériel qui l'acquiert car ces données peuvent souvent demeurer dans les caches du serveur.
D'autres contributions sont présentées dans cette thèse, notamment un profiler qui identifie les verrous qui sont des goulots d'étranglement dans les applications multi-fil et qui peuvent par conséquent être remplacés par RCL afin d'améliorer les performances, ainsi qu'un outil de réécriture de code développé avec l'aide de Julia Lawall. Cet outil transforme les acquisitions de verrou POSIX en acquisitions RCL. L'évaluation de RCL a porté sur dix-huit applications: les neuf applications des benchmarks SPLASH-2, les sept applications des benchmarks Phoenix 2, Memcached, ainsi que Berkeley DB avec un client TPC-C. Huit de ces applications sont incapables de passer à l'échelle à cause de leurs verrous et leur performance est améliorée par RCL sur une machine x86 avec quatre processeurs AMD Opteron et 48 fils d'exécution matériels. Utiliser RCL permet de multiplier les performances par 2.5 par rapport aux verrous POSIX sur Memcached, et par 11.6 fois sur Berkeley DB avec le client TPC-C. Sur une machine SPARC avec deux processeurs Sun Ultrasparc T2+ et 128 fils d'exécution matériels, les performances de trois applications sont améliorées par RCL: les performances sont multipliées par 1.3 par rapport aux verrous POSIX sur Memcached et par 7.9 fois sur Berkeley DB avec le client TPC-C.
mardi 8 juillet 2014
Rectificatif : changement d'horaire de la soutenance de thèse d'Amal Oudni
Toutes mes excuses pour le changement d'horaire de ma soutenance!
Ma soutenance de thèse est avancée à 14:00h,
Bonne journée,
Amal
-------- Message original --------
Objet: [Invitation] Soutenance de thèse d'Amal Oudni le mercredi 9
juillet 2014
Date: 2014-07-02 18:37
De: Amal Oudni <Amal.Oudni@lip6.fr>
À: Tout Lip6 <tout-lip6@lip6.fr>
(english version below)
Bonjour,
J'ai le plaisir de vous inviter à ma soutenance de thèse intitulée :
"Fouille de données par extraction de motifs graduels :
contextualisation et enrichissement"
La soutenance aura lieu le : mercredi 9 juillet à 14h30,
elle se tiendra à :
Université Pierre et Marie Curie, 4 place Jussieu
75005 Paris - Salle 105, Tour 25/26.
Vous êtes également conviés au pot qui suivra dans la même salle.
http://www.upmc.fr/fr/vie_des_campus/handicap/plan_d_acces.html
=============================================================
Membres du jury :
=============================================================
Bernd Amann Professeur LIP6 - UPMC
Examinateur
Sadok Ben Yahia Professeur URPAH - Université des
Sciences de Tunis Examinateur
Anne Laurent Professeur LIRMM - Université
Montpellier 2 Rapportrice
Marie-Jeanne Lesot Maître de Conférences [HDR] LIP6 - UPMC
Directrice de thèse
Olivier Pivert Professeur ENSSAT - Université
Rennes 1 Rapporteur
Maria Rifqi Maître de Conférences [HDR] LEMMA - Université
Paris 2 Directrice de thèse
==============================================================
Résumé
==============================================================
Les travaux de cette thèse s'inscrivent dans le cadre de l'extraction
de connaissances et de la fouille de données appliquée à des bases de
données numériques ou floues afin d'extraire des résumés linguistiques
sous la forme de motifs graduels exprimant des corrélations de
co-variations
des valeurs des attributs, de la forme « plus la température augmente,
plus la pression augmente ». Notre objectif est de les contextualiser
et de les enrichir en proposant différents types de compléments
d'information afin d'augmenter leur qualité et leur apporter une
meilleure interprétation.
Nous proposons quatre formes de nouveaux motifs : nous avons
tout d'abord étudié les motifs dits « renforcés », qui effectuent,
dans le cas de données floues, une contextualisation par intégration
d'attributs complémentaires, ajoutant des clauses introduites
linguistiquement par l'expression « d'autant plus que ».
Ils peuvent être illustrés par l'exemple « plus la température diminue,
plus le volume de l'air diminue, d'autant plus que sa densité augmente
».
Ce renforcement est interprété comme validité accrue des motifs
graduels.
Nous nous sommes également intéressées à la transposition de la notion
de renforcement aux règles d'association classiques en discutant de
leurs interprétations possibles et nous montrons leur apport limité.
Nous proposons ensuite de traiter le problème des motifs graduels
contradictoires rencontré par exemple lors de l'extraction simultanée
des deux motifs « plus la température augmente, plus l'humidité augmente
»
et « plus la température augmente, plus l'humidité diminue ». Pour gérer
ces contradictions, nous proposons une définition contrainte du support
d'un motif graduel, qui, en particulier, ne dépend pas uniquement du
motif
considéré, mais aussi de ses contradicteurs potentiels. Nous proposons
également deux méthodes d'extraction, respectivement basées sur un
filtrage a posteriori et sur l'intégration de la contrainte du
nouveau support dans le processus de génération.
Nous introduisons également les motifs graduels caractérisés, définis
par l'ajout d'une clause linguistiquement introduite par l'expression
« surtout si » comme par exemple « plus la température diminue,
plus l'humidité diminue, surtout si la température varie dans [0, 10] °C
» :
la clause additionnelle précise des plages de valeurs sur lesquelles
la validité des motifs est accrue. Nous formalisons la qualité
de cet enrichissement comme un compromis entre deux contraintes
imposées à l'intervalle identifié, portant sur sa taille et sa validité,
ainsi qu'extension tenant compte de la densité des données.
Nous proposons une méthode d'extraction automatique basée sur des outils
de morphologie mathématique et la définition d'un filtre approprié
et transcription.
Nous définissons aussi les motifs graduels accélérés, qui qualifient les
corrélations entre les valeurs d'attributs et contextualisent les motifs
graduels par l'expression linguistique « rapidement », comme par exemple
« plus la température augmente, plus l'humidité augmente rapidement ».
Nous traduisons cet effet comme une contrainte de convexité que nous
modélisons comme une contrainte de covariation supplémentaire,
qui s'exprime dans le même formalisme que les contraintes d'ordre des
motifs classiques.
Nous proposons et étudions deux méthodes d'extraction, par filtrage
a posteriori et intégration dans le processus de génération.
Pour chacune des quatre contextualisation proposées, nous étudions
et formalisons la sémantique et l'interprétation souhaitées.
Nous proposons ensuite des mesures de qualité pour évaluer la validité
des motifs proposés. Nous proposons et implémentons des algorithmes
efficaces d'extraction automatique des motifs qui maximisent les
critères
de qualité proposés.
Enfin, nous réalisons une étude expérimentale, à la fois sur des données
jouets pour étudier et analyser le comportement des approches proposées,
et sur des données réelles pour montrer la pertinence des approches
et l'intérêt des motifs extraits.
Les expérimentations réalisées pour chaque approche permettent de
valider
l'apport des différentes formes de motifs proposées, ainsi que leur
interprétation associée.
--------------------- english version -----------------------
Hello,
I am pleased to invite you to my PhD defence entitled:
"Data mining based on gradual itemsets extraction: contextualization and
enrichment"
The defence will take place on:
Wednesday, July 9th at 2.30 pm,
it will be held in french at:
Université Pierre et Marie Curie, 4 place Jussieu
75005 Paris - Salle 105, Tour 25/26.
You are also invited afterwards for drinks and celebration in the same
room.
http://www.upmc.fr/fr/vie_des_campus/handicap/plan_d_acces.html
=============================================================
Jury members
=============================================================
Bernd Amann Professeur LIP6 - UPMC
Examinateur
Sadok Ben Yahia Professeur URPAH - Université
des Sciences de Tunis Examinateur
Anne Laurent Professeur LIRMM - Université
Montpellier 2 Rapportrice
Marie-Jeanne Lesot Maître de Conférences [HDR] LIP6 - UPMC
Directrice de thèse
Olivier Pivert Professeur ENSSAT - Université
Rennes 1 Rapporteur
Maria Rifqi Maître de Conférences [HDR] LEMMA - Université
Paris 2 Directrice de thèse
==============================================================
Summary
==============================================================
This thesis's works belongs to the framework of knowledge extraction
and data mining applied to numerical or fuzzy data in order to extract
linguistic summaries in the form of gradual itemsets: the latter express
correlation between attribute values of the form « the more the
temperature
increases, the more the pressure increases ». Our goal is to
contextualize
and enrich these gradual itemsets by proposing different types of
additional
information so as to increase their quality and provide a better
interpretation.
We propose four types of new itemsets: first of all, reinforced gradual
itemsets,
in the case of fuzzy data, perform a contextualization by integrating
additional
attributes linguistically introduced by the expression « all the more ».
They can be illustrated by the example « the more the temperature
decreases,
the more the volume of air decreases, all the more its density increases
».
Reinforcement is interpreted as increased validity of the gradual
itemset.
In addition, we study the extension of the concept of reinforcement to
association rules,
discussing their possible interpretations and showing their limited
contribution.
We then propose to process the contradictory itemsets that arise for
example
in the case of simultaneous extraction of « the more the temperature
increases,
the more the humidity increases » and « the more the temperature
increases,
the less the humidity decreases ». To manage these contradictions,
we define a constrained variant of the gradual itemset support, which,
in particular, does not only depend on the considered itemset, but also
on its potential
contradictors. We also propose two extraction methods: the first one
consists in filtering,
after all itemsets have been generated, and the second one integrates
the filtering process
within the generation step.
We introduce characterized gradual itemsets, defined by adding a clause
linguistically
introduced by the expression « especially if » that can be illustrated
by a sentence
such as « the more the temperature decreases, the more the humidity
decreases,
especially if the temperature varies in [0, 10] °C »: the additional
clause precise value
ranges on which the validity of the itemset is increased. We formalize
the quality of this
enrichment as a trade-off between two constraints imposed to identified
interval,
namely a high validity and a high size, as well as an extension taking
into account
the data density. We propose a method to automatically extract
characterized gradual
based on appropriate mathematical morphology tools and the definition of
an
appropriate filter and transcription.
We define also accelerated gradual itemsets that quantify the
correlations between
the attribute values and contextualize the gradual itemset through the
linguistic
expression « quickly », for example « the more the temperature
increases, the more
quickly the humidity increases ».
We propose an interpretation as convexity constraint imposed on the
relation between
the attributes composing a considered gradual itemset that we model as
an additional constraint covariation, which is expressed in the same
formalism
as constraints of classical gradual itemsets.
We propose and study two extraction methods, by filtering a posteriori
and
integrating in the generation process.
For each of the four proposed contextualizations, we study and formalize
the semantics
and desired interpretation. We then propose quality measures to evaluate
the validity of the given enriched itemset.
We also propose and implement efficient algorithms for the automatic
extraction
of itemsets that maximize the proposed quality criteria. Finally, we
carry out
experimental studies both on artificial data,
to study and analyze the behavior of the proposed approaches, and on
real data
to show the relevance of the proposed approaches and the interest of
extracted
enriched itemsets.
The experimental results for each approach allow to validate the
contribution
of the different proposed gradual itemsets and their associated
interpretation.
Amal
vendredi 4 juillet 2014
Soutenance de thèse d'Etienne Millon - 10 juillet, 14h
J'ai le plaisir de vous inviter à ma soutenance de thèse intitulée:
Analyse de sécurité de logiciels système par typage statique
Application au noyau Linux
Mots clefs: sécurité, typage, isolation, linux, pointeurs utilisateur
Cette soutenance aura lieu *le jeudi 10 juillet 2014 à 14h*
à l'UPMC – Campus Jussieu, 4 Place Jussieu - 75005 Paris
Couloir 26-25, 1er étage, salle 105
devant le jury composé de
Rapporteurs:
Sandrine Blazy, IRISA
Pierre Jouvelot, MINES ParisTech
Examinateurs:
Gilles Muller, Université Pierre et Marie Curie
Vincent Simonet, Google
Directeurs:
Emmanuel Chailloux, Université Pierre et Marie Curie
Sarah Zennou, Airbus Group Innovations
Invité:
Olivier Levillain, ANSSI, Invité
Résumé:
Les noyaux de systèmes d'exploitation manipulent des données
fournies par les programmes utilisateur via les appels système. Si
elles sont manipulées sans prendre une attention particulière, une
faille de sécurité connue sous le nom de Confused Deputy Problem
peut amener à des fuites de données confidentielles ou l'élévation
de privilèges d'un attaquant.
Le but de cette thèse est d'utiliser des techniques de typage
statique afin de détecter les manipulations dangereuses de pointeurs
contrôlés par l'espace utilisateur.
La plupart des systèmes d'exploitation sont écrits dans le langage
C. On commence par en isoler un sous-langage sûr nommé Safespeak. Sa
sémantique opérationnelle et un premier système de types sont
décrits, et les propriétés classiques de sûreté du typage sont
établies. La manipulation des états mémoire est formalisée sous la
forme de lentilles bidirectionnelles, qui permettent d'encoder les
mises à jour partielles des états et variables. Un première analyse
sur ce langage est décrite, permettant de distinguer les entiers
utilisés comme bitmasks, qui sont une source de bugs dans les
programmes C.
On ajoute ensuite à Safespeak la notion de valeur provenant de
l'espace utilisateur. La sûreté du typage est alors brisée, mais on
peut la réétablir en donnant un type particulier aux pointeurs
contrôlés par l'espace utilisateur, ce qui force leur déférencement
à se faire de manière contrôlée. Cette technique permet de détecter
deux bugs dans le noyau Linux: le premier concerne un pilote de
carte graphique AMD, et le second l'appel système ptrace sur
l'architecture Blackfin.
Vous êtes également invités au pot qui suivra.
Bien cordialement,
--
Etienne Millon
Soutenance de thèse de Alexandru Tatar - 9 juillet 2014, 14h
J'ai le plaisir de vous inviter à ma soutenance de thèse intitulée "Predicting User-Centric Behavior: Content Popularity and Mobility".
Elle aura lieu au Laboratoire d'Informatique de Paris 6 (LIP6) à Jussieu, le **mercredi 9 juillet 2014 à 14h00 en salle 25-26/101** et vous êtes
[invitation] Soutenance de thèse de Ruomin Wang
J'ai le plaisir de vous convier à la soutenance de ma thèse de doctorat, intitulée :
"Modélisation à haut niveau d'abstraction de l'intégrité du signal dans les bus de communication »
[Rapporteur] Luc Hébrard, Professeur des Universités (Université de Strasbourg)
[Examinatrice] Sonia Ben Dhia, Maître de conférence (HDR) des Universités (INSA de Toulouse)
[Examinateur] Marc Hélier, Professeur des Universités (Université Pierre et Marie Curie)
[Examinateur] Jacques-Olivier Klein, Professeur des Universités (Université Paris Sud)
[Encadrant] Sylvain Feruglio, Maître de conférences (Université Pierre et Marie Curie)
[Rapporteur] Luc Hébrard, Professor (Université de Strasbourg)
[Examinatrice] Sonia Ben Dhia, Associate Professor (HDR) (INSA de Toulouse)
[Examinateur] Marc Hélier, Professor (Université Pierre et Marie Curie)
[Examinateur] Jacques-Olivier Klein, Professor (Université Paris Sud)
[Encadrant] Sylvain Feruglio, Associate Professor (Université Pierre et Marie Curie)
-------------------------------------------------------------
UPMC - LIP6
Boîte courrier 167
Couloir 65-66, Étage 1, Bureau 112a
4 place Jussieu
75252 PARIS CEDEX 05
Tel: 01 44 27 75 07
mercredi 2 juillet 2014
[Invitation] Soutenance de thèse d'Amal Oudni le mercredi 9 juillet 2014
Bonjour,
J'ai le plaisir de vous inviter à ma soutenance de thèse intitulée :
"Fouille de données par extraction de motifs graduels :
contextualisation et enrichissement"
La soutenance aura lieu le : mercredi 9 juillet à 14h30,
elle se tiendra à :
Université Pierre et Marie Curie, 4 place Jussieu
75005 Paris - Salle 105, Tour 25/26.
Vous êtes également conviés au pot qui suivra dans la même salle.
http://www.upmc.fr/fr/vie_des_campus/handicap/plan_d_acces.html
=============================================================
Membres du jury :
=============================================================
Bernd Amann Professeur LIP6 - UPMC
Examinateur
Sadok Ben Yahia Professeur URPAH - Université des
Sciences de Tunis Examinateur
Anne Laurent Professeur LIRMM - Université
Montpellier 2 Rapportrice
Marie-Jeanne Lesot Maître de Conférences [HDR] LIP6 - UPMC
Directrice de thèse
Olivier Pivert Professeur ENSSAT - Université
Rennes 1 Rapporteur
Maria Rifqi Maître de Conférences [HDR] LEMMA - Université
Paris 2 Directrice de thèse
==============================================================
Résumé
==============================================================
Les travaux de cette thèse s'inscrivent dans le cadre de l'extraction
de connaissances et de la fouille de données appliquée à des bases de
données numériques ou floues afin d'extraire des résumés linguistiques
sous la forme de motifs graduels exprimant des corrélations de
co-variations
des valeurs des attributs, de la forme « plus la température augmente,
plus la pression augmente ». Notre objectif est de les contextualiser
et de les enrichir en proposant différents types de compléments
d'information afin d'augmenter leur qualité et leur apporter une
meilleure interprétation.
Nous proposons quatre formes de nouveaux motifs : nous avons
tout d'abord étudié les motifs dits « renforcés », qui effectuent,
dans le cas de données floues, une contextualisation par intégration
d'attributs complémentaires, ajoutant des clauses introduites
linguistiquement par l'expression « d'autant plus que ».
Ils peuvent être illustrés par l'exemple « plus la température diminue,
plus le volume de l'air diminue, d'autant plus que sa densité augmente
».
Ce renforcement est interprété comme validité accrue des motifs
graduels.
Nous nous sommes également intéressées à la transposition de la notion
de renforcement aux règles d'association classiques en discutant de
leurs interprétations possibles et nous montrons leur apport limité.
Nous proposons ensuite de traiter le problème des motifs graduels
contradictoires rencontré par exemple lors de l'extraction simultanée
des deux motifs « plus la température augmente, plus l'humidité augmente
»
et « plus la température augmente, plus l'humidité diminue ». Pour gérer
ces contradictions, nous proposons une définition contrainte du support
d'un motif graduel, qui, en particulier, ne dépend pas uniquement du
motif
considéré, mais aussi de ses contradicteurs potentiels. Nous proposons
également deux méthodes d'extraction, respectivement basées sur un
filtrage a posteriori et sur l'intégration de la contrainte du
nouveau support dans le processus de génération.
Nous introduisons également les motifs graduels caractérisés, définis
par l'ajout d'une clause linguistiquement introduite par l'expression
« surtout si » comme par exemple « plus la température diminue,
plus l'humidité diminue, surtout si la température varie dans [0, 10] °C
» :
la clause additionnelle précise des plages de valeurs sur lesquelles
la validité des motifs est accrue. Nous formalisons la qualité
de cet enrichissement comme un compromis entre deux contraintes
imposées à l'intervalle identifié, portant sur sa taille et sa validité,
ainsi qu'extension tenant compte de la densité des données.
Nous proposons une méthode d'extraction automatique basée sur des outils
de morphologie mathématique et la définition d'un filtre approprié
et transcription.
Nous définissons aussi les motifs graduels accélérés, qui qualifient les
corrélations entre les valeurs d'attributs et contextualisent les motifs
graduels par l'expression linguistique « rapidement », comme par exemple
« plus la température augmente, plus l'humidité augmente rapidement ».
Nous traduisons cet effet comme une contrainte de convexité que nous
modélisons comme une contrainte de covariation supplémentaire,
qui s'exprime dans le même formalisme que les contraintes d'ordre des
motifs classiques.
Nous proposons et étudions deux méthodes d'extraction, par filtrage
a posteriori et intégration dans le processus de génération.
Pour chacune des quatre contextualisation proposées, nous étudions
et formalisons la sémantique et l'interprétation souhaitées.
Nous proposons ensuite des mesures de qualité pour évaluer la validité
des motifs proposés. Nous proposons et implémentons des algorithmes
efficaces d'extraction automatique des motifs qui maximisent les
critères
de qualité proposés.
Enfin, nous réalisons une étude expérimentale, à la fois sur des données
jouets pour étudier et analyser le comportement des approches proposées,
et sur des données réelles pour montrer la pertinence des approches
et l'intérêt des motifs extraits.
Les expérimentations réalisées pour chaque approche permettent de
valider
l'apport des différentes formes de motifs proposées, ainsi que leur
interprétation associée.
--------------------- english version -----------------------
Hello,
I am pleased to invite you to my PhD defence entitled:
"Data mining based on gradual itemsets extraction: contextualization and
enrichment"
The defence will take place on:
Wednesday, July 9th at 2.30 pm,
it will be held in french at:
Université Pierre et Marie Curie, 4 place Jussieu
75005 Paris - Salle 105, Tour 25/26.
You are also invited afterwards for drinks and celebration in the same
room.
http://www.upmc.fr/fr/vie_des_campus/handicap/plan_d_acces.html
=============================================================
Jury members
=============================================================
Bernd Amann Professeur LIP6 - UPMC
Examinateur
Sadok Ben Yahia Professeur URPAH - Université
des Sciences de Tunis Examinateur
Anne Laurent Professeur LIRMM - Université
Montpellier 2 Rapportrice
Marie-Jeanne Lesot Maître de Conférences [HDR] LIP6 - UPMC
Directrice de thèse
Olivier Pivert Professeur ENSSAT - Université
Rennes 1 Rapporteur
Maria Rifqi Maître de Conférences [HDR] LEMMA - Université
Paris 2 Directrice de thèse
==============================================================
Summary
==============================================================
This thesis's works belongs to the framework of knowledge extraction
and data mining applied to numerical or fuzzy data in order to extract
linguistic summaries in the form of gradual itemsets: the latter express
correlation between attribute values of the form « the more the
temperature
increases, the more the pressure increases ». Our goal is to
contextualize
and enrich these gradual itemsets by proposing different types of
additional
information so as to increase their quality and provide a better
interpretation.
We propose four types of new itemsets: first of all, reinforced gradual
itemsets,
in the case of fuzzy data, perform a contextualization by integrating
additional
attributes linguistically introduced by the expression « all the more ».
They can be illustrated by the example « the more the temperature
decreases,
the more the volume of air decreases, all the more its density increases
».
Reinforcement is interpreted as increased validity of the gradual
itemset.
In addition, we study the extension of the concept of reinforcement to
association rules,
discussing their possible interpretations and showing their limited
contribution.
We then propose to process the contradictory itemsets that arise for
example
in the case of simultaneous extraction of « the more the temperature
increases,
the more the humidity increases » and « the more the temperature
increases,
the less the humidity decreases ». To manage these contradictions,
we define a constrained variant of the gradual itemset support, which,
in particular, does not only depend on the considered itemset, but also
on its potential
contradictors. We also propose two extraction methods: the first one
consists in filtering,
after all itemsets have been generated, and the second one integrates
the filtering process
within the generation step.
We introduce characterized gradual itemsets, defined by adding a clause
linguistically
introduced by the expression « especially if » that can be illustrated
by a sentence
such as « the more the temperature decreases, the more the humidity
decreases,
especially if the temperature varies in [0, 10] °C »: the additional
clause precise value
ranges on which the validity of the itemset is increased. We formalize
the quality of this
enrichment as a trade-off between two constraints imposed to identified
interval,
namely a high validity and a high size, as well as an extension taking
into account
the data density. We propose a method to automatically extract
characterized gradual
based on appropriate mathematical morphology tools and the definition of
an
appropriate filter and transcription.
We define also accelerated gradual itemsets that quantify the
correlations between
the attribute values and contextualize the gradual itemset through the
linguistic
expression « quickly », for example « the more the temperature
increases, the more
quickly the humidity increases ».
We propose an interpretation as convexity constraint imposed on the
relation between
the attributes composing a considered gradual itemset that we model as
an additional constraint covariation, which is expressed in the same
formalism
as constraints of classical gradual itemsets.
We propose and study two extraction methods, by filtering a posteriori
and
integrating in the generation process.
For each of the four proposed contextualizations, we study and formalize
the semantics
and desired interpretation. We then propose quality measures to evaluate
the validity of the given enriched itemset.
We also propose and implement efficient algorithms for the automatic
extraction
of itemsets that maximize the proposed quality criteria. Finally, we
carry out
experimental studies both on artificial data,
to study and analyze the behavior of the proposed approaches, and on
real data
to show the relevance of the proposed approaches and the interest of
extracted
enriched itemsets.
The experimental results for each approach allow to validate the
contribution
of the different proposed gradual itemsets and their associated
interpretation.
Amal
Fwd: Avis de soutenance de thèse de Boukary OUATTARA
Bonjour,
J'ai le plaisir de vous inviter à ma soutenance de thèse intitulée :
Prévision des effets de vieillissement par électromigration dans les circuits intégrés CMOS en nuds technologiques submicroniques.Â
La soutenance aura lieu le Mardi 08 juillet 2014 à 14h00 à l'université Pierre et Marie Curie, salle 105, tour 25-26, 1er étage.
4 place Jussieu, 75005 Paris.Â
Station métro: Jussieu (M7 et M10).
Le jury est composé de:
M. WOUTERS Yves, SIMaP Grenoble, Rapporteur de thèse
M. ROUZEYRE Bruno, LIRMM Montpellier, Rapporteur de thèse
M. KOKABI Hamid, UMPC Paris 6, Examinateur
M. VIVET Pascal, CEA Grenoble, Examinateur
M. BAZARGAN-SABET LIP6 Paris 6, Co-encadrant de thèse
Mlle. DOYEN Lise, STMicroelectronics Crolles, Encadrante industrielle de thèse
M. MEHREZ Habib, LIP6 Paris 6,  Directeur de thèse
Vous êtes également conviés au pot qui suivra la soutenance et qui se tiendra à la salle A002 (Maison de la pédagogie).Â
Veuillez trouver ci-dessous le résumé (français et anglais) de la thèse et le plan du site de soutenance
Bien cordialement
Boukary OUATTARA
Doctorant/PhD Student
******************************
STMicroelectronics Crolles/Â LIP6Â Laboratory,
Systems On Chips department.
Pierre and Marie Curie University - Paris VI
France
â****************************************************
â
Résumé :
Lâélectromigration (EMG) est lâune des conséquences de la course à la miniaturisation des composants électroniques en général et la réduction des dimensions des interconnexions en particulier. Il est identifié comme lâun des phénomènes critiques de fiabilité pour les circuits intégrés en technologies submicroniques. Les méthodes de vérification de ce phénomène utilisées durant la conception de circuits sont pour la plupart basées sur des règles de densité de courant et de température. Ces règles deviennent de plus en plus difficiles à mettre en place, compte tenue de lâaugmentation des densités de courant dans les réseaux dâinterconnexions. Les travaux de cette thèse sâinscrivent dans la dynamique de recherches de moyens dâamélioration de la détection des risques dâélectromigration durant la phase de conception. Le but est dâétablir une relation entre violations des règles électriques et la physique de dégradation des interconnexions. Les résultats obtenus au cours des tests de vieillissement nous ont permis de repousser les limites de courant sans altérer les durées de vie des circuits. Enfin, ce projet été lâoccasion de définir des règles conception basé sur lâoptimisation des cellules dâhorloges dans la grille dâalimentation des circuits intégrés. Lâapplication des solutions proposées au cours de ces travaux ont permis de réaliser des circuits robustes aux effets EMG.
 Abstract :
Electromigration (EMG) is a consequence of miniaturization of integrated circuits in general and the reduction of interconnect dimensions in particular. It is identified as one of the critical reliability phenomenon for integrated circuits designed in submicron technologies. The methods of checking this phenomenon at design level are mostly based on current density rules and temperature. These rules are becoming difficult to implement due to increasing current density in interconnection network. This thesis is based on researching for ways to improve detection of electromigration risks at design level. The goal is to establish a relation between electrical rules and interconnect degradation mechanism. Results obtained from ageing tests permit us to relax current limit without altered circuit lifetimes. Finally, this project has been instrumental to define design rules based on optimization of clock tree cells placement in integrated circuit power grid. The application of solution proposed during this work permit to design robust circuits toward EMG.
Content-Type: image/jpeg; name="plan_UPMC.jpg"
Content-Disposition: inline; filename="plan_UPMC.jpg"
Content-ID: <ii_146f5fae52fb2047>
X-Attachment-Id: ii_146f5fae52fb2047
mardi 1 juillet 2014
Soutenance de thèse de Jean-Pierre Lozi
4, Place Jussieu, 75005 Paris, France (accès par métro M7 ou M10, station Jussieu).
Le passage à l'échelle des applications multi-fil sur les systèmes multi-cœur actuels est limité par la performance des algorithmes de verrou, à cause des coûts d'accès à la mémoire sous forte congestion et des défauts de cache. La contribution principale présentée dans cette thèse est un nouvel algorithme, Remote Core Locking (RCL), qui a pour objectif d'améliorer la vitesse d'exécution des sections critiques des applications patrimoniales sur les architectures multi-cœur. L'idée de RCL est de remplacer les acquisitions de verrou par des appels de fonction distants (RPC) optimisés vers un fil d'exécution matériel dédié appelé serveur. RCL réduit l'effondrement des performances observé avec d'autres algorithmes de verrou lorsque de nombreux fils d'exécution essaient d'obtenir un verrou de façon concurrente, et supprime le besoin de transférer les données partagées protégées par le verrou vers le fil d'exécution matériel qui l'acquiert car ces données peuvent souvent demeurer dans les caches du serveur.
D'autres contributions sont présentées dans cette thèse, notamment un profiler qui identifie les verrous qui sont des goulots d'étranglement dans les applications multi-fil et qui peuvent par conséquent être remplacés par RCL afin d'améliorer les performances, ainsi qu'un outil de réécriture de code développé avec l'aide de Julia Lawall. Cet outil transforme les acquisitions de verrou POSIX en acquisitions RCL. L'évaluation de RCL a porté sur dix-huit applications: les neuf applications des benchmarks SPLASH-2, les sept applications des benchmarks Phoenix 2, Memcached, ainsi que Berkeley DB avec un client TPC-C. Huit de ces applications sont incapables de passer à l'échelle à cause de leurs verrous et leur performance est améliorée par RCL sur une machine x86 avec quatre processeurs AMD Opteron et 48 fils d'exécution matériels. Utiliser RCL permet de multiplier les performances par 2.5 par rapport aux verrous POSIX sur Memcached, et par 11.6 fois sur Berkeley DB avec le client TPC-C. Sur une machine SPARC avec deux processeurs Sun Ultrasparc T2+ et 128 fils d'exécution matériels, les performances de trois applications sont améliorées par RCL: les performances sont multipliées par 1.3 par rapport aux verrous POSIX sur Memcached et par 7.9 fois sur Berkeley DB avec le client TPC-C.
[invitation] Soutenance de thèse de Patrick Simo Kanmeugne
Bonjour à tous.
J'ai le plaisir de vous inviter à la soutenance de ma thèse intitulée :
<< simulation crédible des déplacements de piétons en temps réel :
modèle microscopique à influence macroscopique >>
La soutenance se déroulera le Vendredi 11 Juillet 2014 à 10h30,
Tour 25-26, 1er étage, salle 101 du Laboratoire d'Informatique de
Paris 6 (LIP6) situé à :
4, Place Jussieu, 75005 Paris, France.
Accès par métro M7 ou M10, station Jussieu.
Elle sera suivie d'un pot qui aura lieu dans la même salle.
##########################################################################
Le jury sera composé de :
[Rapporteur] René Mandiau, Professeur des universités (Université de
Valenciennes)
[Rapporteur] Olivier Simonin, Professeur des Universités (INSA Lyon)
[Examinatrice] Salima Hassas, Professeur des Universités (Université
de Lyon 1)
[Examinateur] Nicolas Bredèche, Professeur des Universités
(Université Pierre et Marie Curie)
[Examinateur] Jean-Daniel Zucker, Directeur de Recherche (IRD)
[Directrice de thèse] Amal El Fallah Seghrouchni, Professeur des
Universités (Université Pierre et Marie Curie)
[Encadrante] Aurélie Beynier, Maître de conférences (Université
Pierre et Marie Curie)
[Encadrant] Jean-Yves Donnart, Responsable études avancées (Thales Group)
##########################################################################
Résumé de la thèse :
Cette thèse s'inscrit dans le cadre d'un projet de recherche et de
développement qui vise à mettre en place des technologies de
simulation permettant de reproduire des comportements humains dans une
ville. L'objectif de nos travaux est de définir des algorithmes
permettant de simuler les déplacements d'une grande quantité de
piétons dans un environnement urbain, en temps réel, et de manière
crédible. Pour ce type d'exercice, plusieurs solutions existent. Ces
solutions sont principalement développées à partir de deux types
d'approches : les approches microscopiques, où les piétons sont
modélisés comme des agents autonomes, et les approches macroscopiques,
où les piétons sont considérés comme soumis à des lois d'écoulement
continues ou discrètes. Notre position est que ces deux approches ne
s'opposent pas, contrairement à ce qui ressort de la pratique
courante, mais se complètent mutuellement. Privilégier l'une au
détriment de l'autre fait courir le risque de produire des solutions
partiellement satisfaisantes. Aussi nous sommes nous proposés de
clarifier le cadre formel permettant d'appréhender la complexité des
déplacements.
En ligne avec plusieurs études statistiques et psychologiques sur
le déplacement des piétons, nous explicitons un déplacement crédible
comme un déplacement économe en énergie métabolique. Nous nous
inspirons des jeux de congestion et du paradigme multi-agent pour
proposer une formulation générique du problème de déplacement des
piétons : nous introduisons la notion de ressources de navigation, que
nous décrivons comme des régions de l'espace que les agents utilisent
pour atteindre leurs destinations, et via lesquelles les agents
interagissent pour estimer leurs dépenses énergétiques de manière
robuste. Nous proposons une stratégie de déplacement basée sur les
heuristiques taboues et nous considérons le principe influence et
réaction pour implémenter les actions de déplacements.
Le concept d'environnement issu du paradigme multi-agent s'avère
particulièrement utile pour appréhender la complexité de la
simulation. L'environnement est considéré comme un composant
indépendant et ontologiquement différent des agents qui est pris en
compte à tous les niveaux de décisions. Une importante partie de la
dynamique de la simulation peut ainsi être déléguée à l'environnement
sans altérer l'autonomie des agents. Cette séparation favorise à la
fois la crédibilité des résultats et le passage à l'échelle.
Nous avons choisi de comparer notre proposition avec un modèle
microscopique standard à travers plusieurs scénarios de simulation. Il
ressort de notre comparaison que notre modèle permet de reproduire des
résultats plus crédibles du point de vue d'un observateur extérieur et
plus proches des études empiriques connues sur les déplacements des
piétons.
##########################################################################
Cordialement,
Patrick SIMO KANMEUGNE
mardi 24 juin 2014
[Invitation] Soutenance de thèse de Koutheir Attouchi
Bonjour,
J'ai le plaisir de vous inviter à la soutenance de ma thèse intitulée:
"Managing Resource Sharing Conflicts in an Open Embedded Software Environment".
La soutenance se déroulera le Vendredi 11 Juillet 2014 à 10h30, Tour
25-26, 1er étage, salle 105 du Laboratoire d'Informatique de Paris 6
(LIP6) situé à:
4, Place Jussieu, 75005 Paris, France.
Accès par métro M7 ou M10, station Jussieu.
Membres de Jury:
- [Rapporteur] Didier Donsez: Professeur (HDR) de l'Université de Grenoble 1.
- [Rapporteur] Laurence Duchien: Professeur (HDR) de l'Université de Lille 1.
- [Examinateur] Béatrice Berard: Professeur (HDR) de l'Université de
Pierre et Marie Curie, Paris 6.
- [Examinateur] Jean-Philippe Fassino: Architecte en Cyber-Securité,
Schneider Electric.
- [Examinateur] Johann Bourcier: Maitre de Conférences de l'Université
de Rennes 1.
- [Directeur de thèse] Gilles Muller: Scientifique Chercheur Senior
(HDR), Inria.
- [Encadrant académique] Gaël Thomas: Professeur (HDR) de l'Université
de Pierre et Marie Curie, Paris 6.
- [Encadrant industriel] André Bottaro: Directeur de Programme de
Recherche, Orange Labs.
Résumé:
Nos maisons deviennent de plus en plus intelligentes grâce aux
nombreux appareils, capteurs,
et actionneurs disponibles, et fournissant des services, tels que le
divertissement, la sécurité,
l'efficacité énergétique et le maintien à domicile. Divers
fournisseurs de services veulent
profiter de l'opportunité de la maison intelligente en développant
rapidement des services
à héberger dans une passerelle domotique embarquée. La passerelle est
ouverte à des
applications développées par des fournisseurs de services non fiables,
contrôlant de nombreux
appareils, et pouvant contenir des bugs ou des codes malicieux. Par
conséquent, la passerelle
doit maintenir une haute disponibilité et suffisamment de robustesse
pour tolérer les
problèmes logiciels sans avoir à redémarrer brutalement. Partager les
ressources, même
restreintes, de la passerelle entre les fournisseurs de services leur
permet de fournir des
services plus riches. Cependant, des conflits de partage des
ressources se produisent quand
une application utilise les ressources «déraisonnablement» ou
abusivement. Cette thèse
aborde le problème des conflits de partage des ressources dans la
passerelle domotique,
investiguant des approches de prévention autant que possible, et
envisageant des approches
de détection et de résolution quand la prévention est hors de portée.
Notre première contribution «Jasmin» vise à prévenir les conflits de
partage des ressources
en isolant les applications. Jasmin est un intergiciel pour le
développement, le déploiement
et l'isolation des applications natives, à base de composants et
orientées services prévues
pour des systèmes embarqués. Jasmin permet une communication rapide et
facile entre
applications, et utilise les conteneurs Linux pour une isolation à
faible coût. Notre seconde
contribution «Incinerator» est un système dans la machine virtuelle
Java (JVM) qui résout
le problème des références obsolètes en Java, c.-à-d., des références
à des objets à ne plus
utiliser. Les références obsolètes peuvent causer des fuites mémoire
importantes dans une
passerelle domotique basée sur OSGi, diminuant ainsi la quantité de
mémoire disponible,
ce qui augmente les risques de conflits de partage de mémoire. Avec un
coût inférieur à
4%, Incinerator non seulement détecte les références obsolètes, les
rendant visibles aux
développeurs, mais aussi les élimine, diminuant ainsi les risques de
conflits de partage
de ressources. Même en Java, les conflits de partage de mémoire se
produisent. Afin de
les détecter, nous présentons notre troisième contribution : un
système de surveillance de
mémoire intégré à la JVM. Notre système est pratiquement transparent
aux développeurs
d'applications et conscient du modèle à composants formant les
applications domotiques.
Le système compte précisément les ressources consommées pendant les
interactions entre
applications, et fournit, à la demande, des statistiques instantanées
d'utilisation de mémoire
pour les différents fournisseurs de services partageant la passerelle.
Au plaisir de vous voir.
Amicalement.
Koutheir Attouchi.
==== ENGLISH ====
Hello,
I'm glad to invite you to my PhD defense, about the subject:
"Managing Resource Sharing Conflicts in an Open Embedded Software Environment".
The PhD defense is going to be held on Friday the 11th of July 2014 at
10h30, Tour 25-26, First floor, room 105 of the "Laboratoire
d'Informatique de Paris 6" (LIP6) at the address:
4, Place Jussieu, 75005 Paris, France.
Access via the metro M7 or M10, station Jussieu.
Jury members:
- [Reviewer] Didier Donsez: Professor (HDR) of the University of Grenoble 1.
- [Reviewer] Laurence Duchien: Professor (HDR) of the University of Lille 1.
- [Examiner] Béatrice Berard: Professor (HDR) of the University of
Pierre et Marie Curie, Paris 6.
- [Examiner] Jean-Philippe Fassino: Cyber-Security Architect,
Schneider Electric.
- [Examiner] Johann Bourcier: Lecturer of the University of Rennes 1.
- [PhD director] Gilles Muller: Senior Research Scientist (HDR), Inria.
- [Academic supervisor] Gaël Thomas: Professor (HDR) of the University
of Pierre et Marie Curie, Paris 6.
- [Industrial supervisor] André Bottaro: Research Program Director, Orange Labs.
Abstract:
Our homes are becoming smart thanks to the numerous devices, sensors
and actuators
available in it, providing services, e.g., entertainment, home
security, energy efficiency and
health care. Various service providers want to take advantage of the
smart home opportunity by
rapidly developing services to be hosted by an embedded smart home
gateway. The gateway is
open to applications developed by untrusted service providers,
controlling numerous devices,
and possibly containing bugs or malicious code. Thus, the gateway
should be highly-available
and robust enough to handle software problems without restarting
abruptly. Sharing the
constrained resources of the gateway between service providers allows
them to provide richer
services. However, resource sharing conflicts happen when an
application uses resources
"unreasonably" or abusively. This thesis addresses the problem of
resource sharing conflicts in
the smart home gateway, investigating prevention approaches when
possible, and considering
detection and resolving approaches when prevention is out of reach.
Our first contribution, called Jasmin, aims at preventing resource
sharing conflicts by
isolating applications. Jasmin is a middleware for development,
deployment and isolation of
native, component-based and service-oriented applications targeted at
embedded systems.
Jasmin enables fast and easy cross-application communication, and uses
Linux containers for
lightweight isolation. Our second contribution, called Incinerator, is
a subsystem in the Java
Virtual Machine (JVM) aiming to resolve the problem of Java stale
references, i.e., references
to objects that should no more be used. Stale references can cause
significant memory
leaks in an OSGi-based smart home gateway, hence decreasing the amount
of available
memory, which increases the risks of memory sharing conflicts. With
less than 4% overhead,
Incinerator not only detects stale references, making them visible to
developers, but also
eliminates them, hence lowering the risks of resource sharing
conflicts. Even in Java, memory
sharing conflicts happen. Thus, in order to detect them, we propose
our third contribution: a
memory monitoring subsystem integrated into the JVM. Our subsystem is
mostly transparent
to application developers and also aware of the component model
composing smart home
applications. The system accurately accounts for resources consumed
during cross-application
interactions, and provides on-demand snapshots of memory usage
statistics for the different
service providers sharing the gateway.
I will be pleased to meet you then.
Kind Regards.
Koutheir Attouchi.
lundi 23 juin 2014
[Invitation] Soutenance de thèse de Rima Hatoum
J'ai le plaisir de vous inviter à ma soutenance de thèse intitulée:
"Algorithmes d'Ordonnancement Inter-Couches avec Adaptation de
Modulation et de Codage dans les Réseaux Hétérogènes LTE" et au pot
qui suivra.
La soutenance se déroulera le jeudi 26 juin à 15h, Tour 25-26, 1er
étage, salle 105 du Laboratoire d'Informatique de Paris 6 (LIP6) situé
au:
4, Place Jussieu
75005 Paris (station Jussieu métro 7 et 10)
Membres de Jury:
- ACHIR Nadjib: Maître de conférence-HDR, Université Paris Nord (rapporteur)
- AL-AGHA Khaldoun: Professeur, Université Paris Sud (examinateur)
- ELAYOUBI Salah Eddine: Ingénieur de recherche-HDR, Orange Labs (rapporteur)
- FLADENMULLER Anne: Maître de conférence-HDR, Université Pierre et
Marie Curie (examinatrice)
- GHAITH Alaa: Maître de Conférence, Université Libanaise
(encadrant de thèse)
- NGUYEN Thi-Mai-Trang: Maître de Conférence-HDR, Université Pierre
et Marie Curie (examinatrice)
- PUJOLLE Guy: Professeur, Université Pierre et Marie Curie
(directeur de thèse)
Abstract:
Responding to the huge demand for high data rates and satisfying
Quality of Service (QoS) requirements are the main objectives of the
wireless mobile operators. LTE-based small cell system is a promising
technology offering the required services, enhanced indoor coverage
and increased system capacity. However, many challenges face the
constructors and the operators for an effective deployment of these
systems. In this thesis, in order to evolve such systems and adduce
significant enhancement in terms of QoS and throughput, we adopt a
complementary strategy based on both data link layer and physical layer.
First, we propose, on the link layer level, two scheduling and joint
resource allocation algorithm based on the Adaptive Modulation and
Coding (AMC) and the power control mechanism for OFDMA-Downlink and
SC-FDMA-Uplink connections respectively. Namely, they refer to:
"Downlink AMC-QRAP" and "Uplink AMC-QRAP". The joint adaptation of the
transmission power and the Modulation and Coding Scheme reliably
interacts with the link quality on each allocated sub-channel. Two
distinct user categories are considered to differentiate between
different QoS levels required. Accordingly, a linear optimization
model is performed for the problem resolution. A clustering approach
proposed in the literature has been used as a tradeoff between
centralized and distributed schemes. Particularly, we used the
spectrum sensing technique as proposed on the physical layer to detect
surrounding transmissions.
After that, we tackle the physical layer "signal processing"
techniques as an LTE enhancement approach. Thus, two contributions
based on the "wavelet transform" (WT) are proposed.
The "wavelet-based OFDM" technique is firstly proposed as an
alternative transmission mode for both downlink and uplink of the LTE
and beyond wireless systems. In fact, the
OFDM suffers from several limitations in terms of PAPR, spectral
efficiency, synchronization cost and the inter-carrier interference.
We proved that with substituting the Fourier transform by the wavelet
transform in the OFDM technique, the different OFDM limitations can be
significantly overcame. Second, we proposed an enhanced spectrum
sensing approach based on WT tool that accurately delimits the
occupied resource blocks in the whole spectrum. These physical layer
enhancements help improving the scheduling algorithm for the uplink
proposed in our second contribution.
Extensive network simulations with different network densities have
been conducted, using several metrics such as spectral efficiency,
throughput satisfaction rate, user outage and transmission power. We
have compared our methods to several existing works in the literature
and proved the outperformance for the different considered metrics.