Publication en ligne des thèses de Télécom SudParis

Retrouvez sur theses.fr l'ensemble des thèses soutenues par les docteurs de Télécom SudParis, membre de la Comue Université Paris-Saclay.

Publication en ligne des thèses de Télécom SudParis

Soutenances de thèses

Sebastian Roberto TARANDO

"Suivi quantitatif de pathologies pulmonaires à base de modèles d'apprentissage profond"

le 16 mai 2018 à 14h00 - Salle 211 - tour 55 - couloir 55/65 - 2ème étage
Université Paris 6, 4 place Jussieu, 75252 PARIS

Directeur de thèse : M. FETITA Catalin

Résumé : 

Les pathologies infiltrantes diffuses recensent un large groupe de désordres pulmonaires et nécessitent un suivi régulier en imagerie tomodensitométrique (TDM). Une évaluation quantitative est nécessaire pour établir la progression (régionale) de la maladie et/ou l’impact thérapeutique. Cela implique le développement d’outils automatiques de diagnostic assisté par ordinateur (DAO) pour la segmentation du tissu pathologique dans les images TDM, problème adressé comme classification de texture.
Traditionnellement, une telle classification repose sur une analyse des caractéristiques texturales 2D dans les images TDM axiales selon des critères définis par l’utilisateur. Récemment, des techniques d’intelligence artificielle fondées sur l’apprentissage profond, notamment les réseaux neuronaux convolutionnels (CNN), ont démontré des performances meilleures pour résoudre des tâches visuelles. Toutefois, pour les architectures CNN « classiques » il a été prouvé que les performances étaient moins bonnes en classification de texture par rapport à la reconnaissance d’objets, en raison de la dimensionnalité intrinsèque élevée des données texturales.
Dans ce contexte, ce travail propose un système automatique pour l’analyse quantitative des pathologies infiltrantes diffuses du poumon fondé sur une architecture CNN en cascade (conçue spécialement pour l’analyse de texture) et sur un prétraitement spécifique des données d’entrée par filtrage localement connexe (permettant d’atténuer l’intensité des vaisseaux pulmonaires et d’augmenter ainsi le contraste des régions pathologiques). La classification, s’appliquant à l’ensemble du volume pulmonaire, atteint une précision moyenne de 84% (75.8% pour le tissu normal, 90% pour l’emphysème et la fibrose, 81.5% pour le verre dépoli).

Souha BOUBAKER

« Vérification formelle de la configuration des processus métiers dans le Cloud »

le 14 mai 2018 à 14h00 - Salle A003
Télécom SudParis 9 Rue Charles Fourier, 91000 Évry

Directeur de thèse : Pr. Walid GAALOUL

Résumé :

Motivés par le besoin de la « Conception par Réutilisation », les modèles de processus configurables ont été proposés pour représenter de manière générique des modèles de processus similaires. Ils doivent être configurés en fonction des besoins d’une organisation en sélectionnant des options.

Comme les modèles de processus configurables peuvent être larges et complexes, leur configuration sans assistance est sans doute une tâche difficile, longue et source d'erreurs. De plus, les organisations adoptent de plus en plus des environnements Cloud pour déployer et exécuter leurs processus afin de bénéficier de ressources dynamiques à la demande.

Néanmoins, en l'absence d'une description explicite et formelle de la perspective de ressources dans les processus métier existants, la correction de la gestion des ressources du Cloud ne peut pas être vérifiée. Dans cette thèse, nous visons à

(i) fournir de l’assistance et de l’aide à la configuration aux analystes avec des options correctes, et

(ii) améliorer le support de la spécification et de la vérification des ressources Cloud dans les processus métier.

Pour ce faire, nous proposons une approche formelle pour aider à la configuration étape par étape en considérant des contraintes structurelles et métier.

Nous proposons ensuite une approche comportementale pour la vérification de la configuration tout en réduisant le problème bien connu de l'explosion d'espace d'état. Ce travail permet d'extraire les options de configuration sans blocage d’un seul coup.

Enfin, nous proposons une spécification formelle pour le comportement d'allocation des ressources Cloud dans les modèles de processus métier. Cette spécification est utilisée pour valider et vérifier la cohérence de l'allocation des ressources Cloud en fonction des besoins des utilisateurs et des capacités des ressources.


Alexis CARBO MESEGUER

« Amplificateurs optiques à semi-conducteurs pour les systèmes optiques à très large bande »

le 3 mai 2018 à 14 heures - Amphithéâtre Descartes
à NOKIA Paris-Saclay - Route de Villejust - 91 NOZAY

Directeur de thèse : Pr. Badr-Eddine BENKELFAT

Résumé :

Au cours des dernières décennies, le monde a subi une révolution majeure qui a profondément affecté comment on utilise les réseaux de communication. De nouveaux services et applications ont été apparus, tels que les réseaux sociaux, les jeux en ligne ou le streaming en direct, qui exigent une augmentation constante de la capacité des systèmes optiques. La motivation de ce travail est donc d'étudier la mise en œuvre d'un nouvel amplificateur SOA à très large bande avec une bande passante de plus de 100 nm afin d’étendre la capacité du système.

L'utilisation de l'amplification SOA change complètement le paradigme dans la conception d'un système optique puisque toutes les dégradations ajoutées par la SOA doivent être considérées. Ainsi, la recherche d'un modèle analytique ou numérique capable de caractériser la nature non linéaire de ce dispositif est d'abord étudiée. Ensuite, on montre comment un SOA bien conçu peut non seulement amplifier un signal à large bande, mais également surmonter certains des principaux inconvénients du SOA devant EDFA.

Finalement, on évalue la capacité de ce nouveau UWB SOA pour les applications d'interconnexion de centres de données avec deux expériences en transmettant jusqu'à 115 Tbps de données dans une liaison à bande passante continue de 100 nm sur 100 km de fibre et en testant la stabilité du système avec cartes de ligne en temps réelle entre deux points de présence (POP) de Facebook déployés dans la région parisienne.


Hatem IBN KHEDHER

« Solutions de diffusion vidéo en mode adaptatif et dynamique »

le 30 avril 2018 à 14h - Salle F306
SUPELEC - Bâtiment Breguet - 3 rue Joliot-Curie - 91192 Gif-Sur-Yvette

Directeur de thèse : Pr. Hossam AFIFI

Résumé :

Le Réseau de Distribution de Contenu (RDC) est un large réseau distribué qui est déployé dans le monde entier et est conçu pour pousser le contenu à la
périphérie des réseaux. Il déplace le contenu pour atténuer l’augmentation du trafic vidéo et améliorer la satisfaction des utilisateurs. Il trouve des points intermédiaires entre le serveur d’origine et les clients finaux. Les fonctions de virtualisation de réseau, avec les nouveaux concepts émergents tels que les solutions NFV (pour Network Function Virtualization) et SDN (pour Software-Defined Network),
peuvent répondre aux demandes des utilisateurs et, par conséquent, augmenter l’efficacité du réseau. Ainsi, nous examinons les avantages potentiels de la virtualisation apportés aux RDC.
Par conséquent, dans cette thèse, on présente nos travaux sur la virtualisation dans le contexte de la réplication des serveurs de contenu vidéo. Les travaux couvrent la conception d’une architecture de virtualisation pour laquelle on présente aussi plusieurs algorithmes qui peuvent réduire les coûts globaux à long terme et améliorer la performance du système. Le travail est divisé en six parties :
1) Les solutions optimales : Dans cette situation, on présente une solution d’optimisation exacte basée sur la méthode d’optimisation linéaire qui prend en compte de nouveaux critères basés sur la qualité de service désirée par les clients
de la vidéo, la capacité des liens du réseau de l’opérateur et aussi des paramètres système liés à la virtualisation NFV/SDN comme la taille des disques, des conteneurs NFV, de la mémoire RAM disponible, des capacités CPU, etc. Un coût de migration est introduit. Il correspond au coût de déploiement d’une nouvelle instance sur un site distant. Une fois l’optimisation est terminée, on propose une liste de sites de centre des données vers lesquels des serveurs de contenu virtuels pourraient être migrés et par conséquent optimiser les paramètres précédemment introduits.
2) Les solutions heuristiques : Pour des raisons de passage à l’échelle, on propose une nouvelle méthode heuristique basée sur la théorie des graphes et plus précisément sur Gomory-Hu. L’idée derrière cette solution est de réduire le nombre de liens à vérifier avant de passer à la phase d’optimisation. Ainsi, nous arrivons à des temps de résolution presque linéaires. Des simulations sur les réseaux à très haute densité sont effectuées. On évalue les résultats et propose des migrations de serveurs potentiels comme précédemment.
3) Orchestration de services : Etant donné que le réseau de diffusion de contenu comporte plusieurs composants virtuels, les solutions proposées (optimales et heuristiques) sont adaptées à ce nouveau contexte où l’objectif d’optimisation est d’orchestrer et d’enchaîner un ensemble de composants de livraison. Des simulations sur des différents scénarios de déploiement sont effectuées. Nous évaluons les résultats et proposons l’orchestration de serveurs candidats et le chaînage entre les instances.
4) Optimisation multi critères : L’objectif principal des techniques précédentes est unique (réduire le coût global de la migration). Nous avons donc essayé dans cette thèse de proposer un algorithme d’optimisation multi-objectif prenant en compte les différents critères des acteurs (fournisseur de contenu, opérateur réseau, client) impliqués dans le chaînage de livraison. L’idée derrière cette technique est de sélectionner une couche d’optimisation (c’est-à-dire, cœur du réseau, agrégation et accès) où un algorithme de placement, de migration, ou d’orchestration est exécuté.
5) Réseaux actifs et complexes : Pour un tel réseau actif et complexe (tel que le réseau centré sur l’information (ICN) ou Hadoop), les algorithmes d’optimisation traditionnels ne sont plus valables et doivent être ajustés dans ce nouveau contexte. Par conséquent, nous avons adapté les contraintes d’optimisation à ces types de réseaux et nous avons appliqué un modèle basé sur le \u001Cbudget. L’idée
est de définir un budget spécifique pour chaque nœud de réseau qui représente le travail que chaque nœud peut faire. Ensuite, le réseau actif est modélisé et les algorithmes d’optimisation précédents sont adaptés et évalués sur des graphes complexes.
6) Intégration des algorithmes : Suivant l’architecture issue de l’ETSI qui concerne la virtualisation des fonctions de réseau, on propose l’intégration des algorithmes précédemment conçus et évalués dans une architecture réelle. On propose un diagramme de flot et met en œuvre un prototype basé sur les logiciels opensources tels que OpenStack, OpenDaylight et Open Virtual Switch. Cette partie a été démontrée à travers une implémentation réelle et elle a donné de très bons résultats.
Cette thèse est soutenue par des modèles mathématiques, des implémentations et des simulations qui fournissent des résultats qui mettent en valeur notre travail, quantifient l’importance de l’évaluation des techniques d’optimisation et analysent le compromis entre la réduction du coûts de l’opérateur (la migration) et l’amélioration de l’indice de satisfaction de l’utilisateur final.


Mohamed Saïd MOSLI BOUKSIAA

« Les variations de performance considérées utiles »

Le jeudi 26 avril 2018 à 14h à Télécom SudParis (salle C06)

Directeur de thèse : Gael Thomas

Résumé :

Comprendre les performances d'une application multi-thread est difficile. Les threads interfèrent quand ils accèdent à la même ressource, ce qui ralentit leur exécution. Malheureusement, les outils de profiling existants se focalisent sur l'identification des causes de l'interférence, et non pas sur ses effets. Le développeur ne peut donc pas conclure si l'optimisation d'une interférence identifiée par un outil de profiling peut mener à une meilleure performance. Dans cette thèse, on propose de compléter les outils existants par un outil orienté-effet capable de quantifier l'impact de l'interférence sur la performance, indépendamment de la cause de l'interférence. Avec une évaluation de 27 applications, on montre que notre outil réussit à identifier 12 bottlenecks causés par 6 types d'interférence différents.
 

Maxime ROBIN

« Analyse de l'environnement sonore pour le maintien à domicile et la reconnaissance d'activités de la vie courante, des personnes âgées »

Le mardi 17 avril 2018 à 14h à Télécom ParisTech

Co-Directeurs de thèse : M. Jérôme Boudy et M. Dan Istrate

Résumé :

L’âge moyen de la population française et européenne augmente, cette constatation apporte de nouveaux enjeux techniques et sociétaux. Les personnes âgées étant les personnes les plus fragiles et les plus vulnérables, notamment du point de vue des accidents domestiques et en particulier des chutes. C’est pourquoi de nombreux projets d’aide au personnes âgées techniques, universitaires et commerciaux
ont vu le jour ces dernières années.
Ce travail de thèse a été effectuée sous convention Cifre, conjointement entre l’entreprise KRG Corporate et le laboratoire BMBI (Biomécanique et Bioingénierie) de l’UTC (Université de technologie de Compiègne). Et a pour objet de proposer un capteur de reconnaissance de sons et des activités de la vie courante, dans le but d’étoffer et d’améliorer le système de télé-assistance déjà commercialisé par la société. Plusieurs méthodes de reconnaissance de parole ou de reconnaissance du locuteur on déjà été éprouvées dans le domaine de la reconnaissance de sons, entre autres les techniques : GMM (Modèle de mélange gaussien – Gaussian Mixture Model), SVM-GSL (Machine à vecteurs de support, GMM-super-vecteur à noyau linéaire – Support vector machine GMM Supervector Linear kernel) et HMM (Modèle de markov caché – Hidden Markov Model). De la même manière, nous nous sommes proposés d’utiliser les i-vecteurs pour la reconnaissance de sons. Les i-vecteurs sont utilisés notamment en reconnaissance de locuteur, et
ont révolutionné ce domaine récemment. Puis nous avons élargi notre spectre, et utilisé l’apprentissage profond (Deep Learning) qui donne actuellement de très bon résultats en classification tous domaines confondus. Nous les avons tout d’abord utilisé en renfort des i-vecteurs, puis nous les avons utilisé comme système de classification exclusif.
Les méthodes précédemment évoquées ont également été testées en conditions bruités puis réelles. Ces différentes expérimentations nous ont permis d’obtenir des taux de reconnaissance très satisfaisants, les réseaux de neurones en renfort des i-vecteurs et les réseaux de neurones seuls étant les systèmes ayant la meilleure précision, avec une amélioration très significative par rapport aux différents systèmes issus de la reconnaissance de parole et de locuteur.
 

Ivan FERNANDEZ DE JAUREGUI RUIZ

« Formats de modulation avancés et compensation de non linéarités pour les systèmes de transmission par fibre optique à haute efficacité spectrale »

le 12 avril 2018 à 14 heures 30 - Amphithéâtre Descartes
NOKIA Paris-Saclay - 7 Route de Villejust - 91620 NOZAY

Directeur de thèse : Badr-Eddine BENKELFAT

Résumé :

La majeure partie des communications mondiales est transportée par des systèmes transocéaniques à fibre optique. Il est estimé que d'ici 2020 le trafic de données atteindra 4.3 ZB par an. Afin de faire face à cette demande, différentes technologies sont actuellement étudiées pour augmenter la capacité des systèmes de transmission très longue distance. Avec l'avènement des circuits intégrés à haute vitesse, des formats de modulation avancés et des techniques de traitement de signal numérique (DSP) peuvent être utilisés pour maximiser l'efficacité spectrale de transmission. Par ailleurs, la capacité des systèmes modernes est fortement limitée par les effets non-linéaires de type Kerr dans la fibre. Ainsi, la première partie de ce travail est axée sur l’étude de la performance et des gains réalisables par des techniques DSP à faible complexité pour mitiger les effets non-linéaires monocanal. En outre, l’utilisation des formats de modulation multiniveaux à haute efficacité spectrale au-delà de 16QAM a pris de l'ampleur pour augmenter le débit de transmission des systèmes, notamment avec l’introduction des formats QAM avec mise en forme probabiliste (PCS-QAM), plus performants que les formats QAM classiques. La deuxième partie de ce travail présente donc une comparaison théorique ainsi qu’expérimentale du format PCS-64QAM avec d’autres formats à haute efficacité spectrale pour les distances transatlantiques. La mise en œuvre d’un format PCS-64QAM conçu pour les distances transpacifiques est également abordée. Enfin, la dernière partie de ce travail concrétise les résultats des travaux menés dans les deux sections précédentes en présentant plusieurs records de transmission.


Mickaël SALAÜN

« Intégration de l'utilisateur au contrôle d'accès : du processus cloisonné à l'interface homme-machine de confiance »

le 2 mars 2018 à 10:00
Amphi Saphir - Télécom ParisTech - 43 rue Barrault - 75013 Paris

Directeur de thèse : Hervé DEBAR

Résumé :

Cette thèse souhaite fournir des outils pour qu'un utilisateur puisse contribuer activement à la sécurité de son usage d'un système informatique. Les activités de sensibilités différentes d'un utilisateur nécessitent tout d'abord d'être cloisonnées dans des domaines dédiés, par un contrôle d'accès s'ajustant aux besoins de l'utilisateur. Afin de conserver ce cloisonnement, celui-ci doit être en mesure d'identifier de manière fiable les domaines avec lesquels il interagit, à partir de l'interface de sa machine.

Dans une première partie, nous proposons un nouveau mécanisme de cloisonnement qui peut s'adapter de manière transparente aux changements d'activité de l'utilisateur, sans altérer le fonctionnement des contrôles d'accès existants, ni dégrader la sécurité du système. Nous en décrivons une première implémentation, nommée StemJail, basée sur les espaces de noms de Linux. Nous améliorons ce cloisonnement en proposant un nouveau module de sécurité Linux, baptisé Landlock, utilisable sans nécessiter de privilèges. Dans un second temps, nous identifions et modélisons les propriétés de sécurité d'une interface homme-machine (IHM) nécessaires à la compréhension fiable et sûre du système par l'utilisateur. En particulier, il s'agit d'établir un lien entre les entités avec lesquelles l'utilisateur pense communiquer, et celles avec lesquelles il communique vraiment. Cette modélisation permet d'évaluer l'impact de la compromission de certains composants d'IHM et d'aider à l'évaluation d'une architecture donnée.


 

Wilfried YORO

« Modélisation de la corrélation entre la consommation énergétique et le trafic bout-en-bout des services dans les grands réseaux de télécommunication » 

le 8 mars 2018 à 14 heures - Salle 26-00/101- NOGUEZ (20)
Université Paris 6, 4 Place Jussieu, 75005 Paris

Directeur de thèse : Tijani CHAHED

Résumé :

D’après Cisco, le trafic mobile de données augmentera d’un facteur 7 entre 2016 et 2021. Pour faire face à l'augmentation du trafic, les opérateurs mobile dimensionnent le réseau, ce qui s’accompagne d’une augmentation de sa consommation d’énergie et de son empreinte Carbonne. En outre, les marges financières des opérateurs baissent. Ainsi,  le revenu global généré par le secteur des télécommunications a connu une baisse de 4% entre 2014 et 2015 d’après l’union internationale des télécommunications (UIT). Ces préoccupations ont suscité l'intérêt de la communauté scientifique pour la réduction de la consommation électrique  des réseaux. Des études dans la littérature estiment l'énergie consommée par les services sur les équipements réseaux en se focalisant sur la consommation variable. La consommation énergétique d'un équipement réseau est composée d'une composante fixe et d'une composante variable. Dans cette thèse, nous partageons la responsabilité des catégories de service dans la consommation fixe du réseau en utilisant la valeur de Shapley.

Dans un premier temps, nous considérons un réseau d’accès mobile et partageons la responsabilité des catégories de service qu'il fournit dans la consommation fixe. Nous définissons 5 catégories de service, à savoir, le « Streaming », le Web, le téléchargement, la voix et les autres services de données. En outre, nous traitons le cas de figure où certaines catégories de service sont obligatoires. Etant donné la complexité algorithmique de la valeur de Shapley, nous en proposons une forme approchée qui permet d'en réduire considérablement le temps de calcul.

Ensuite, nous considérons le réseau de bout-en-bout, c’est-à-dire, l’accès mobile, l’accès fixe, la collecte, le cœur IP, le cœur mobile, les registres et les plateformes de service. Pour chaque segment, nous partageons la responsabilité des catégories de service dans la consommation fixe en appliquant notre modèle de partage basé sur la valeur de Shapley. L’analyse des résultats montre que le service « Streaming » consomme le plus d’énergie quel que soit le segment de réseau considéré, à l'exception des registres.

Pour finir, nous traitons de la modélisation de l’efficacité énergétique des catégories de service. Dans un premier temps, nous calculons l’efficacité énergétique des catégories de service étant donné une station de base avec et sans « sleep mode ».  Ensuite, nous calculons l’efficacité énergétique des catégories de service étant donné un réseau d’accès mobile et considérant les cas avec et sans catégories de service obligatoires. Aussi étudions-nous les conditions pour ne pas détériorer l’efficacité énergétique du réseau au cours du temps en fonction des scénarios de dimensionnement.