Télécom SudParis, grande école d'ingénieurs

Accueil > Recherche > Doctorat > Soutenances HDR

Recherche

Soutenances HDR

« Transmissions sur fibre optique »

Qui ?

L'Habilitation à Diriger des Recherches sera soutenue par Yann Frignac, Maître de conférences dans le département EPH

Quand ?

Lundi 12 septembre 2016 à 14h30

Où ?

A Télécom SudParis, 9 Rue Charles Fourier, 91000 Evry, Amphi 10.

JuryPhoto Yann Frignac

  • Yves Quiquempois, Professeur, Université de Lille 1 (rapporteur)
  • Hervé Maillotte, Professeur, Université de Franche-Comté, Besançon (rapporteur)
  • Christophe Peucheret, Professeur, ENSSAT, Lannion (rapporteur)
  • Jean-Pierre Hamaide, Docteur, Nokia Bell Labs, France (examinateur)
  • Pierre Sillard, Docteur, Prysmian Group, France (examinateur)
  • Aziz Benlarbi-Delai, Professeur, Université Pierre et Marie Curie, Paris (examinateur)
  • Badr-Eddine Benkelfat, Professeur, Télécom SudParis, Evry (examinateur)

Résumé

"Après une description générale de mon parcours et de mes activités d'enseignement et de recherche, j'exposerai des exemples de nos contributions dans le domaine des transmissions sur fibres optiques ainsi que les voies d'évolution de ces recherches à l'avenir. Le cœur de la présentation décrira une vue générale des avancées dans le domaine des transmissions sur fibre optique, des premiers systèmes utilisant la modulation d'intensité de la lumière aux systèmes analysés aujourd'hui incluant des modulations et multiplexages faisant intervenir tous les paramètres de la lumière guidée dans les fibres optiques. Une vision simplifiée des défis de propagation des informations sur des distances de plusieurs centaines de kilomètres y sera également exposée. Dans ce contexte de recherche internationale des dix dernières années je donnerai ensuite des exemples de contributions que nous avons apportées aux diverses étapes d'évolution des systèmes de communication optique : amélioration des systèmes multiplexés en longueur d'onde, des systèmes cohérents, multiplexés en polarisation et/ou en modes de propagation. L'enjeu de l'évolution du débit d'information porté par ces systèmes est de taille puisque reposent sur eux la quasi-totalité des communications planétaires et le support des technologies de communication à venir."
« Contributions aux systèmes répartis en environnements ubiquitaires : adaptation, sensibilité au contexte et tolérance aux fautes »

Qui ?

L'Habilitation à Diriger des Recherches a été soutenue par Denis Conan, Maître de conférences dans le département INF

Quand ?

Jeudi 9 juillet 2015 à 13h30

Où ?

A Télécom SudParis, 9 Rue Charles Fourier, 91000 Evry, Amphi 11.

JuryDenis Conan

  • Didier Donsez, Professeur, Université Joseph Fourier Grenoble 1 (rapporteur)
  • Pascal Felber, Professeur, Université de Neuchâtel (rapporteur)
  • Rachid Guerraoui, Professeur, École Polytechnique Fédérale de Lausanne (rapporteur)
  • Marc-Olivier Killijian, Directeur de Recherche CNRS, LAAS, Toulouse (examinateur)
  • Michel Riveill, Professeur, Université de Nice-Sophia Antipolis (examinateur)
  • Pierre Sens, Professeur, UPMC Sorbonne Université (examinateur)
  • Guy Bernard, Professeur Émérite, Télécom SudParis (examinateur)

Résumé

"D'années en années, nous observons l'arrivée sur le marché d'ordinateurs personnels de plus en plus petits pour des utilisateurs de plus en plus nombreux, ainsi des assistants personnels numériques et des objets dits connectés, en passant par les téléphones mobiles. Tous ces dispositifs tendent à être interchangeables du point de vue des ressources en mémoire, en calcul et en connectivité : par exemple, les téléphones mobiles sont devenus des équipements informatiques de moins en moins spécialisés ou de plus en plus
universels et font dorénavant office en la matière de portails d'accès aux capteurs présents dans l'environnement immédiat de l'utilisateur.

L'enjeu abordé dans nos travaux est la construction de systèmes répartis incluant ces nouveaux dispositifs matériels. L'objectif de ces recherches est la conception des paradigmes d'intermédiation génériques sous-jacents aux applications réparties de plus en plus ubiquitaires. Plus particulièrement, la problématique générale des travaux est la définition du rôle des intergiciels dans l'intégration des dispositifs mobiles et des objets connectés dans les architectures logicielles réparties. Ces architectures logicielles reposaient très majoritairement sur des infrastructures logicielles fixes au début des travaux présentés ici.

Dans cette présentation, je décris mes travaux sur trois sujets :

  1. l'adaptation des applications réparties pour la continuité de service pendant les déconnexions,
  2. la gestion des informations du contexte d'exécution des applications réparties pour leur sensibilité au contexte,
  3. les mécanismes de détection des entraves dans les environnements fortement dynamiques tels que ceux construits avec des réseaux mobiles spontanés.

Sur le premier sujet, nous fournissons une couche intergicielle générique pour la gestion des aspects répartis de la gestion des déconnexions en utilisant une stratégie d'adaptation collaborative dans les architectures à base d'objets et de composants. Sur le deuxième sujet, nous étudions les paradigmes architecturaux pour la construction d'un service de gestion de contexte générique, afin d'adresser la diversité des traitements (fusion et agrégation, corrélation, détection de situation par apprentissage, etc.), puis nous adressons le problème de la distribution des informations de contexte aux différentes échelles de l'Internet des objets. Enfin, sur le troisième sujet, nous commençons par la détection des modes de fonctionnement pour l'adaptation aux déconnexions afin de faire la différence, lorsque cela est possible, entre une déconnexion et une défaillance, et ensuite nous spécifions et construisons un service de gestion de groupe partitionnable. Ce service est assez fort pour interdire la construction de partitions ne correspondant pas à la réalitéde l'environnement à un instant donné et est assez faible pour être mis en œuvre algorithmiquement."


« Dimensions de la gestion des données en univers réparti et mobile : de la cohérence des données à la qualité de contexte»

Qui ?

L'Habilitation à Diriger des Recherches a été soutenue par Sophie Chabridon, Maître de conférences dans le département INF

Quand ?

Mardi 25 novembre 2014 à 9h30

Où ?

A Télécom SudParis, 9 Rue Charles Fourier, 91000 Evry, salle A003.

JurySophie Chabridon

  • Yolande Berbers, Professeur à l'université catholique de Louvain (rapporteur)
  • Thierry Delot, Professeur à l'Université de Valenciennes (rapporteur)
  • Michel Riveill, Professeur à l'École Polytechnique de l'Université de Nice (rapporteur)
  • Guy Bernard, Professeur Émérite à Télécom SudParis (examinateur)
  • Éric Gressier-Soudan, Professeur, CNAM, Paris (examinateur)
  • Philippe Pucheral, Professeur, Université de Versailles Saint-Quentin en Yvelines (examinateur)

Résumé

"L'évolution de l'informatique répartie et mobile implique une complexité nouvelle dans les nombreux concepts devant être manipulés pour le développement d'applications. Cela est renforcé par le besoin de rendre le système invisible pour en faciliter l'acceptation par les utilisateurs. La notion d'intergiciel (ou middleware) prend ici tout son sens en séparant les préoccupations et en permettant aux développeurs d'applications ubiquitaires de se concentrer uniquement sur les aspects fonctionnels liés aux applications elles-mêmes et non au système sur lequel elles s'exécutent. Un système ubiquitaire peut ainsi se décomposer en quatre parties : les dispositifs (terminaux mobiles, capteurs, etc.), les réseaux, les intergiciels et les applications. Les innovations très rapides concernant la mobilité et les capacités des dispositifs et des réseaux doivent s'accompagner d'une évolution également en termes de logiciels, tant au niveau intergiciel qu'au niveau application. Le rôle d'un intergiciel pour les systèmes ubiquitaires vise à simplifier la programmation des applications en offrant des abstractions permettant de masquer l'hétérogénéité des réseaux disponibles et les variations de connectivité, et en fournissant les éléments logiciels permettant la gestion du contexte et l'adaptation des applications aux changements de ce contexte.

Mes travaux couvrent l'informatique mobile et la gestion des déconnexions liées aux fluctuations de connectivité, l'intelligence ambiante et la capacité de sensibilité au contexte des applications et enfin les nouveaux défis apportés par l'Internet des objets du point de vue de la gestion de contexte.

Mes contributions concernent la conception de services intergiciels dédiés à plusieurs dimensions de la gestion des données dans les applications ubiquitaires à savoir : le maintien de la cohérence des données, la gestion de la qualité de contexte et le respect de la vie privée des utilisateurs."


«Supporting Service Consumption: Advanced Discovery and Recommendation techniques»

Qui ?

L'Habilitation à Diriger des Recherches a été soutenue par Walid Gaaloul, Maître de conférences dans le département INF

Quand ?

Vendredi 19 Septembre 2014 à 10h00

Où ?

A l'Université Paris VI - Pierre et Marie Curie, Campus Jussieu, 4 place Jussieu Paris 5ème, Tour 55, 2è étage, couloir 55/65, salle 211.

JuryWalid Gaaloul

  • Prof. Fabio Casati, University of Torento, Italy (rapporteur)
  • Prof. Marlon Dumas, University of Tartu, Estonia (rapporteur)
  • Prof. Lionel Seinturier, Université de Lille 1, France (rapporteur)
  • Prof. Bernd Amann, Université Pierre et Marie Curie, France (examinateur)
  • Prof. Boualem Benatallah, University of New South Wales, Australia (examinateur)
  • Prof. Claude Godart, Université de Lorraine, France (examinateur)
  • Prof. Mohand-Said Hacid, Université Claude Bernard, France (examinateur)

Résumé

"The tremendous growth in the amount of available (Web) services impulses many researchers on proposing discovery, recommendation and management tools and techniques to help users retrieve services efficiently. Services can be consumed in different contexts: published in distributed registries; invoked as individual services which provide interfaces to receive inputs and return outputs; or composed and integrated into service-based processes as new value added composite services. In our work, we aim at facilitating service discovery and management in these three consumption contexts. First, we propose a functionality-driven approach by clustering and organizing registries according to the functionalities of the service they advertise. Second, to recommend services for individual use, we propose a usage-driven approach that takes into account the user usage data which reflect the user interest. Third, to recommend services for process use, we propose a composition-driven recommendation approach that takes into account the relations between services in service-based processes. We develop applications, as a proof of concept, to validate our techniques. We also perform experiments on the data collected by our applications and on large public datasets. Experimental results show that our techniques are feasible, accurate and have good performance in real use-cases."


«Machine Learning for Visual Sequence Recognition»

Qui ?

L'Habilitation à Diriger des Recherches a été soutenue par Mounim A. El Yacoubi, Directeur d'études dans le département EPH

Quand ?

Vendredi 11 Avril 2014 à 14h30

Où ?

A Nano-INNOV, Avenue de la Vauve, 91120 Palaiseau, Bat.862 RDC, Amphithéâtre P.33.

Jury

  • Photo Mounim El YacoubiMr. Lambert Schomaker, Professeur, Université de Groningen, Pays Bas (rapporteur)
  • Mr. Christian Viard-Gaudin, Professeur, Université de Nantes (rapporteur)
  • Mme Nicole Vincent, Professeur, Université Paris Descartes (rapporteur)
  • Mr. Jean-Claude Martin, Professeur, LIMSI-CNRS/CPU, Univ. Paris Sud (examinateur)
  • Mme Anne Vilnat, Professeur, LIMSI-CNRS/ILES, Univ. Paris Sud (examinateur)
  • Mme Bernadette Dorizzi, Professeur, Télécom SudParis (examinateur)
  • Mr. Michel Gilloux, Directeur pôle LAD/OCR, Seres, Docapost (examinateur)
  • Mr. Ching Y. Suen, Professeur, CENPARMI, Concordia University, Canada (Invité)

Résumé

"In this memoir, I discuss the application of machine learning techniques for visual sequence modeling and recognition. The models considered include generative ones like Hidden Markov Models (HMMs), discriminative ones like Support Vector Machines (SVMs) and Conditional Random Fields (CRFs) and exemplar methods like Sparse representation. Two types of tasks will be discussed: handwriting recognition on one hand and human motion recognition and person identification from video sequences on another. Addressing these tasks will set the stage for discussing the field of visual sequence recognition from different view angles following an incremental level of complexity. We will show how key pattern recognition phases like preprocessing and feature extraction get more complex for the second problem, thus motivating the investigation of new techniques to tackle the issues encountered.

In the problem of handwriting recognition for mail sorting or bank check processing, variability mainly stems from writer style variability and distortions. Given sufficient training data, considering HMMs with a flexible structure turns out to be robust for modeling these distortions and leads to state of the art performance and implementation for large scale commercial applications. Regarding the problem of classifying human activities from video sequences, structural variability is so high that modeling through generative models is doomed to failure. This led us to consider HCRFs that are conditional models able to estimate class probabilities without being compelled to generate the input observation sequences. Given HCRF slow training and its proneness to overfitting, we considered a new two-layer SVM-HCRF model that outperformed the HCRF in terms of both speed and accuracy. Finally, for people re-identification in video surveillance, conventional probabilistic machine learning techniques are unfeasible as no training data are available. We devised, instead, a new approach consisting of interest point local matching based on sparse representation, which proved to be more robust than classical matching methods.

One of the main conclusions, overall, is that model choice should be guided by the task at hand and the nature of the data involved in order to ensure classification robustness. My research perspectives will continue to be centered on machine learning for classifying real data sequences. The targeted applications will be mainly driven by current and future society needs and the challenges raised by the tasks to be solved, and will involve handwriting, human motion and mobility analysis for e-Health, communication and security."


«Analyse de circuits photoniques pour applications émergentes : réseaux télécoms agiles et imagerie indirecte de l'état de surface des capteurs bio-photoniques»

Qui ?

L'Habilitation à Diriger des Recherches a été soutenue par Yaneck Gottesman, Enseignant-Chercheur dans le département EPH

Quand ?

Lundi 7 Avril 2014 à 14h00

Où ?

A Télécom SudParis, 9 Rue Charles Fourier, 91000 Evry, Amphi 11.

Jury

  • Photo Yaneck GottesmanMr. Claude AMRA, Directeur de Recherche, Institut Fresnel, Marseille (rapporteur)
  • Mr. Philippe GALLION, Professeur, Telecom ParisTech, Paris (rapporteur)
  • Mr. Guillaume HUYET, Senior Lecturer and senior research scientist, Tyndall Institute, Cork, Ireland (rapporteur)
  • Mme. Anne-Marie HAGHIRI-GOSNET, Directrice de Recherche, Laboratoire de photonique et nano-structures, Marcoussis (examinateur)
  • Mme. Juliette MANGENEY, Laboratoire Pierre Aigrain (Ecole Normale Supérieure de Paris), Paris (examinateur)
  • Mr Aziz BENLARDI-DELAÏ , Professeur, Université Pierre et Marie Curie, Paris (examinateur)
  • Mr Hervé MAILLOTTE, Directeur de recherche, Institut Femto, Besançon (examinateur)
  • Mr Badr-Eddine BENKELFAT, Professeur, Telecom SudParis, Evry (examinateur)

Résumé

"Depuis près d'une cinquantaine d'années, les phénomènes d'interaction lumière-matière dans les composants optoélectroniques ont été exploités pour concevoir et réaliser les composants d'extrémités des réseaux optiques actuels. Parallèlement à cela, les cadres théoriques sous-jacents tels que ceux de la physique du solide et des semi-conducteurs, l'optique quantique et l'optique guidée ont sans cesse été habilement combinés de façon à préparer de nouvelles briques technologiques pour les futures applications ou champs d'exploration (essentiellement grâce à des transpositions d'éléments de physique du solide aux régimes optiques).

A l'occasion de ma soutenance de HDR, je présenterai les principales recherches que j'ai menées depuis mon arrivée à Télécom SudParis (département Electronique et Physique). Celles-ci s'intéressent d'une part à l'élaboration de fonctions de traitement tout optique des signaux télécoms et à l'analyse des composants d'extrémités. L'accent sera mis sur les effets dynamiques dans les amplificateurs hybrides que nous avons développés (EDFA + SOA) et sur les techniques de réflectométrie optique pour l'analyse de la propagation de la lumière dans les composants réalisés en optique intégrée. Les expérimentations fines menées sur les filtres, les défauts actifs optiquement et électriquement et les composants à base de nouveaux matériaux (régime de lumière lente dans les cristaux photoniques) seront présentées.

Dans une seconde partie, les perspectives de recherches qui découlent de ces expériences seront évoquées. En particulier, les applications visées concernent l'extension des techniques de réflectométrie aux problématiques des biocapteurs et également à une reconnaissance biométrique sécurisée. On note qu'actuellement les principales approches couramment utilisées pour ces deux applications reposent sur l'exploitation d'informations partielles (absence de mesure de phase et de polarisation en spectre étroit). Elles peuvent dès lors limiter l'accès à certaines propriétés utiles voire essentielles des milieux étudiés. Pour aller au-delà, les moyens que nous avons développés pour accéder de façon complète au champ électromagnétique (au sens de l'optique linéaire) seront présentés (Complex Optical Low Coherence Interferometry, Optical Frequency Domain Interferometry, Optical Coherence Tomography). Les apports pressentis tant d'un point de vue applicatif que formel seront finalement discutés."


«Contributions to the security of epc/rfid wireless technologies»

Qui ?

L'Habilitation à Diriger des Recherches a été soutenue par Joaquin Garcia-Alfaro, Enseignant-Chercheur dans le département RST

Quand ?

Lundi 25 Novembre 2013 à 10h00

Où ?

A Télécom SudParis, 9 Rue Charles Fourier, 91000 Evry, Salle C06.

Photo Joaquin Garcia-AlfaroJury

  • Giuseppe Bianchi, Professeur, Université de Roma, Italie (Rapporteur)
  • Frédéric Cuppens, Professeur, Télécom Bretagne, France (Examinateur)
  • Hervé Debar, Professeur, Télécom SudParis, France (Examinateur)
  • Olivier Festor, Professeur, Télécom Nancy, France (Rapporteur)
  • Javier Lopez, Professeur, Université de Malaga, Espagne (Rapporteur)
  • Pierre Sens, Professeur, UPMC, France (Président du Jury)

Résumé

http://www-public.it-sudparis.eu/~garcia_a/HDR/abstract.pdf

 


 

«Contributions à l'analyse de signaux et à l'identification de situations d'urgence en Télévigilance Médicale»

Qui ?

L'Habilitation à Diriger des Recherches a été soutenue par Jérôme Boudy, Maître de Conférences dans le département EPH

Quand ?

Mardi 17 Septembre 2013 à 14h00

Où ?

A Télécom SudParis, 9 Rue Charles Fourier, 91000 Evry - Visiocentre A003.

Jury

  • Photo Jérôme BoudyM. Jacques DEMONGEOT, Professeur à l'Université Joseph Fourier de Grenoble (Rapporteur)
  • M. Jacques DUCHÊNE, Professeur à l'Université de Technologie de Troyes (Rapporteur)
  • M. Christian ROUX, Professeur à Télécom Bretagne (Rapporteur)
  • M. Atta BADII, Professeur à l'Université de Reading (UK) (Examinateur)
  • M. Michel BAER, Médecin, Directeur du SAMU-92 à Garches (Examinateur)
  • M. Gérard CHOLLET, Directeur de Recherches émérite au CNRS (Examinateur)
  • Mme Bernadette DORIZZI, Professeur à Télécom SudParis (Examinateur)
  • M. Badr-Eddine BENKELFAT, Professeur à Télécom SudParis (Examinateur)
  • M. Etienne COLLE, Professeur à l'Université d'Evry (Directeur des travaux)

Résumé

"Après une synthèse des activités d'enseignement conduites dans le domaine du traitement du signal, ce mémoire décrit les domaines et axes de recherche abordés (acoustique sous-marine, signaux de parole et physiologiques), les différentes problématiques de recherche rencontrées et les outils mis en œuvre pour les résoudre, incluant le traitement de signal (filtrage adaptatif optimal et sous-optimal), l'analyse de signaux pour l'extraction de paramètres pertinents (traitements temps-fréquence et multi-cadences, analyse non-paramétrique du signal) et l'interprétation sémantique (reconnaissance des formes et fusion de données). Ce document présente ensuite plus en détails la problématique de la détection de chutes, situation de détresse généralement la plus fréquente chez les personnes âgées et la plus lourde en conséquences physiques et psychiques pour les personnes âgées vivant seules à leur domicile. Pour résoudre la question cruciale de la détection correcte d'un événement anormal et celle de la levée de doute pour éviter des fausses alertes coûteuses en moyens pour les centres d'urgences médicales, cette partie du mémoire, développée sur un plan plus formel, s'attache à montrer en quoi les approches de fusion de données peuvent apporter une solution pertinente et adaptative temporellement et spatialement du point de vue des données en entrée (non stationnarité, hétérogénéité), de leurs dépendances et des modèles à identifier. Une synthèse sur les diverses approches de fusion de données est donc effectuée pour exposer plus en détails les dernières avancées de nos travaux sur la fusion fondée sur des méthodes statistiques, sur la logique floue et sur les réseaux d'évidence (théorie de Dempster-Shaffer) dans leur dimension dynamique avec une réflexion sur leurs processus d'adaptation fondée sur une analogie avec le filtre de Kalman initialement proposée par Crowley et Demazeau en 1993. Enfin le mémoire présente nos perspectives de recherche et d'enseignement dans le domaine de la Santé Numérique."


«Quantitative computer-aided diagnosis : focus on pulmonary imaging»

Qui ?

L'Habilitation à Diriger des Recherches a été soutenue par Catalin Fetita, Maître de Conférences dans le département ARTEMIS

Quand ?

Lundi 16 Septembre 2013 à 14h00

Où ?

A l'Université Paris VI - Pierre et Marie Curie, Campus Jussieu, 4 place Jussieu Paris 5ème, Tour 55, 2è étage, couloir 55/65, salle 211.

Jury

  • Photo Catalin FetitaRémy PROST, Professeur, INSA Lyon (Rapporteur)
  • Grégoire MALANDAIN, Directeur de Recherche, INRIA (Rapporteur)
  • Christian RONSE, Professeur, Université de Strasbourg (Rapporteur)
  • Jean SEQUEIRA, Professeur, Université Aix-Marseille
  • Christopher BRIGHTLING, University of Leicester, Institute of Lung Health, UK
  • Eric PETIT, Professeur, Université Paris-Est Créteil
  • Françoise PRETEUX, Professeur, Mines Paris-Tech
  • Philippe GRENIER, Professeur, Université Pierre et Marie Curie

Résumé

Un résumé des travaux et du projet est téléchargeable sur la page publique suivante :

http://www-artemis.it-sudparis.eu/~fetita/SyntheseActivites_et_ProjetRecherche_fetita.pdf


«Assurer la qualité du logiciel par la preuve et le test»

Qui ?

L'Habilitation à Diriger des Recherches a été soutenue par Amel Mammar, Maître de Conférences dans le département INF

Quand ?

Jeudi 15 Novembre 2012 à 10h00

Où ?

Université Paris Est, Immeuble "La Pyramide", 80 avenue du Général de Gaulle, 94010 Créteil, Salle des Thèses, n° 5-21, 5ème étage.

Jury

  • Amel MammarYamine Ait-Ameur (IRIT-ENSEEIHT, Toulouse) - Rapporteur
  • Yves Ledru (Université Joseph Fourier, Grenoble) - Rapporteur
  • Michael Leuschel (Heinrich-Heine-Universität Düsseldorf, Allemagne) - Rapporteur
  • Marc Aiguier (Ecole Centrale, Paris) - Examinateur
  • Bruno Defude (Télécom SudParis, Evry) - Examinateur
  • Régine Laleau (Université Paris-Est Créteil) - Examinatrice
  • Oscar Pastor Lopez (Universidad Politécnica, Valence) - Examinateur

Résumé

"La dernière décennie a vu l'extension de l'utilisation des méthodes formelles à divers domaines d'application même quand le risque humain n'est pas toujours présent. En effet, elles sont appliquées dans le domaine bancaire par exemple pour risque financier. Les méthodes formelles permettent le développement de systèmes sûrs avec la possibilité de prouver diverses propriétés comme les propriétés de sureté et de sécurité mais également statiques et dynamiques. Nos travaux de recherche ont pour but de contribuer à l'utilisation de ce type de méthodes afin d'accroître la sureté et la sécurité des systèmes informatiques en général et en particulier les systèmes d'information et les transports ferroviaires.

Pour le développement d'application système d‘information sûres, j'ai proposé dès mes travaux de thèse un processus formel par raffinement B qui permettait de générer une implémentation B0_SQL, facilement traduisible en JAVA/SQL, à partir d'une spécification B obtenue par traduction de diagrammes UML décrivant le système. J'ai par la suite formalisé cette traduction en définissant des règles précises afin d'obtenir d'une part la structure des différentes tables relationnelles et d'autre part le code des transactions. J'ai également défini un processus systématique de calcul de préconditions pour les opérations B obtenues afin qu'elles prennent en compte des contraintes non graphiques exprimées directement en B. Enfin, je me suis intéressée à des propriétés dynamiques pour lesquelles j'ai défini des obligations de preuve supplémentaires à établir pour pouvoir les vérifier sur le système.

Mes travaux de recherche s'attaquent également à la détection de vulnérabilités (erreurs de programmation) dans les programmes C. Pour cela, j'ai défini deux approches automatiques, une utilisant le test passif et une seconde basée sur la preuve et la méthode B.

Enfin, dans le cadre d'une expérience industrielle au sein de la RATP puis Thales Transport, j'ai contribué à la formalisation et la preuve d'un ensemble de propriétés de sécurité pour le Métro parisien." 


«Traitement statistique pour les communications numériques et les images»

Qui ?

L'Habilitation à Diriger des Recherches a été soutenue par Frédéric Lehmann, Maître de Conférences dans le département CITI

Quand ?

Vendredi 10 Février 2012 à 14h00

Où ?

A Télécom SudParis, 9 Rue Charles Fourier, 91000 Evry - Amphi 10

Frédéric LehmannJury

  • Mr Jean-Yves TOURNERET, Professeur, INP - ENSEEIHT, Toulouse - rapporteur
  • Mr Ramesh PYNDIAH, Professeur, Télécom Bretagne, Brest - rapporteur
  • Mr Benoît GELLER, Professeur, ENSTA, Paris - rapporteur
  • Mr Jean-Luc ZARADER, Professeur, ISIR, UPMC, Paris - examinateur
  • Mr Jean-Pierre CANCES, Professeur, ENSIL, Limoges - examinateur
  • Mr Antoine BERTHET, Professeur, SUPELEC, Gif-sur-Yvette - examinateur

 


 

«Sécurité, vie privée et confiance dans les environnements pervasifs»

Qui ?

L'Habilitation à Diriger des Recherches a été soutenue par Abdallah Mahmed, Maître de Conférences dans le département RST

Quand ?

Jeudi 30 Juin 2011 à 10h30

Où ?

A Télécom SudParis, 9 Rue Charles Fourier, 91000 Evry - salle A003

Abdallah M'hamedJury

  • Mr Gildas Avoine, Professeur, Information Security Group, Louvain la Neuve, Belgique - rapporteur
  • Mr Lionel Brunie, Professeur, LIRIS, INSA, Villeurbanne, France - rapporteur
  • Mr Sébastien Canard, Professeur, France Telecom R&D, Caen , France - rapporteur
  • Mme Amal El Fellah Seghrouchni, Professeur, LIP6 , UPMC, Paris , France - examinateur
  • Mr Jacques Demongeot, Professeur, TIMC-IMAG, La Tronche, France - examinateur

Résumé

"L'informatique ubiquitaire et les systèmes pervasifs favorisent le développement d'équipements et de services dédiés à l'amélioration de la qualité de vie des personnes dépendantes. Néanmoins, en raison de l'hétérogéneité et le complexité des équipements et services déployés, il est important de prendre en considération les aspects liés à la sureté et à la sécurité des personnes dépendantes vivant dans ces environnements. Afin de satisfaire les beoins spécifiques des personnes dépendantes, il est nécessaire de considérer le caractère dynamique de la sécurité dans ces environnements intelligents en développant de nouveaux modèles de sécurité capables de s'adapter au profil, au contexte de l'utilisateur et à son environnement. Les réseaux mobiles ad'hoc (MANET) contribuent de manière significative au déployement de services dans les environnements pervasifs. Malgré les nombreux travaux de recherche consacrés aux services de sécurité dans les réseaux MANET, leur conséquences en termes de préservation de vie privée et de confiance ne sont pas suffisament prises en compte.

L'objectif de mes travaux de recherche est de couvrir les aspects interdépendants liés à la sécurité, à la vie privée et à la confiance en vue de les intégrer dans une architecture commune adaptée aux environnements intelligents et dédiée aux personnes dépendantes. Afin de prendre en compte la variablité et le non determinisme de ces environnements, on doit introduire le concept de "sensibilité au contexte" qui associe le profil utilisateur (capacités, préférences), le temps et la localisation (espace de vie, plateforme de service, équipements) en vue de fournir des services personnalisés.

Grâce aux diverses contributions sur les protocoles cryptographiques, nous avons abouti à la conception et la mise en oeuvre d'une architecture d'authentification intégrant les concepts de sécurité , de vie privée et de confiance dans les environnements sensibles au contexte." 


«Model-based Conformance and Interoperability Testing»

Qui ?

L'Habilitation à Diriger des Recherches a été soutenue par Stéphane Maag, Maître de Conférences dans le département LOR

Quand ?

Mercredi 18 Mai 2011 à 17h00

Où ?

A l'Université Paris Sud XI - Bat. 490, salle 79, Rue du Doyen Joseph Pérés, 91405 Orsay.

Stéphane MaagJury

  • Mr Richard Castanet, Professeur au LaBRI, Université de Bordeaux I, rapporteur
  • Mr Teruo Higashino, Professeur à l'Université d'Osaka, rapporteur
  • Mr Patrick Senac, Professeur à l'ISAE, CNRS LAAS, rapporteur
  • Mr Khaldoun Alagha, Professeur au LRI, Université Paris Sud XI, examinateur
  • Mme Ana Cavalli, Professeur à Télécom SudParis, examinateur
  • Mr Philippe Dague, Professeur au LRI, Université Paris Sud XI, examinateur
  • Mr Manuel Nunez, Professeur Université Complutense de Madrid, examinateur

Résumé

"Le Test est le processus vérifiant qu'un système possède un ensemble de propriétés comportementales désirées. Le test est devenu une partie intégrante de l'innovation, de production et exploitation des systèmes afin de réduire les risques d'échecs et de garantir la qualité et la fiabilité du logiciel ou du protocole utilisé. Grâce aux efforts fournis par les instituts de normalisation pour standardiser les activités de test, nous avons aujourd'hui conscience de son importance et l'impact dans le déploiement et l'utilisation future des logiciels et des systèmes.

Aujourd'hui, il y a différentes activités test (tels que les tests unitaires, tests de régression, etc) pour différents types de composants ou de systèmes dédiés à l'évaluation, par exemple, leur fiabilité, leur performance, la robustesse à travers les processus de validation ou de vérification.

Par ailleurs, il y a (i) un besoin croissant d'automatisation des tests dans tous les domaines d'application, (ii) que cette activité devrait être pris en considération dans toutes les phases du cycle de vie du système, et (iii) que l'interopérabilité et la standardisation en dépendent.

Différentes techniques de test peuvent être effectuées. Il y a généralement deux façons d'aborder les activités de test: en boîte blanche et en boite noire. Ces techniques dépendent du niveau d'accessibilité que nous pouvons avoir sur les implémentations. Alors que nous supposons que le code source et les détails du système sont disponibles pour les techniques en boîte blanche, il n'est pas disponible en boîte noire. Lors du test d'un système en contexte boîte noire, un modèle formel ou même semi-formelle de ce système est particulièrement pratique pour obtenir des suites de tests vérifiant une propriété spécifique du système. Les mécanismes automatiques et semi-automatiques de dérivation de suites de test sont donc détaillés. Nous fournissons des évaluations intéressantes des techniques empiriques existantes ainsi que l'application des plus récentes. Leurs avantages et inconvénients sont étudiés.

Les techniques de model-based testing, leurs études et applications à la conformité et l'interopérabilité des systèmes de communication sont illustrées. Les différentes phases et challenges dans la modélisation des protocoles et applications sont discutés, et la dérivation de suites de test ainsi que leur application pour fournir des verdicts utilisables à la détection d'erreurs sont analysées."


«Agrégation de trafic et de systèmes markoviens pour garantir la QoS des réseaux complexes»

Qui ?

L'Habilitation à Diriger des Recherches a été soutenue par Hind Castel, Maître de Conférences dans le département RST

Quand ?

Jeudi 12 Mai 2011 à 14h00

Où ?

A l'Université Paris VI - Pierre et Marie Curie, Campus Jussieu, 4 place Jussieu Paris 5ème, Maison de la Pédagogie, 1er étage, salle 25-26 101

Photo Hind CastelJury

  • Mr Serge Haddad, Professeur au LSV, ENS Cachan, rapporteur
  • Mr Tadeusz Czachorski, Directeur de recherche à l'académie des sciences de Pologne, rapporteur
  • Mr Gérardo Rubino, Directeur de Recherche à l'INRIA/IRISA Rennes, rapporteur
  • Mr Serge Fdida, Professeur au LIP6 à Paris 6, examinateur
  • Mr Jean-Michel Fournau, Professeur au PRiSM à l'université de Versailles Saint Quentin, examinateur
  • Mr Dominique Chiaroni, Ingénieur recherche à Alcatel Lucent Labs, examinateur
  • Mme Nihal Pekergin, Professeur à Paris 12, examinateur

Résumé

"Aujourd'hui, les réseaux sont de plus en plus complexes en termes de nombres de noeuds, de diversité de flux (débits, tailles de paquets, variabilité du trafic), ou encore de types de protocoles. La garantie de la QoS (Quality of Service) demeure un problème important et difficile à résoudre.

Deux aspects importants ayant un impact sur la QoS ont été étudiés : la gestion du trafic, et les méthodes d'évaluation des performances basées sur les bornes stochastiques afin de dimensionner le réseau. L'agrégation est un mécanisme très intuitif et très présent dans les réseaux de communication.
Il a été étudié dans ce travail dans des domaines assez différents : celui du trafic, et celui des modèles d'analyse quantitative basés sur les chaînes de Markov. Dans les deux cas, l'idée est similaire : on cherche à regrouper des entités (paquets ou états) c'est-à-dire à agréger un ensemble de paquets ou d'états d'une chaîne de Markov. Ainsi, on obtient des macro-entités (macro-paquets ou macro-états) afin d'obtenir un système agrégé ou simplifié.

Différents algorithmes d'agrégation de trafic prenant en compte la QoS des flux IP sont proposés afin de définir des paquets optiques agrégés. L'idée est d'améliorer l'utilisation de la bande passante de la fibre optique, et donc les performances du réseau.

Au niveau des méthodes d'analyse des performances, un algorithme d'agrégation de chaines de Markov multidimensionnelles est proposé. L'intérêt de cette étude est de construire une chaîne de Markov de taille réduite à partir de laquelle on pourra calculer des mesures de performance bornantes. L'algorithme d'agrégation permet de proposer un compromis entre qualité de la borne et complexité de calculs, pour l'encadrement des mesures de performance. De plus, aussi bien des mesures bornantes stationnaires que transitoires peuvent être déduites.

Il est clair que l'agrégation de trafic et l'agrégation des systèmes markoviens sont des techniques différentes. Toutefois, elles contribuent toutes les deux d'une manière efficace à la garantie de la QoS dans les réseaux de communication."


«Intergiciels pour la sensibilité au contexte en environnement ubiquitaire»

Qui ?

L'Habilitation à Diriger des Recherches a été soutenue par Chantal Taconet, Maître de Conférences dans le département INF

Quand ?

Jeudi 10 Février 2011 à 13h30

Où ?

A Télécom SudParis, 9 Rue Charles Fourier, 91000 Evry - salle C06

Chantal TaconetJury

  • Yolande Berbers, Professeur à l'université catholique de Louvain, rapporteur
  • Michel Riveill, Professeur à l'École Polytechnique de l'Université de Nice, rapporteur
  • Lionel Seinturier, Professeur à l'université de Lille, rapporteur
  • Philippe Lalanda, Professeur à l'université de Grenoble, examinateur
  • Isabelle Demeure, Professeur à Télécom ParisTech, examinateur
  • Guy Bernard, Professeur à Télécom SudParis, examinateur

Résumé

"En informatique ubiquitaire, les interactions des applications avec le monde extérieur changent de nature : aux interactions classiques (principalement des interactions avec les utilisateurs) s'ajoutent des interactions avec l'environnement extérieur. L'application doit alors se doter d'une capacité d'observation de son environnement. Le spectre des éléments potentiellement observables est large : de l'application elle-même, au dispositif mobile d'exécution, aux capteurs ambiants, aux objets communicants accessibles à grande échelle avec l'Internet des objets. L'application doit également avoir la capacité de réagir et de se reconfigurer en fonction des situations. Pour généraliser et faciliter la création de systèmes ubiquitaires en environnement réparti, il est nécessaire de fournir de nouveaux outils de conception ainsi que de nouveaux intergiciels. Ceci est d'autant plus important que la palette des applications ambiantes et ubiquitaires croît tant dans les domaines de la santé, de la domotique, du transport, que des réseaux sociaux.

Ce manuscrit présente les travaux que j'ai réalisés au cours des dix dernières années dans le domaine de l'intergiciel pour les applications réparties en environnement ubiquitaire. J'ai eu pour objectif de travailler sur la préoccupation de sensibilité au contexte et sa prise en charge par les intergiciels. La ligne conductrice de ces travaux a été de réunir les travaux IDM (ingénierie dirigée par les modèles) et intergiciels pour faciliter la prise en compte de la sensibilité au contexte des applications depuis leur conception jusqu'à leur exécution. Mes contributions portent sur le processus de conception d'applications ubiquitaires, sur les méta-modèles spécifiques pour la conception de modèles d'applications ubiquitaires et sur les intergiciels pour l'ubiquitaire. Les intergiciels s'appuient sur des modèles de sensibilité au contexte tant pendant la phase de déploiement que pendant la phase d'exécution de l'application. Les modèles de conception sont utilisés non seulement pour la production de code mais aussi à l'exécution. Ainsi, l'intergiciel peut par réflexivité connaître et gérer l'influence de l'environnement sur l'application. La présence des modèles à l'exécution permet de plus la reconfiguration de la sensibilité au contexte des applications pendant leur exécution.

Ces diverses contributions ont montré l'apport de l'IDM pour la conception et l'exécution d'applications ubiquitaires. Pour la suite, il me semble important d'étendre ces travaux sur un environnement grande échelle notamment pour définir une sensibilité au contexte prenant en compte des observations en provenance de l'Internet des objets, pour réaliser des adaptations réparties d'applications réparties et pour assurer le passage à l'échelle des mécanismes pour un nombre important d'utilisateurs. L'introduction de mécanismes de vérification des délais d'identification de situations et de mise en œuvre des adaptations me semble également tout à fait incontournable pour fournir des intergiciels pour l'ubiquitaire qui assurent des délais d'adaptation acceptables."


«On the IP model defying wireless, mobility, heterogeneity and ubiquity»

Qui ?

L'Habilitation à Diriger des Recherches a été soutenue par Hakima Chaouchi, Maître de Conférences dans le département LOR

Quand ?

Lundi 13 Décembre 2010 à 11h00

Où ?

A la Faculté des Sciences d'Orsay, Université Paris Sud XI - 490 Rue du Doyen Joseph Pérés, 91405 Orsay - salle 101

Hakima ChaouchiJury

  • Georg Carle, Professeur, Université Munich TUM, Allemagne - Rapporteur
  • Christian Bonnet, Professeur, Eurecom Sophia Antipolis, France - Rapporteur
  • Jozef Wozniak, Université de Gdansk, Pologne - Rapporteur
  • Vania Conan, Directeur de recherche, Thales Group, France - Examinateur
  • Hikmet Sari, Professeur SUPELEC Gif-sur-Yvette, France - Examinateur
  • Khaldoun Al Agha, Professeur, Université Paris XI, France - Examinateur

«Mesures de qualité et fusion d'informations pour la vérification biométrique d'identité»

Qui ?

L'Habilitation à Diriger des Recherches a été soutenue par Sonia GARCIA, Maître de Conférences dans le département EPH

Quand ?

Vendredi 3 Décembre 2010 à 14h00

Où ?

A l'Université Paris VI - Pierre et Marie Curie, Campus Jussieu, 4 place Jussieu Paris 5ème, Tour 55-65, 2ème étage, salle 211

Sonia GarciaJury

  • M. Kevin BOWYER (University of Notre-Dame, USA), rapporteur
  • M. Robert SABOURIN (Ecole de Technologie Supérieure de Montréal, Canada), rapporteur
  • Mme Nicole VINCENT (Université Paris V, France), rapporteur
  • Mme Bernadette DORIZZI (Telecom SudParis, France), examinateur
  • M. Maurice MILGRAM (Université Paris VI, France), examinateur
  • M. Javier ORTEGA-GARCIA (Universidad Autonoma de Madrid, Espagne), examinateur

«Méthodes et systèmes de représentation visuelle»

Qui ?

L'Habilitation à Diriger des Recherches a été soutenue par Titus Zaharia, Maître de Conférences dans le département ARTEMIS

Quand ?

Lundi 22 Novembre 2010 à 9h30

Où ?

A l'Université Paris VI - Pierre et Marie Curie, Campus Jussieu, 4 place Jussieu Paris 5ème, Bâtiment 41, 2ème étage, salle 203-205

Juryphoto titus zaharia

  • M. Patrick GALLINARI Professeur, UPMC, Président du Jury
  • M. Claude LABIT Directeur de Recherche INRIA, Rapporteur
  • M. Rémy PROST Professeur, INSA Lyon, Rapporteur
  • M. Jean-Marie BECKER Professeur, CPE Lyon, Rapporteur
  • Mme Françoise PRETEUX Professeur, Mines Paristech, Examinateur
  • M. François GASPARD Docteur, CEA-LIST, Examinateur
  • M. Gérard MOZELLE Docteur, Thomson Broadcast, Examinateur

«Vers des systèmes d'informations adaptatifs, sémantiques et pervasifs : application aux EIAH»

Qui ?

L'Habilitation à Diriger des Recherches a été soutenue par Amel Bouzeghoub, Maître de Conférences dans le département INF

Quand ?

Lundi 7 Juin 2010 à 14h00

Où ?

A l'Université Paris VI - Pierre et Marie Curie, Campus Jussieu, 4 place Jussieu Paris 5ème, salle 202

Amel BouzeghoubJury

  • Mme Florence Sèdes, Professeur, Université Paul Sabatier, Toulouse - Rapporteur
  • Mme Agathe Merceron , Professeur, Beuth University of Applied Sciences, Berlin - Rapporteur
  • M. Jérôme Gensel, Professeur Université Pierre Mendès France, Grenoble - Rapporteur
  • Mme Anne Doucet, Professeur, Université Pierre & Marie Curie - Examinateur
  • M. Serge Garlatti, Professeur, Télécom Bretagne - Examinateur
  • M. Bruno Defude, Professeur, Télécom SudParis - Examinateur

Résumé

Les systèmes d'information adaptatifs, sémantiques et pervasifs sont conçus pour être accessibles sur Internet, possèdent une architecture distribuée, accèdent à une masse de ressources hétérogènes qu'il s'agit de réutiliser, de partager, assurent une adaptation/personnalisation en fonction des besoins des utilisateurs et de leur contexte et permettent la coopération homme/machine et/ou entre individus appartenant à une même communauté de pratique à travers le web.

Ces systèmes sont basés sur une boucle perception de l'environnement, découverte/sélection, décision, adaptation, déploiement. Cette problématique recouvre un large spectre d'applications. Les EIAH constituent un domaine d'application privilégié qui illustre une grande partie de cette problématique. En effet, les EIAH sont des environnements informatique conçus pour favoriser l'apprentissage humain, c'est-à-dire la construction ou le développement de connaissances chez un apprenant.

Nous présentons ici nos principaux résultats qui s'articulent autour de trois axes :

  1. La composition adaptative de ressources;
  2. L'adaptation au contexte et son application à l'apprentissage pervasif;
  3. L'intégration sémantique de ressources hétérogènes.

«Sources naturelles d'information : de la modélisation mathématique aux applications multimédias»

Qui ?

L'Habilitation à Diriger des Recherches a été soutenue par Mihai Mitrea, Maître de Conférences dans le département ARTEMIS

Quand ?

Mercredi 2 Juin 2010

Où ?

A l'Université Paris VI - Pierre et Marie Curie, Campus Jussieu, 4 place Jussieu Paris 5ème, salle 211 (55-65)

Mihai MitreaJury

  • Pr. Fréderic TRUCHETET, Université de Bourgogne, rapporteur
  • Pr. Touradj EBRAHIMI, Ecole Polytechnique Fédérale de Lausanne, rapporteur
  • Pr. Michel JOURLIN, Université de Saint Etienne, rapporteur
  • Pr. Patrick GALLINARI, Université Paris VI, membre du jury
  • Pr. Françoise PRETEUX, MINES ParisTech, membre du jury
  • M. Philippe MELLE, SFR, membre du jury

Résumé

"Ce mémoire synthétise les contributions scientifiques et technologiques que j'ai initiées, développées et promues depuis ces dix dernières années pour répondre aux enjeux de la société de la communication et de la connaissance numérique, en termes de modélisation des sources naturelles d'information, de méthodes d'enrichissement des flux multimédias et de processus d'échange et d'interaction.

Analyser mathématiquement les sources naturelles d'information que sont le langage, la vidéo ou l'audio et leurs perturbations numériques et de transmission nécessite de définir des modèles statistiques précis, i.e. au sens de l'estimation statistique avec contrôle des erreurs et étude de la stationnarité et de l'ergodicité. Or, quelle que soit l'application ciblée - compression, indexation, tatouage, animation - l'état de l'art des méthodes et approches proposées pose comme hypothèse préalable la stationnarité de la source d'information. L'absence de toute étude mathématique de la validité de cette pré-supposition tient d'une part à la complexité même du concept de stationnarité et d'ergodicité et d'autre part à son inadaptation intrinsèque au contexte de la discrétisation numérique.

C'est précisément ce premier verrou que nos recherches ont tenté de lever. L'approche théorique proposée associe les procédures classiques d'estimation d'une loi de probabilité (discrète ou continue) à un nouveau type de test statistique : le test d'appartenance de la probabilité à un intervalle. D'un point de vue algorithmique, la preuve de la stationnarité pour la source d'information considérée se présente sous la forme d'un modèle de référence.

Ainsi pour le langage naturel, les modèles sont caractérisés au travers d'intervalles de confiance statistique à 95% pour les probabilités des entités linguistiques (lettre/digrammes/trigrammes/tétragrammes/mots). La précision du modèle est définie via les erreurs relatives sur l'estimation de la probabilité. La preuve de la stationnarité/ergodicité résulte des valeurs du seuil de pertinence des données dans les tests statistiques (5%) et de la valeur pour la probabilité du deuxième type d'erreur (inférieure à 15%), sachant que les procédures d'estimation portent sur plusieurs jeux de données échantillonnées de la source initiale.

Concernant la vidéo naturelle et plus généralement les perturbations d'un contenu multimédia, la modélisation est effectuée dans le domaine de la transformée en cosinus discrète ou de la transformée en ondelettes. Les modèles sont exprimés sous forme de mélanges de lois gaussiennes dont les paramètres sont estimés selon une approche par maximum de vraisemblance. La précision de l'estimation est donnée par les erreurs quadratiques moyennes (inférieures à 5%). La propriété de stationnarité/ergodicité est établie comme suit : (1) les erreurs quadratiques moyennes entre des modèles calculés sur différentes corpus sont inférieures à 15%, (2) les mesures de similarité fondées sur la théorie de l'information sont nulles et (3) la validation a posteriori du critère de maximum de vraisemblance, est acquise avec des limites de confiance statistiques à 95%. Ces modèles et outils statistiques ont été par ailleurs mis en œuvre avec succès pour analyser des données médicales.

Le second enjeu sur lequel nos recherches ont porté renvoi au paradigme de contenu enrichi, i.e. à tout type d' association entre données initiales (vidéo, audio, graphique 3D, ...) et métadonnées. Ce concept ouvre la voie aux nouveaux services enrichis et interactifs. Toutefois, son déploiement professionnel se heurte à de nombreuses contraintes en termes d'adaptation, d'interopérabilité et de compatibilité inverse. Nos contributions ont consisté à lever ces limitations. Nous avons ainsi défini et développé le nouveau cadre théorique du in band enrichment. Son principe emprunte à la philosophie du tatouage qui stipule que l'information additionnelle doit être introduite dans le contenu même à enrichir. De facto, ce fondement résout intrinsèquement les trois contraintes précitées. Mais l'iintérêt mathématique de ce cadre conceptuel est de permettre d'évaluer certaines limites théoriques, comme la capacité du canal qui conditionne la quantité maximale d'information susceptible d'être ajoutée. Pour y parvenir, nous avons revu et étendu certains outils classiques de la théorie d'information. Partant du calcul de la capacité d'un canal de bruit ergodique, sans mémoire, nous avons mis au point une méthode d'approximation de la capacité d'un canal avec information de bord, pour des sources de bruit non binaires et a priori non ergodiques.

En outre, en combinant les résultats théoriques obtenus pour l'analyse des sources naturelles d'information avec ceux de l'in band enrichment, nous avons développé une procédure transparente et robuste de tatouage des contenus numériques. Nos contributions significatives portent sur : (1) le cadre méthodologique de tatouage qui est à notre connaissance est le premier à être indépendant des spécificités des données à protéger (vidéo non compressée/audio/3D) et (2) la mise en place de la première méthode de tatouage robuste au transcodage et aux attaques géométriques pour le flux MPEG 4 AVC (H.264).

Enfin, en observant le déséquilibre entre la grande variété de terminaux légers mis à la disposition quotidienne du grand public et la relative pauvreté des expériences d'échange et d'interaction garantissant continuité de service et de qualité entre situation de mobilité qu'ils offrent, nous avons proposé et développé une nouvelle architecture de type reconfigurable et adaptable à la volée. Elle s'appuie sur des technologies d'agrégation de contenus multimédias hétérogènes (vidéo, graphics, texte, 3D) dans des scènes dynamiques. En particulier, le prototype réalisé démontre pour la première fois, la fonctionnalité de streaming (transmission à la volée) vers des terminaux légers nomades avec continuité de l'interaction utilisateur, tout en assurant une qualité d'expérience pré-imposée. Notre contribution a aussi porté sur une étude d'évaluation objective des technologies normatives MPEG 4 BiFS et LASeR. Ces résultats établissent non seulement la preuve du concept d'interopérabilité pour les technologies MPEG émergentes, mais servent aussi de référence pour le déploiement de la norme."


«Indoor Positioning Using GNSS Based Transmitters»

Qui ?

L'Habilitation à Diriger des Recherches a été soutenue par Nel Samama, Maître de Conférences dans le département EPH

Quand ?

Lundi 22 Mars 2010

Où ?

Télécom ParisTech - 46, rue Barrault - 75013 Paris

JuryNel Samama

  • M. Michel Kasser, Professeur, ENSG - Rapporteur
  • M. Bertrand Merminod, Professeur, EPFL - Rapporteur
  • M. François Peyret, Directeur de recherche, Centre de Nantes du LCPC - Rapporteur
  • M. Aziz Benlarbi-Delaï, Professeur, UPMC - Membre du jury
  • M. Arnaud de la Fortelle, Directeur du CAOR, Mines ParisTech - Membre du jury
  • M. Roger Pagny, CGDD/SDI, Chef de la mission applications satellitaires - Membre du jury

Résumé des travaux

Ambitions et Objectifs

Les systèmes actuels de localisation se heurtent à la difficulté de réaliser la fonction de positionnement dans des environnements divers avec une qualité constante: ceci limite le développement des services géolocalisés. Le positionnement en intérieur en est le cas le plus représentatif. La diversité des solutions proposées et leur maturité montrent que la voie n'est pas encore tracée. De plus, les orientations choisies par les grands industriels du domaine montrent des limitations qui relancent l'intérêt pour une recherche innovante. Cependant, les choix vont s'opérer d'ici quelques années pour coïncider avec les échéances du programme GALILEO.

L'avantage de l'utilisation d'un récepteur de navigation par satellites pour réaliser la fonction de localisation en zone de non-couverture des signaux GNSS réside dans le fait qu'il est alors possible de parler de système de positionnement « universel », fonctionnant dans tous les environnements et n'utilisant qu'un seul moyen technique. Une infrastructure locale, dans l'état actuel des systèmes, semble être indispensable afin de fournir une vraie couverture élargie: les deux types d'infrastructure que nous avons étudiées sont les répéteurs et les pseudolites. Les approches à base de répéteurs sont tout à fait originales dans l'ensemble des travaux de la communauté internationale.

Les approches à base de répéteurs GPS (ou Galileo) sont une alternative aux systèmes de type Assisted-GPS ou GPS haute sensibilité. Les derniers travaux sur les répéteurs ont permis les avancées significatives suivantes :

  • Développement de l'architecture d'un système de positionnement indoor utilisant les signaux GNSS ;
  • Approches théoriques nouvelles de traitements des signaux du récepteur afin d'améliorer la mesure des pseudo-distances (travaux sur le bruit et sur les trajets multiples) ;
  • Mise en œuvre de démonstrations expérimentales de fonctionnement et de validation des performances (en particulier avec l'aide du CNES et de matériels spécifiques) ;
  • Réalisation d'un démonstrateur mobile.

L'objectif global des travaux est de permettre une optimisation de la détection des sauts de phase du code dans le fonctionnement de la solution de positionnement. Les trois directions suivies sont respectivement l'analyse du comportement des récepteurs, la simulation/modélisation du comportement des boucles de réception et l'analyse des trajets multiples.

Principaux résultats

  • Trajets Multiples et propagation: modélisation électromagnétique de divers environnements intérieurs; simulation de la propagation dans ces environnements afin d'évaluer l'importance des trajets multiples; évaluation de règles de déploiement des antennes des répéteurs afin de réduire les trajets multiples; effet de "petits" déplacements (ordre de grandeur de la longueur d'onde du signal GPS L1) autour d'une position donnée des répéteurs et du récepteur afin de déterminer la sensibilité des trajets multiples à ces déplacements; simulation conjointe entre l'outil "propagation" et l'outil de simulation "récepteur" et la prédiction des améliorations potentielles permises par les nouvelles approches proposées.
  • Simulation d'un récepteur GPS: après avoir conçu un récepteur sous MatLab/Simulink, nous avons entrepris de proposer de nouvelles architectures des boucles de poursuite afin d'optimiser la détection et la précision de la mesure des sauts de la phase du code qui se produisent lors de la transition d'un répéteur vers le suivant. Les trois architectures simulées sont: la boucle ouverte, la boucle insensible aux trajets multiples courts SMICL, la boucle insensible aux trajets multiples quelconques MIDDL. Deux publications acceptées en revue IEEE et trois dépôts de brevet ont résulté de ces travaux (thèse de Nabil Jardak).
  • Implémentation des boucles et calculs divers sur le récepteur: Les travaux cités ci-dessus ont naturellement donnés lieu à des implémentations pratiques sur un récepteur logiciel NordNav R30.
  • Déploiements réels: Plusieurs expérimentations ont été réalisées dans les locaux de Télécom SudParis ainsi qu'au CNES à Toulouse.
  • Travaux sur les "Répélites": la principale limitation des répéteurs afin d'améliorer la précision de positionnement est l'impossibilité de faire des mesures de la phase de la porteuse, cette dernière étant "perdue" lors de la transition d'un répéteur vers le suivant. L'idée d'une émission continue est ainsi naturelle. Nous travaillons sur une émission simultanée décalée temporellement afin de permettre, tout en gardant les avantages des répéteurs, de permettre une mesure de phase, comme pour les pseudolites. Ces travaux, objet de la thèse d'Alexandre Vervisch-Picois, ont conduit à un article dans une revue IEEE de traitement du signal. Un brevet est également en cours de dépôt sur une technique de réduction de l'effet d'éblouissement dans un système utilisant des pseudolites.

Partenariats

  • Liens forts avec d'autres organismes de recherche (CNES, EPFL, ENST, Fraunhofer, ...) et des industriels dans le domaine de la localisation (Thales Alenia Space, Septentrio, M3Systems, uBlox, ...).
  • Echanges en cours avec des universités internationales: PLAN group de l'Université de Calgary, Canada et avec le SNAP group de l'Université de New South Wales, Australie.

mise à jour le 08/09/2016