Centre de Recherche en Informatique

Avril : Jeudi 10 avril 2008 de 14h00-16h00

Thème « fusion de données, filtre de Kalman et estimateurs» :

1. Lieu :

Mines ParisTech, Bd Saint-Michel
salle  L-218.

2. Descriptif :

PREMIER EXPOSÉ: 14h00-15h00

Orateur: Jan Neering (CMA, jan.neering@ensmp.fr)

Titre: Placement optimal des capteurs en
localisation passive.

Résumé : Le but de la localisation passive est de détecter des objets et d'en estimer leur position au moyen d'un réseau de capteurs passifs (microphones, hydrophones). A cause d'une vitesse de propagation limitée (approximativement 340 m/s dans l'air), les sons produits par les objets sont captés par des microphones avec retards. En mesurant ces retards, on peut estimer la position de chacun de ces objets. La première partie de cette présentation se concentre sur la localisation d'une seule source. D'abord des méthodes d'estimations des retards seront introduites et des estimateurs de position basés sur ces délais seront présentés. Un grand nombre de ces estimateurs ont été développés pendant les dernières décennies, cependant très peu de ces estimateurs prennent en compte la géométrie du réseau, alors que leur performance est fortement corrélée à cette géométrie. Du coup la deuxième partie de cette présentation portera sur la forme optimale du réseau. On propose une méthode qui minimise le nombre de conditionnement d'un estimateur des moindres carrés linéaires ainsi que le nombre de
conditionnement d'un estimateur itératif linéarisé. L'intérêt d'avoir une configuration des capteurs qui minimise ces nombres de conditionnement est de pouvoir réutiliser la première estimation de la position trouvée par l'estimateur des moindres carrés linéaires pour ensuite initialiser l'estimateur itératif linéarisé.

SECOND EXPOSE: 15h00-16h00

Orateur: Erwan Salaun (CAS, erwan.salaun@ensmp.fr)

Titre:  fusion de données et navigation inertielle

Résumé: Les avions, et particulièrement les drones, ont besoin de connaître précisément leur orientation (angles d'Euler), vitesse et position pour être pilotés de manière automatique ou manuelle. Afin de diminuer les coûts et le poids des systèmes embarqués, des capteurs «bas-prix » sont utilisés, tels que des gyroscopes, accéléromètres, magnétomètres, GPS, sonar, baromètre, caméras . Un filtre de Kalman étendu est usuellement utilisé pour «fusionner » les mesures (imparfaites) fournies par ces capteurs afin d'estimer l'orientation, la vitesse et la position de l'engin volant. Ce filtre donne de bons résultats mais est difficile à régler et gourmand en temps de calcul. Nous avons validé un autre type de filtre, propre à la problématique des drones, qui tient compte des nombreuses propriétés géométriques des équations du modèle (invariance par rotation/translation dans les repères liés au drone ou fixe par rapport à la terre suivant les capteurs). Ces observateurs non-linéaires dits « invariants » seront présentés en détails : de leur construction à leur implémentation en temps réel. Des résultats expérimentaux illustreront les bonnes performances de ces filtres.

Mai : Jeudi 15 mai 2008 de 14h00-16h00

Thème « traitement d'images » :

1. Lieu :

Mines ParisTech, Bd Saint-Michel
salle  L-218.

2. Descriptif :

PREMIER EXPOSÉ: 14h00-15h00

Orateur: Jean-Emmanuel Deschaud (CAOR, jean-emmanuel.deschaud@ensmp.fr)

Titre: Cartographie 3D d'environnements extérieurs par système mobile

Résumé : Le Centre de Robotique (CAOR) des Mines de Paris a mis au point une technique de numérisation et modélisation 3D d'environnements extérieurs, utilisant un système mobile appelé LARA-3D. Il s'agit d'une voiture équipée d'un système de localisation géographique précis (GPS, Centrale Inertielle), d'un télémètre laser fixé à l'arrière du véhicule, et de caméras. Ce dispositif, utilisé en environnement urbain et routier, permet de recueillir des nuages de points 3D décrivant avec une bonne précision les éléments présents le long des trajets effectués (routes, ronds-points, façades, arbres, voitures.), et après traitement d'avoir des modèles par facettes des scènes numérisées, ainsi que des couleurs sur les points et des textures photo-réalistes sur les facettes. Le sujet de thèse porte sur la création de modèles 3D de plus haut niveau pour de nombreux types d'applications (simulation embarquée sur véhicule, réalité virtuelle.). En particulier, nous  étudierons les modèles utilisés actuellement dans les solutions existantes d'environnements de simulation visuelle : modèles des routes (splines, courbes polynomiales) et du bâti (plans, essentiellement verticaux). Nous étudierons aussi des solutions de décimation de nuage de points et de lissage de modèles à facettes, sans perte de qualité visuelle. Cela aura pour but de créer des modèles approchant au mieux les données et la réalité, incluant la question de l'ajout des textures pour la qualité visuelle, et du réalisme photométrique de l'ensemble. Les deux principales applications visées sont des modèles routiers pour le calcul de distance de visibilité (à partir de méthodes de lancer de rayon dans le modèle 3D) et de modèles urbains pour de la réalité virtuelle.

SECOND EXPOSÉ: 15h00-16h00

Orateur: Jean Stawiaski (CMM Jean.Stawiaski@ensmp.fr)

Titre: Morhologie mathématique et théorie des graphes pour la segmentation d'images médicales

Résumé: il s'agit de développement d'outils de segmentation interactive d'images médicales tridimensionnelles qui permettent aux cliniciens de mettre en évidence des anomalies structurales. La segmentation d'images peut être utilisée dans le cadre :
- de la radiothérapie, pour le repérage spatial de zones à irradier ou à protéger,
- du diagnostic assisté par ordinateur,
- du suivi de l'évolution temporel de tumeurs,
- de la planification de chirurgie
Une description plus détaillée avec des références  se trouve  dans le fichier"StawiaskiMS08.pdf".

Juin : Jeudi 12 mars 2009 de 13h30-17h00

Thèmes divers :

1. Lieu :

Mines ParisTech, Bd Saint-Michel
salle  L-118.

2. Descriptif :

LE PROGRAMME:

   - 13h30 : Csaba Szepesvari (University of Alberta),
  "Active Learning in Multi-Armed Bandits"

   - 15h00 :  POP Antoniu (Mines ParisTech, Computer Sciences, CRI),
   "Improving GCC Infrastructure for Streamization"

   - 16h00 : Laurent Jacob (Mines ParisTech, Computational Biology),
   "méthodes d'apprentissage statistique en bio-informatique et application au cas de la chémo-génomique"

LES RéSUMéS:

  - 13h30 : Csaba Szepesvari (University of Alberta) "Active Learning in Multi-Armed Bandits"

Active learning concerns with estimating some unknown quantities such that the environment can be actively queried. Here we look at the simplified setting when the environment consist of a finite number of unknown distributions and we will be concerned with learning the mean values of these distributions. We study two problems and two active learning algorithms. In the first problem the performance is evaluated by the worst of the L2 estimation errors of the means. In the second problem the performance is the weighted sum of the L2 estimation errors of the means. The performance of the algorithms is compared with the best estimation that can be obtained when the distributions are known. The excess loss is shown to scales as $n^{-3/2}$, which we conjecture to be the optimal rate. We will show connection to several applications,including stratified sampling.

   - 15h00:  POP Antoniu (Mines ParisTech, Computer Sciences, CRI),
   "Improving GCC Infrastructure for Streamization"

GCC needs a strategy to support future multicore architectures, which will probably include heterogeneous accelerator-like designs with explicit management of scratchpad memories; some have further restrictions, for example SIMD, with limited synchronization capabilities. Some platforms will probably offer hardware support for streaming, transactions and speculation. This talk is meant to give an overview of the streamization infrastructure of GCC. We will focus on the translation of sequential code into streamized code, based on the loop distribution framework, and provide an evaluation of the communication library support on a quad-core AMD Phenom[tm] 9550 processor. We use these experiments to tune the automatic task partitioning algorithm implemented in GCC. We conclude with recommendations for strategic developments of GCC to support a stream programming language, and improve the automatic generation of streamized tasks.

   - 16h00 : Laurent Jacob (Mines ParisTech, Computational Biology),
"méthodes d'apprentissage statistique en bio-informatique et application au cas de la chémo-génomique"

Les méthodes d'apprentissage statistique supervisé considèrent le problème, étant données des données étiquetées (x,y), de construire une fonction prédisant l'étiquette y de nouvelles données x avec le moins d'erreur possible. La Support Vector Machines (SVM) est l'état de l'art en la matière, et construit une séparation linéaire des données d'entrainement en maximisant sa marge. Les noyaux définis positifs sont utilisés pour introduire plus simplement des descriptions des données donnant de bonnes séparations. Nous appliquons ces méthodes à la prédiction d'interaction entre des petites molécules et des cibles thérapeutiques avec l'idée de guider le processus de découverte de nouveaux médicaments.

Octobre : Jeudi 9 octobre 2008 de 14h00-16h00

Thème « systèmes temps-réel et contrôle » :

1. Lieu :

Mines ParisTech, Bd Saint-Michel
salle  L-118.

2. Descriptif :

PREMIER EXPOSÉ : 14h00-15h00

Orateur: Mathieu Hillion (CAS, mathieu.hillion@ensmp.fr)

Titre: Contrôle temps réel des moteurs à combustion interne: deux exemples.

Résumé:  Les motoristes ont proposé des modifications substantielles des moteurs afin de réduire les émissions polluantes. Bien souvent, ces gains en performances se sont fait au détriment de la stabilité de la combustion ou du fonctionnement général du moteur. Parallèlement, les contraintes budgétaires des constructeurs rendent très difficile l'ajout de nouveaux capteurs afin de piloter les nouveaux dispositifs.
Afin de tirer tous les bénéfices de ces avancées techniques, un contrôle précis de toutes les variables opératoires du moteur en n'utilisant uniquement les capteurs classiques présent dans les moteurs est donc indispensable. C'est l'objectif du contrôle moteur. Dans l'exposé, deux des phases principales de l'élaboration d'un contrôle moteur sont détaillées:
-1- Le contrôle du remplissage des cylindres:
De nouveaux actionneurs (distribution variable) permettent de modifier le remplissage en air du moteur en permettant une re-circulation interne des gaz brûlés. Afin d'assurer le fonctionnement optimal du moteur lors des phases transitoires, il est nécessaire de mettre en place un estimateur et un contrôleur temps réel de remplissage.
-2- Le contrôle de la combustion.
La mise en place de combustion homogène (de type HCCI), permet de réduire la formation de polluant pendant la combustion. En contrepartie la stabilité de la combustion est fortement détériorée durant les phases transitoires. Un contrôle en boucle ouverte de l'injection de carburant basé sur un modèle temps réel de la combustion est mis en place.

SECOND EXPOSÉ : 15h00-16h00

Orateur: Sébastien Moutault  (CAOR, sebastien.moutault@ensmp.fr)

Titre: Automotive Robust Operating Services

Résumé: AROS est une plate-forme de développement héritée de RTMaps. Orienté composant, agile, robuste, basé sur le principe de processus communicants, il en reprend certains principes fondamentaux. Pour autant, AROS constitue une rupture technologique forte par rapport à RTMaps. D'abord, une application AROS est une construction hiérarchique de composants, interconnectés par des signaux. Cette architecture est reconfigurable dynamiquement pendant l'exécution. Ensuite, le moteur d'exécution d'AROS est un moteur événementiel proche de celui des outils de simulation HDL auquel sont ajoutés des mécanismes de synchronisation temps réel. Enfin, la distribution des composants d'une application AROS sur un réseau de machines et/ou dans différents processus d'une même machine est non seulement possible mais dynamique et totalement transparente grâce à un modèle d'exécution distribué qui garantit le respect de la causalité des événements. En outre, AROS supporte diverses plate-formes telles que Windows ou Linux, et peut également fonctionner sur les petites cibles, sans système d'exploitation.

Novembre : Jeudi 13 novembre 2008 de 13h30-15h30

Thème « Traitement d'images et logiciel » :

1. Lieu :

Mines ParisTech, Bd Saint-Michel
salle  L-118.

2. Descriptif :

PREMIER EXPOSÉ: 13h30-14h30

Orateurs: Etienne Decencière (CMM, etienne.decencière@mines-paristech.fr)
         Serge Koudoro (CMM, serge.koudoro@mines-paristech.fr)

Titre: Morph-M : plateforme de traitement d'images et morphologie mathématique

Résumé: Une librairie logicielle de traitement d'images, appelée Morph-M, a été développée au CMM. Avec l'infrastructure logicielle associée, elle fournit aux chercheurs du laboratoire une plateforme de recherche et développement leur permettant de mettre en oeuvre rapidement et efficacement de nouveaux concepts, et leur servant de base commune de capitalisation. Grâce au financement du Carnot MINES, Morph-M et la librairie logicielle de traitement d'images (Camellia) et d'apprentissage statistique (Seville / LibAdaboost) du CAOR seront intégrées et mises à disposition d'autres laboratoires. Dans cet exposé, nous présenterons Morph-M et le projet de développement conjoint avec le CAOR.

SECOND  EXPOSÉ: 14h30-15h30

Orateurs: Bruno Steux (CAOR, bruno.steux@mines-paristech.fr),
         Fabien Moutarde  (CAOR, fabien.moutarde@mines-paristech.fr)

Titre: Les points d'intérêt dans Camellia (CamKeypoints): théorie, implémentation, et exemples d'applications en analyse intelligente d'images

Résumé:  Après une rapide introduction aux méthodes récentes de recherche de points d'intérêt (SIFT, SURF), nous présenterons l'implémentation proposée dans la librairie Camellia. Nous insisterons sur ses spécificités et en particulier sur l'algorithme Best-Bin-First de mise en correspondance de points d'intérêts. Nous évoquerons ensuite
l'association entre Keypoints et Adaboost en vue de la reconnaissance d'objets. Nous terminerons par des exemples d'utilisation, notamment la ré-identification de personnes dans un réseau de caméras.

Décembre : Jeudi 11 décembre 2008 de 14h00-16h00

Thème « optimisation » :

1. Lieu :

Mines ParisTech, Bd Saint-Michel
salle  L-118.

2. Descriptif :

PREMIER EXPOSÉ: 14h00-15h00

Orateur: Marc Bordier (CMA, marc.bordier@mines-paristech.fr)

Titre: Optimisation sur le cône des matrices positives. Application en contrôle

Résumé: La synthèse de correcteurs multi-objectifs est un problème difficile non encore complètement résolu. Cependant, en exprimant les contraintes de performances ($H_2$ ou $H_\infty$ par exemple) sous forme d'inégalités matricielles linéaires (LMI) on peut ramener  cette synthése à un problème d'optimisation  convexe paramétrique sur le cône des matrices positives. Dans ce séminaire, on montrera comment un résultat de dualité conique et un paramétrage des fonctions rationnelles "all-pass" permet de bâtir  des suites minimisantes de correcteurs convergeant vers une solution locale du problème.

SECOND EXPOSÉ: 15h00-16h00

Orateur: Grégory Rousseau (CAS et IFP, gregrousseau@yahoo.fr)

Titre: Contrôle optimal de véhicules hybrides.

Résumé:  Les véhicules hybrides disposent de deux moteurs (en général électrique et thermique), qui peuvent assurer, seuls ou conjointement, la propulsion du véhicule. Grâce à la présence de ces deux moteurs, il est possible de réduire la consommation de carburant de ces véhicules en utilisant une loi de gestion d'énergie dédiée. Ce problème de contrôle des moteurs peut être vu comme un problème de commande optimale, où la batterie alimentant le moteur électrique représente un système dynamique. Deux sous problèmes apparaissent : soit le cycle est connu, et la trajectoire du véhicule est elle-même entièrement connue, soit il s'agit d'un trajet en temps-réel, auquel cas la trajectoire future du véhicule est alors indéterminée. Dans cet exposé seront détaillées les différentes manières de poser et de résoudre le problème de commande optimale pour une trajectoire connue, comprenant notamment la présentation d'un algorithme apte à gérer la présence de contraintes sur l'état (qui apparaissent à cause de la présence du système de stockage d'énergie électrique).Une stratégie temps-réel implémentée sur un véhicule hybride prototype est présentée dans un second temps.

Janvier : Jeudi 15 janvier 2009 de 14h00-15h00

Thème : « certification des logiciels et automatique »

1. Lieu :

Mines ParisTech, Bd Saint-Michel
salle  L-218.

2. Descriptif :

UN SEUL EXPOSÉ: 14h00-15h00

Orateur: Eric Féron (Georgia-Tech)

Titre: Analyse et garanties sur les logiciels de commande (Exposé en pdf)

Résumé : La théorie de la commande a effectué des progrès considérables sur l'établissement de preuves du bon fonctionnement des systèmes en boucle fermée. Néanmoins, la relation entre ces preuves et le processus de certification des logiciels de commande tels que ceux utilisés par les systèmes aérospatiaux et automobiles reste ténue. Cela vient en partie de différences (apparentes) entre automaticiens et informaticiens sur la notion de "preuve" de bon comportement d'un système, ainsi que de différences (réelles) de vocabulaire utilisé. Dans cette présentation, on utilisera un exemple simple pour montrer comment les preuves de stabilité et performance disponibles pour des systèmes en boucle fermée peuvent être utilisées pour développer des preuves formelles sur le bon fonctionnement des logiciels correspondants à des niveaux arbitraires d'implantation. On en tirera des recommandations sur l'évolution future de pratiques telles que l'autocodage.

Sur l'orateur : Eric Féron est professeur de génie aérospatial au Georgia Institute of Technology. Ses intérêts portent sur l'application des théories de la commande, de l'optimisation et de l'informatique à des systèmes d'intérêt aérospatial. Son dernier livre est une traduction en anglais de la thèse de Bézout sur la théorie des systèmes d'équations algébriques. Eric Feron est ancien éleve de l'École Polytechnique; Il a obtenu un DEA en informatique de l'X-ENS et un doctorat en génie aérospatial de Stanford University.

Février : Jeudi 12 février 2009 de 14h00-16h00

Thème « logistique, prospective et optimisation » :

1. Lieu :

Mines ParisTech, Bd Saint-Michel
salle  L-218.

2. Descriptif :

PREMIER EXPOSÉ: 14h00-15h00

Orateur: Olivier Davidau (CMA, olivier.davidau@mines-paristech.fr)

Titre: Valorisation de quotas de CO2 par prix d'indifférence

Résumé: Dans le cadre des efforts internationaux de réduction des émissions de gaz à effet de serre, l'Union Européenne a mis en place, pour un certain nombre de secteurs industriels, un système de permis d'émission de CO2. Ce système est organisé autour d'un marché sur lequel les acteurs peuvent acheter ou vendre des quotas afin de compenser leur surplus (ou déficit) d'émission de CO2 par rapport à un seuil autorisé.L'objet de notre recherche est de poser puis de résoudre le problème de contrôle stochastique que rencontre un industriel faisant partie de ce système d'échange de quotas. Cet industriel se trouve alors devant l'alternative suivante : acheter des quotas d'émissions pour couvrir ses émissions réelle ou prendre le risque de payer une taxe pour les émissions qui n'étaient pas couvertes par des permis d'émission. L'approche par prix d'indifférence consiste à comparer l'utilité de l'industriel pour chaque choix de stratégie (avec ou sans quotas) et d'en déduire un prix de quotas qui rendrait équivalent ces deux choix. Ce prix définit la limite au delà de laquelle l'industriel va changer de stratégie. Pour ce faire il faut calculer les utilités des différentes stratégies dans un univers incertain. Ce qui implique de résoudre un problème de programmation dynamique qui conduit au calcul d'une fonction valeur vérifiant une équation de type Hamilton-Jacobi-Bellman. Au delà du calcul d'un prix de quotas, on pourra s'intéresser à sa sensibilité aux différents paramètres du problème, dont le niveau de la taxe fixée pour les émissions excédentaires.

SECOND EXPOSÉ: 15h00-16h00

Orateur: Loïc Delaître  (CAOR, loic.delaitre@mines-paristech.fr)

Titre: Diminuer les impacts sur la congestion en améliorant la localisation des aires de livraison

Résumé: Les plans d'aires de livraison se construisent de manière progressive en réponse aux demandes ponctuelles visant à résoudre certains problèmes locaux, sans que les aménageurs tiennent compte de possibles conséquences au niveau global. Or, si un plan est mal dimensionné ou si les aires sont mal réparties, l'efficacité des opérations de livraison en ville diminue rapidement. Un nombre insuffisant d'aires a pour conséquence de nombreux stationnements illicites pour cause de livraison, qui freinent l'écoulement des flux de véhicules, tandis qu'un nombre trop important de ces aires provoque une jachère inutile de l'espace public. Pour obtenir un bon équilibre, les autorités organisatrices de transports ont besoin d'outils permettant de diagnostiquer selon une vue globale les problèmes de logistique urbaine. Dans ce papier, nous présentons l'outil DALSIM© (Delivery Areas and Logistics Simulation), qui utilise conjointement la recherche opérationnelle et la dynamique des systèmes et associe un module dédié au fonctionnement des aires de livraison fondé sur les files d'attente à un module qui simule la propagation de la gêne occasionnée au trafic général par les livraisons. Sur la base de cet outil, nous nous intéressons plus particulièrement à l'impact de la localisation des aires de livraison sur les flux de circulation dans le cas de la ville de La Rochelle.

Mars : Jeudi 12 mars 2009 de 14h00-16h00

Thème « réalité virtuelle » :

1. Lieu :

Mines ParisTech, Bd Saint-Michel
salle  L-118.

2. Descriptif :

EXPOSÉ: 14h00-15h00

Orateur: Laure Leroy (CAOR,  laure.leroy@ensmp.fr)

Titre : amélioration des images stéréoscopiques par flou adaptatif: proposition de trois algorithmes. (Exposé en pdf)

Résumé: De plus en plus de prototypes se font en virtuel, Pour une meilleur perception, ces prototypes sont présenté en stéréoscopie. Mais certaines études ont montré que de hautes fréquences spatiales alliées à de fortes disparités des image stéréoscopique (lorsque l'objet virtuel est éloigné de l'écran) pouvait générer de la fatigue visuelle et de l'inconfort pour les personnes qui regardent ces images. Une méthode pour diminuer cette fatigue visuelle est donc de supprimer les hautes fréquences spatiales aux endroits des grandes disparités en temps réel. Je présenterai trois algorithmes qui permettent de couper ces hautes fréquences localement. Le premier est basé sur les transformées en ondelettes. Le deuxième algorithme est une variation de l'algorithme SURF. Le troisième est une programmation sur carte graphique de flou gaussien. Pour chaque algorithme, nous verrons les avantages, les inconvénients et nous chercherons les différences mathématiques entre chaque algorithme.

VISITE 15h00-16h00

Une visite de la salle de réalité virtuelle du CAOR est organisée par Philippe Fuchs

Avril : Jeudi 9 avril 2009 de 14h00-16h00

Thème « Mobile Mapping System » :

1. Lieu :

Mines ParisTech, Bd Saint-Michel
salle  L-218.

2. Descriptif :

PREMIER EXPOSé: 14h00-15h00

Orateur: Taha Ridene (CAOR, taha.ridene@mines-paristech.fr)

Titre : Fusion de données et géo-référencement d'images multi-sources : Recalage hétérogènes de données 3D d'environnements urbain

Résumé: Le développement des bases de données cartographiques 2D/3D a augmenté de façon considérable dans ces dernières années, se caractérisant par des portées à différentes échelles. Ces développements ont été poussés par de nombreux besoins, et soutenus par de véritables progrès technologiques, dont la diversité des approches de numérisation 3D. Ces approches se basent sur des méthodes de fusion et de mise en cohérence de données multi sources (données de positionnement, données images.). Les méthodes de fusion et de mises en cohérence sont précédées en général par des traitements préliminaires, tel que le recalage et le filtrage. Nous présenterons nos travaux dans le cadre du projet TerraNumerica, se rapportant à la thématique du recalage rigide. Nous avons recensé 3 scénarios de recalage 3D en lien avec les types de données manipulées :
-1- Recalage entre différentes données laser 3D issues du Système de Cartographie Mobile  Lara3D développé au centre de robotique;
-2- Recalage entre données laser Lara3D avec des données laser 3D issues d'un scanner fixe au sol;
-3- Recalage entre données Laser 3D Lara3D avec des données 3D aériennes : MNS (Modèle numérique de surfaces) produit par des approches de corrélation d'images satellitaires.

SECOND EXPOSÉ: 15h00-16h00

Orateur:Jorge Hernández (CMM, jorge.hernandez@mines-paristech.fr)

Titre : Analyse morphologique d'images pour la modélisation d'environnements urbains.

Résumé: La modélisation d'environnements urbains permet le développement de nombreuses applications telles que : la navigation 3D, la valorisation du patrimoine, le tourisme virtuel, la simulation d'évacuation en cas de catastrophe naturelle, l'étude de l'impact environnemental de l'aménagement urbain, la mise à jour de données cadastrales, etc.
Cette thèse se développe dans le cadre du projet TerraNumérica du pôle de compétitivité mondial Cap Digital. Ce projet a pour objectif le développement d'une plateforme de production et d'exploitation permettant d'augmenter la productivité et le réalisme de la modélisation d'environnements urbains synthétiques. Le but de cette thèse est de développer des algorithmes d'analyse d'images pour une interprétation sémantique de scènes urbaines.Nous disposons d'images de textures, ainsi que de nuages de points représentant la géométrie de la scène.
L'exposé abordera plusieurs aspects de l'analyse :
-1- Segmentation de nuages de points en pâtés de maisons;
-2- Filtrage de nuages de points en supprimant les artefacts (piétons, voitures, lampadaires.);
-3- Localisation du trottoir, permettant une modélisation au niveau du sol;
-4- Segmentation de pâtés de maisons en bâtiments indépendants;
-5- Division de façades en étages, localisation de fenêtres, permettant de paramétrer automatiquement les modèles de bâtiments.

Mai : Jeudi 14 mai 2009 de 14h00-16h00

Thème « estimation et géométrie de l'information » :

1. Lieu :

Mines ParisTech, Bd Saint-Michel
salle  L-218.

2. Descriptif :

PREMIER EXPOSé: 14h00-15h00

Orateur:Lionel Daniel (CMA, lionel.daniel@mines-paristech.fr)

Titre : Inférence et mesures dans les bases de connaissances incertaines et inconsistantes

Résumé: Le contexte applicatif de ma thèse est la détection de menaces maritimes visant le port industriel de Marseille.
Mes objectifs sont de
1) fournir à des experts un langage formel qui leur permette d'exprimer ces menaces, de
2) décrire un processus de détection robuste à l'inconsistance et l'imprécision sur l'incertitude des données capteurs, et de
3) mesurer la qualité des données capteurs (afin de reconfigurer ces capteurs).
Nous proposons d'exprimer les menaces au moyen d'automates où les conditions de transitions sont de la forme "Proba("BateauX_est_dans_ZoneY") >= 80%". Les données capteurs sont de la forme "Proba("BateauX_est_dans_ZoneY") >= 60%"; ces données peuvent être contradictoires. Le processus de détection de menaces doit décider si "Proba("BateauX_est_dans_ZoneY") >= 80%" est vraie d'après "Proba("BateauX_est_dans_ZoneY") >= 60%". Afin de répondre à cette question, des notions philosophiques de "sens commun" sont introduites sous forme de principes (travaux de Jeff Paris, Manchester, UK).  Ces principes nous dictent la décision à prendre. Des principes sont également élaborés dans le but (inachevé) de caractériser des mesures sur les données capteurs (mesures de dissimilarité, d'incohérence, d'inconsistance, d'information).

SECOND EXPOSé: 15h00-16h00

Orateur:Silvère Bonnabel (CAOR, silvere.bonnabel@mines-paristech.fr)

Titre : Calculer avec des matrices symétriques semi-définies positives de rang faible : une approche géométrique.

Résumé: Les matrices symétriques définies positives apparaissent dans de nombreuses branches de l'ingénierie et des mathématiques appliquées. Comme variables (programmation convexe, problèmes de LMI, équations de Lyapunov), matrices de covariance (statistiques, traitement du signal), tenseurs de diffusion (imagerie bio-médicale), méthodes à noyau (apprentissage). Il est naturel de s'interroger sur la manière de faire des calculs avec ces matrices (calcul de distances ou déviations, interpolation, moyennes, filtrage). Les liens avec la géométrie de l'information (les matrices sont vues comme des covariances de distributions gaussiennes) permettent d'équiper l'espace des matrices définies positives d'une métrique judicieuse (dite de Fisher ou naturelle), car invariante par changement de coordonnées. Cette métrique a récemment été utilisée dans plusieurs applications. La moyenne associée est connue sous le nom de « moyenne géométrique » de matrices. Ceci dit, la complexité numérique associée aux algorithmes utilisant les matrices définies positives étant typiquement de l'ordre de O(n3 ), elles ne peuvent pas être directement utilisées dans un nombre croissant de problèmes de grande dimension. Une solution classique pour réduire la complexité consiste à travailler avec des approximations de rang faible de ces matrices (noyaux de rang faible en apprentissage, filtre de Kalman de rang faible en océanographie ...).
Dans cet exposé nous présenterons deux géométries pour les matrices symétriques semi-définies positives (SDP) de rang faible. La première sera étudiée en détail et peut être vue comme une extension de la géométrie naturelle au cas du rang faible. La moyenne associée peut être vue comme moyenne géométrique de matrices de rang faible. La seconde géométrie, plus simple, sera simplement illustrée par un exemple d'apprentissage en ligne d'une matrice SDP de rang fixé (noyau de rang faible) à partir de l'observation de certaines de ses coordonnées, la contrainte de rang rendant le problème non-convexe. La méthode repose sur le choix adapté de cette géométrie et sur un algorithme de gradient stochastique.


Octobre : Jeudi 8 octobre 2009 de 14h00-16h00

Thème « apprentissage » :

1. Lieu :

Mines ParisTech, Bd Saint-Michel
salle  L-218.

2. Descriptif :

PREMIER EXPOSé: 14h00-15h00

Orateur:Mathieu Galtier (INRIA Sophia,Equipe NeuroMathComp mathieu.galtier@googlemail.com)

Titre : Learning Neural Fields : a mathematical framework to address cortical dynamics

Résumé: Computational neuroscience is a growing field of research. It pretends to bring some answers to the functioning of the Brain by considering mathematical models of either a single a nervous cell or a network of neurons.
In this talk, I will give an insight of the work done in my team (NeuroMathComp, INRIA Sophia) lead by Olivier Faugeras and then focus on my contribution. Based on a simplistic model of a neuron, we address the behavior of macroscopic neural networks which evolution is governed by a functional integro differential equation where the network connectivity plays a major role.
The basic properties of this Neural Field (well-posedness, stability, boundedness) will be first discussed.
Secondly, after a short summary of cortical anatomy, I will explain my contribution to the field: how correlation based learning can shape the network. The consequences in term of pattern recognition will be discussed. And I will conclude by designing the global architecture the cortex might implement.

SECOND EXPOSé: 15h00-16h00

Orateur:Fantine Mordelet (CBIO, fantine.mordelet@ensmp.fr)

Titre : Machine learning and kernel methods for reconstructing biological networks

Résumé: This presentation will focus on a particular type of biological network called a transcriptional regulatory network.Living cells are the product of gene expression programs that involve the regulated transcription of thousands of genes. The inference of transcriptional regulatory networks is thus needed to understand the cell's working mechanism, and can for example, be useful for the discovery of novel therapeutic targets. Still the size and complexity of biological data make it very challenging to solve such a problem.
I will first give a brief overview of a famous kernel method called 'Support vector machines' and I will then show how it can be applied to the inference problem mentioned above.


Novembre : Jeudi 12 novembre 2009 de 14h00-16h00

Thème « robots mobiles et drones » :

1. Lieu :

Mines ParisTech, Bd Saint-Michel
salle L-218.

2. Descriptif :

PREMIER EXPOSé: 14h00-15h00

Orateur:Krzysztof Kozlowski (Poznan University of Technology, krzysztof.kozlowski@put.poznan.pl)

Titre : Application of polar-like coordinates in stabilization and trajectory tracking problems for selected nonholonomic systems

Résumé: In this presentation three nonholonomic systems are considered: a three-link manipulator with nonholonomic gears, a first order chained system and a unicycle mobile robot. For all considered systems polar-like coordinate transformation is used. For the three-link manipulator with nonholonomic gears regulation problem is considered. Robustness control issue around equilibrium point is discussed and switching algorithm is proposed in order to improve the control performance. For the first order chained system the discontinuous stabilizer is considered. Presented control strategy gives possibility to obtain fast convergence regulation errors without oscillatory behavior. A robustness of the controller in the neighborhood of the desired point is ensured via additional non-smooth techniques. A new control law which guarantees asymptotic stabilization for the unicycle mobile robot in trajectory tracking task is designed. In order to improve transient states continuous finite-time convergence algorithm for orientation control based on terminal sliding mode is used. The simulation results are given in order to show the effectiveness of the proposed control methods.

SECOND EXPOSé: 15h00-16h00

Orateur:Philippe Martin (CAS, philippe.martin@mines-paristech.fr)

Titre : Estimation d'état pour les drones aériens

Résumé: L'estimation de l'état (ou plus exactement de l'attitude et du vecteur vitesse) est primordiale pour le bon fonctionnement des drones aériens, en particulier à voilure tournante. En effet ces drones sont instables en boucle ouverte ; pour les piloter facilement et a fortiori pour les faire fonctionner de manière autonome, il est donc nécessaire de les stabiliser par un algorithme de commande en boucle fermée, algorithme qui utilisera forcement de manière directe ou indirecte une estimation de l'état. De nombreux capteurs sont susceptibles d'être utilisés : capteurs inertiels (cad gyroscopes et accéléromètres), GPS, magnétomètres, capteurs de pression, télémètres, radar Doppler, systèmes de vision, etc., chacun avec ses avantages et inconvénients. Les informations provenant des différents capteurs sont ensuite "fusionnées" en temps réel avec un modèle dynamique du système par l'algorithme d'estimation, afin de fournir (une estimation de) l'état du drone. On peut distinguer essentiellement deux approches du problème, avec également des avantages et des inconvénients : les estimateurs "génériques", qui supposent d'une manière ou d'une autre que les forces et/ou moments agissant sur le drone sont directement mesurés, et n'ont donc pas besoin d'en avoir une modélisation explicite; les estimateurs "spécifiques", qui utilisent explicitement une telle modélisation. L'exposé se propose d'aborder de manière synthétique les différents choix et compromis qui se posent pour la conception d'estimateurs, à la fois en termes de capteurs, d'approche et d'algorithmes d'estimation.


Décembre : Jeudi 10 décembre 2009 de 14h00-15h00

Thème « robots mobiles et drones » :

(suite et fin du séminaire du 12 novembre 2009)

1. Lieu :

Mines ParisTech, Bd Saint-Michel
salle  L-218.

2. Descriptif :

PREMIER EXPOSÉ: 14h00-15h00

Orateur:Philippe Martin (CAS, philippe.martin@mines-paristech.fr)

Titre : Estimation d'état pour les drones aériens

Résumé: L'estimation de l'état (ou plus exactement de l'attitude et du vecteur vitesse) est primordiale pour le bon fonctionnement des drones aériens, en particulier à voilure tournante. En effet ces drones sont instables en boucle ouverte ; pour les piloter facilement et a fortiori pour les faire fonctionner de manière autonome, il est donc nécessaire de les stabiliser par un algorithme de commande en boucle fermée, algorithme qui utilisera forcement de manière directe ou indirecte une estimation de l'état. De nombreux capteurs sont susceptibles d'être utilisés : capteurs inertiels (cad gyroscopes et accéléromètres), GPS, magnétomètres, capteurs de pression, télémètres, radar Doppler, systèmes de vision, etc., chacun avec ses avantages et inconvénients. Les informations provenant des différents capteurs sont ensuite "fusionnées" en temps réel avec un modèle dynamique du système par l'algorithme d'estimation, afin de fournir (une estimation de) l'état du drone. On peut distinguer essentiellement deux approches du problème, avec également des avantages et des inconvénients : les estimateurs "génériques", qui supposent d'une manière ou d'une autre que les forces et/ou moments agissant sur le drone sont directement mesurés, et n'ont donc pas besoin d'en avoir une modélisation explicite; les estimateurs "spécifiques", qui utilisent explicitement une telle modélisation. L'exposé se propose d'aborder de manière synthétique les différents choix et compromis qui se posent pour la conception d'estimateurs, à la fois en termes de capteurs, d'approche et d'algorithmes d'estimation.

Février : Jeudi 11 février 2010 de 14h00-16h00

Thème « Classification et fonction de Green » :

1. Lieu :
Mines ParisTech, Bd Saint-Michel
salle  L-218.

2. Descriptif :

PREMIER EXPOSÉ : 14h00-15h00

Orateur: Fatin Zaklouta (CAOR, fatin.zaklouta@mines-paristech.fr )

Titre: Les techniques de classification multi-catégories d'objets

Résumé: Une bonne classification dépend des classificateurs faibles discriminatifs utilisés, et de l'efficacité des algorithmes les combinant. Le choix des classificateurs dépend des objets à reconnaître. En traitement d'images, les classificateurs faibles globaux dits 'Haar-like', recherchant des gradients de luminosité, sont souvent utilisés à cause de leur simplicité et de leur efficacité en termes de taux détection et de temps de calcul. Ils donnent de bons résultats en combinaison avec des algorithmes d'apprentissage comme Adaboost. Des classificateurs faibles locaux, comme les points d'intérêt, sont classés par Adaboost grâce à un système d'apprentissage supervisé type SVM avec un noyau approprié qui gère les groupes des descripteurs. Le passage d'un ensemble de classificateurs binaires vers un classificateur multi-catégories peut être partagés en deux catégories: "one-vs-all" et "one-vs-one". Dans cet exposé, un exemple de méthode "one-vs-all" sera présenté, mettant en œuvre l'apprentissage d'un Modèle de Markov Caché sur les groupes des descripteurs des points d'intérêt SURF. Ensuite sera montrée une technique "one-vs-one" à base de Codes Correcteur d'Erreur, permettant de partager les classes en deux groupes à chaque étape d'apprentissage d'Adaboost, créant ainsi un classificateur multi-catégories.

SECOND EXPOSÉ: 15h00-16h00

Orateur: François Willot (CMM, francois.willot@mines-paristech.fr )

Titre: Homogénéisation et comportement effectif de matériaux hétérogènes :
calculs numériques par transformées de Fourier

Résumé: Les propriétés physiques de matériaux composites dépendent fortement de la distribution spatiale des hétérogénéités, et plus particulièrement dans les cas dits de "contraste infini" entre les phases : milieux poreux ou à renforts rigides en mécanique, présence d'isolants en conductivité ou d'obstacles pour les problèmes d'écoulements. Les approches analytiques existantes, bornes ou estimations, qui prennent en compte un nombre restreint d'informations sur la microstructure, comme les fractions volumiques de chaque phase, ne permettent pas de rendre compte de la grande disparité des propriétés effectives observées. Le travail présenté ici s'appuie sur une méthode de calcul numérique par transformées de Fourier rapide (Moulinec et Suquet, 1994) qui, contrairement aux éléments finis, est directement appliquée à des images 3D de microstructures et ne nécessite pas de maillage. La méthode, qui se décline en différents algorithmes, repose sur l'utilisation de la fonction de Green et des équations de Lippmann-Schwinger et n'est pas restreinte aux comportements linéaires. Les équations d'équilibre et d'admissibilité des champs, i.e. équilibre des contraintes et existence d'un potentiel, sont traitées dans le domaine de Fourier, tandis que les propriétés locales des milieux sont traitées dans l'espace réel. L'utilisation de microstructures de grande taille en trois dimensions est essentiel pour prendre compte des effets de corrélation des champs à grande échelle, notamment au voisinage du seuil de percolation, et pour le calcul de volumes élémentaires représentatifs. Plusieurs applications sont présentées en élasticité linéaire et pour les propriétés de conductivité.

Mars : Jeudi 11 mars 2010 de 14h00-16h00

Thème « Estimation et diagnostic » :

1. Lieu :
Mines ParisTech, Bd Saint-Michel
salle  L-312.

2. Descriptif :

PREMIER EXPOSÉ: 14h00-15h00

Orateur: Anne-Claire Haury (CBIO, Anne-Claire.Haury@mines-paristech.fr)

Titre: Increasing stability and interpretability of gene expression signatures
A-C. Haury, L. Jacob and J-P. Vert

Résumé: Molecular signatures for diagnosis or prognosis estimated from large-scale gene expression data often lack robustness and stability, rendering their biological interpretation challenging. Increasing the signature's interpretability and stability across perturbations of a given dataset and, if possible, across datasets, is urgently needed to ease the discovery of important biological processes and, eventually, new drug targets. We propose a new method to construct signatures with increased stability and easier interpretability. The method uses a gene network as side interpretation and enforces a large connectivity among the genes in the signature, leading to signatures typically made of genes clustered in a few subnetworks. It combines the recently proposed graph Lasso procedure with a stability selection procedure. We evaluate its relevance for the estimation of a prognostic signature in breast cancer, and highlight in particular the increase in interpretability and stability of the signature (http://arxiv.org/abs/1001.3109).

SECOND EXPOSÉ: 15h00-16h00

Orateur: Zaki Leghtas (CAS/INRIA,  zaki.leghtas@mines-paristech.fr)

Titre: Mesure de grandeurs physiques atomiques par le biais du contrôle quantique

Résumé: Notre habilité à contrôler les fonctions d'ondes peut elle nous servir à mesurer certaines grandeurs physiques atomiques? Nous nous intéressons ici particulièrement au Rubidium. Les grandeurs physiques à estimer sont les moments dipolaires de transition entre états propres de l'hamiltonien propre du Rubidium. L'expérience consiste à exciter les atomes avec un champs électrique et mesurer la valeur moyenne d'une observable. L'information ainsi recueillie doit être utilisée afin d'estimer les moments dipolaires de transitions. Nous verrons dans un premier temps que pour des champs bien choisis, cette information est suffisante pour l'estimation. Ensuite nous proposerons une méthode d'inversion des résultats de mesures pour l'estimation des moments dipolaires de transition.

Avril : Jeudi 8 avril 2010 de 14h00-16h00

Thème « Image » :

1. Lieu :
Mines ParisTech, Bd Saint-Michel
salle  L-218.

2. Descriptif :

PREMIER EXPOSÉ: 14h00-15h00

Orateur: Jean Felder (CMM, jean.felder@cmm.ensmp.fr)

Titre: Développement de méthodes de traitement d'images pour la détermination de paramètres locaux de modèles géostatistiques.

Résumé: Les méthodes classiques de géostatistique permettent l'estimation (le krigeage) d'une variable aléatoire à partir d'un jeu de données. Elles se basent sur l'utilisation d'un variogramme pour calculer les corrélations spatiales des données. L'utilisation de ce modèle variographique permet de rendre compte globalement du comportement des données. Cependant, lorsque l'on doit traiter d'importants jeu de données ou lors de la présence de plusieurs structures complexes, ces méthodes ne permettent pas de bien estimer des tendances locales comme par exemple des anisotropies. Nous proposons ici, de déterminer des paramètres variographiques locaux ( dits M-paramètres ) par des méthodes de traitement d'images. L'objectif est de repérer des structures locales sur des images pour y calculer des portées (longueurs, largeurs) et des orientations. Ces paramètres retranscrivent avec une plus grande fidélité le comportement local des données.

SECOND EXPOSÉ: 15h00-16h00

Orateur: Raoul de Charette (CAOR, raoul.de_charette@ensmp.fr)

Titre: Application du traitement d'image pour la perception de l'environnement urbain:
cas appliqué de la reconnaissance de feux tricolores.

Résumé: Depuis le début des années 70 est apparu un nouveau domaine de recherche appliqué, les "Systèmes de Transports Intelligents" (ITS). Les première applications de véhicules intelligents consistaient alors à faire conduire des automobiles sur des routes libres de tout autre usager. Mais le temps et l'accroissement de la puissance informatique a mené à une complexification des situations abordées. Aujourd'hui, les systèmes d'aide à la conduite (ADAS) doivent gérer des situations plus complexes et pour cela il faut donc améliorer leur perception de l'environnement. Lors de cette présentation, nous nous attarderons particulièrement sur la perception de l'environnement en milieu urbain et présenterons le cas de nos recherches appliquées à la reconnaissance de feux tricolores.

Juin : Jeudi 10 juin 2010 de 14h00-15h00

Thème « Optimisation, matrices et "machine learning" » :

1. Lieu :
Mines ParisTech, Bd Saint-Michel
salle  L-218.

2. Descriptif :

UN SEUL EXPOSÉ: 14h00-15h00

Orateur: Rodolphe Sepulchre, University of Liege, Belgium (r.sepulchre@ulg.ac.be)

Titre: Rank-preserving optimization on the cone of positive semidefinite matrices: a geometric approach.

Résumé: The talk is an introduction to a recent computational framework for optimization over the set of fixed rank positive semidefinite matrices.
The foundation is geometric and the motivation is algorithmic, with a bias towards low-rank computations in large-scale problems. We will describe two quotient riemannian geometries that are rooted in classical matrix factorizations and that lead to rank-preserving efficient computations in the cone of symmetric positive definite matrices. The field of applications is vast, and the talk will survey recent developments that illustrate the potential of the approach in large-scale computational problems encountered in control, optimization, and machine learning. The talk is introductory and requires no particular background in riemannian geometry.

Novembre : Lundi 22 novembre 2010 de 10h00-12h00

Thème « Vision 3D et Environnements Virtuels à Carnegie Mellon (USA) et l'Univ. Laval (Canada) » :

1. Lieu :
Mines ParisTech, Bd Saint-Michel
salle  L-118.

2. Descriptif :

PREMIER EXPOSÉ: 10h00-11h00

Orateur: Martial Hebert is Professor at the Robotics Institute, Carnegie Mellon University.

His research interests include computer vision, especially object recognition, scene understanding, and video analysis, processing of 3-D data for building 3-D models, object recognition, scene analysis, and perception for autonomous mobile systems.  His current projects include the development of techniques for interpreting scenes and recognizing objects in images and in 3-D point clouds, for detecting events in video sequences, and for building 3-D representation of dynamic environments for unmanned mobile systems.  He is Editor-in-Chief of IJCV (International Journal of Computer Vision). He served in leadership positions in most of the top conferences in vision on robotics, most recently as Chiar of CVPR 2005, Program Chair of ICCV 2009, and CVPR 2013

Titre: 3D-ness, reasoning, and late commitment in scene interpretation.

Résumé: Scene interpretation, i.e., labeling objects and surfaces in image data, is a very difficult problem. Considerable progress in developing statistical classifers that operate on local features computed from the pixels has been achieved in the last decade. However, they are still limited to (simplifying a bit!) pattern classification operations for two reasons.
First, they do not account for the constraints afforded by the physical world seen in the image, including geometric constraints (what surface appear where), visibility constraints (which object occludes which) and even physical constraints.
Second, it is difficult to account for complex relationships between image elements. Graphical models and other structured models attempt to capture such models but they have limitations both practical in terms of computation and theoretical; additional reasoning tools in addition to now standard statistical inference are needed.
In this talk, I will present a series of approaches that attempt to estimate more and more complete scene interpretation from images. As we move through these different approaches, we will see how the level of geometric representation of the world ("3D-ness") increases, and how iterative reasoning about multiple hypotheses is used to manipulate complex models.

SECOND EXPOSÉ: 11h00-12h00

Orateur: Denis Laurendeau  (université de Laval, Québec).

Il détient un diplôme d'ingénieur en physique de même qu'une maîtrise et un doctorat (Ph.D.) en génie électrique de l'Université Laval à Québec. Ses intérêts de recherche portent sur la vision artificielle 2D et 3D, la réalité virtuelle et les applications biomédicales de la vision artificielle. Il est le directeur du Regroupement pour l'étude des environnements partagés intelligents répartis, un centre de recherche regroupant 5 universités québécoises. Il est également directeur du Laboratoire de vision et systèmes numériques de l'Université Laval. Il est présentement président de l'International Association for Pattern Recognition (IAPR), une association internationale regroupant 9000 membres provenant de 42 pays dont les intérêts de recherche portent sur la reconnaissance de formes et les disciplines associées.

Titre: Environnements intelligents: convergence entre réalité et virtualité.

Résumé: La présentation porte sur un survol des recherches présentement en cours au sein du Regroupement pour l'étude des environnements partagés intelligents répartis (REPARTI). Les plus récents résultats obtenus par les chercheurs du centre sont présentés pour les trois axes de recherche : perception, modélisation, interaction.

Décembre : Jeudi 9 décembre 2010 de 14h00-16h00

Janvier : Jeudi 13 janvier 2011 de 14h00-15h00

Thème « Apprentissage statistique » :

1. Lieu :
Mines ParisTech, Bd Saint-Michel
salle  L-218.

2. Descriptif :

UN SEUL EXPOSÉ : 14h00-15h00

Orateur: Edouard Pauwels (CBIO, 06pauwel@ensmp.fr)

Titre: Analyse statistique de liens entre les espaces moléculaires et phénotypiques

Résumé:Dans le cadre du développement de médicaments, il est nécessaire de pouvoir prévoir et comprendre l'activité d'une molécule sur l'organisme. Les méthodes d'analyse de données peuvent apporter une compréhension statistique et être utilisées dans un cadre de prédiction. L'interprétation des résultats de ces méthodes devient toutefois hasardeuse en grandes dimensions. L'introduction d'une contrainte forçant la sparsité dans l'analyse, permet d'améliorer la qualité de l'interprétation ainsi que les performances de prédiction de la méthode. Je présenterai dans un premier temps une méthode récente d'analyse de données basée sur la décomposition pénalisée de matrices de covariance. Les performances de prédiction de la méthode seront comparées à celles d'autres méthodes d'apprentissage (SVM, Nearest Neighboor) dans le cadre de deux études biologiques : Interactions protéines-ligands et effet secondaires de médicaments.

Février : Jeudi 10 février 2011 de 14h00-15h00

Thème «Traitement du signal » :

1. Lieu :
Mines ParisTech, Bd Saint-Michel
salle  L-224.

2. Descriptif :

UN SEUL EXPOSÉ: 14h00-15h00

Orateur: Ram Sommaraju (CAS et INRIA, a.somaraju@gmail.com).

Titre: Degrees of Freedom of a Communication Channel

Résumé: A fundamental problem in any communication system is, given a communication channel between a transmitter and a receiver, can the channel be decomposed into independent sub-channels ? As an initial example to motivate this question, we look at the classical problem of evaluating the (Shannon) capacity of a band-limited channel. This evaluation uses the singular value decomposition theorem of linear operators defined on Hilbert spaces.
We then examine how one can model general communication channels using (linear) compact operators between Banach spaces and ask the question: is it possible to find "singular vectors" and "singular values" which can be used to decompose the communication channel into sub-channels. We provide a possible solution to the problem of decomposing such a communication channel and leave the audience with some open questions in both classical and quantum information theory.

 

Mars : Jeudi 10 mars 2011 de 14h00-15h00

Thème «Cryptographie » :

1. Lieu :
Mines ParisTech, Bd Saint-Michel
salle  L-218.

2. Descriptif :

UN SEUL EXPOSÉ: 14h00-15h00

Orateur: Fabien Coelho (CRI, fabien.coelho@mines-paristech.fr).

Titre: Fonctions cryptographiques de preuve d'effort

Résumé: Les fonctions cryptographiques de preuve d'effort ont été introduites en 1993 par Dwork et Naor. Elles sont une mesure économique de régulation de l'accès à un service, en permettant à un serveur de requérir de la part d'un client qui lui demande un service un calcul long (timbre virtuel) pour prouver son intérêt, la vérification du calcul devant être rapide du côté du serveur.Un exemple typique d'un tel système est "hashcash" qui a été proposé comme élément de régulation des spams. Il s'agit de concevoir des fonctions non optimisables (au sens informatique du terme) qui requiert un temps de calcul important, par exemple une recherche de solution dans un ensemble, la solution trouvée étant rapide à vérifier. Nous présenterons les deux types de fonctions de preuve d'effort, "challenge-response" interactives et "solution-verification" sans interaction.
Nous introduirons deux critères d'optimalité pour ces fonctions, les appliquerons aux fonctions proposées dans la littérature, puis discuterons de la borne et de la variance du temps de calcul pour le client.Nous discuterons ensuite d'une classe de fonctions de preuve d'effort, proposée par Martín Abadi (actuellement au Collège de France) qui vise à limiter les performances en introduisant des accès mémoire dans le calcul, de manière à dépendre des performances des accès mémoire, qui varient moins d'une machine à l'autre que les performances des processeurs.
Nous présenterons enfin deux nouvelles fonctions de type "solution-vérification", l'une optimal et limité par des accès mémoire, la seconde limitée par les calculs et semi-optimale mais de temps de calcul borné et de variance très faible.

Avril : Jeudi 14 avril 2011 de 14h00-16h00

Thème « Apprentissage » :

1. Lieu :
Mines ParisTech, Bd Saint-Michel
salle  L-224.

2. Descriptif :

PREMIER EXPOSÉ: 14h00-15h00

Orateur: Yufei Han  (CAOR, Yufei.Han@mines-paristech.fr).

Titre: Data mining of Network-level Road Traffic States based on Non-Negative Matrix Factorization.

Résumé:In this presentation, we will introduce our work on modeling and describing network-level road traffic states. Based on the proposed mechanisms, we can evaluate network-level traffic states of large-scale traffic network directly. Typically, network-level measurements of road traffic states with respect to a large traffic network are represented in the form of high-dimensional vectors, of which the dimensionality is proportional to the amount of roads in the network. Therefore, it results in difficulty in data mining tasks of the network-level traffic states. To attack this issue, we propose to use non-negative matrix factorization to project the high-dimensional network-level traffic state to low-dimensional manifolds, which is much easier to handle. Thanks to representative power of non-negative matrix factorization method, we can keep as much network-level traffic information as possible, while relax the curse of dimensionality. Based on the derived low-dimensional manifolds, we perform clustering of the network-level road traffic states, in order to find out the typical configurations of network-level traffic states. This provides prior knowledge of evolution of traffic flows in a large-scale traffic network. Following this idea, we further propose to predict network-level road traffic states directly by performing neural network based prediction on the derived low-dimensional representation of network-level traffic states, in stead of the original high-dimensional road traffic state measurements. This part of work is still under way.

SECOND EXPOSÉ: 15h00-16h00

Orateur: Guillaume Thibault (CMM, guillaume.thibault@mines-paristech.fr).

Titre: Imagerie multi paramétrique pour la découverte automatique de molécules protéiques agissant sur la division cellulaire en oncologie.

Résumé: Au cours de ces dernières années, des stratégies de criblage de molécules basées sur la recherche d'un effet pharmacologique au niveau cellulaire, plutôt que moléculaire, ont pris un nouvel essor grâce au concept de criblage phénotypique à haut contenu (HCS). Ce type de criblage permet de sélectionner directement des molécules capables de pénétrer les cellules et d'induire un changement phénotypique cellulaire d'intérêt. Il s'appuie sur l'utilisation combinée : Du marquage de protéines spécifiques présentes dans les cellules (GFP ou anticorps fluorescents) ; De l'imagerie microscopique automatisée ; De l'analyse d'images. L'analyse de changements phénotypiques complexes, combinant plusieurs marqueurs, plusieurs paramètres calculés à partir de ces différents marqueurs et plusieurs conditions de traitement, offre la possibilité de générer un phénotype et/ou des profils phénotypiques caractéristiques de l'effet pharmacologique d'une molécule donnée. La comparaison de profils phénotypiques peut alors permettre de sélectionner des molécules au mécanisme d'action original et/ou agissant sur des cibles innovantes. Pour être performants, les criblages phénotypiques nécessitent la mise en place de solutions technologiques adaptées à la détection, la quantification et l'analyse des changements observés.

L'objectif du projet RAMIS est de développer une stratégie innovante de criblage basée sur l'imagerie haute résolution pour la caractérisation phénotypique de nouvelles molécules et de nouvelles cibles interférant avec la division cellulaire de cellules cancéreuses humaines, en particulier avec la mitose. Le projet comprend deux axes bien distincts mais complémentaires : La constitution d'une base de données d'images à haut contenu d'information représentative de phénotypes induits par des traitements de référence (molécules, ARN interférent). Les images sont acquises avec une plate-forme de microscopie à fluorescence automatisée, à partir de cellules multi-marquées (ADN, microtubules, centrosomes, autre protéine). Dans un premier temps, ces images sont annotées manuellement par des experts afin de catégoriser chaque cellule et de formaliser la connaissance par apprentissage ; Le développement d'un logiciel, appelé RAMIS (Rock, Module d'Analyse et Interface pour le Screening), capable d'analyser ces images au niveau des cellules individuelles et de la population de cellules, et capable de générer et comparer des profils phénotypiques caractéristiques des traitements appliqués. Ce logiciel basé sur le dialogue homme-machine est organisé autour : (a) d'un moteur de consensus formalisant les connaissances de biologistes experts,(b) de bases de phénotypes / profils phénotypiques, (c) d'un moteur de recherche et de comparaison pour permettre l'identification et la caractérisation de traitements originaux.

Mai : Jeudi 12 mai 2011 de 14h00-16h00

Thème « Contrôle et estimation » :

1. Lieu :
Mines ParisTech, Bd Saint-Michel
salle  L-213.

2. Descriptif :

PREMIER EXPOSÉ: 14h00-15h00

Orateur:Lghani Menhour (CAOR, lmenhour@ensmp.fr)

Titre: Commande, estimation et diagnostic en dynamique des véhicules.

Résumé: La première partie de l'exposé est consacrée à la présentation d'une approche pour diagnostiquer les situations critiques provoquées par l'atteinte des limites physiques du véhicule. Cette application est connue sous le nom "diagnostic de rupture d'un itinéraire", elle consiste à identifier la vitesse limite de franchissement d'une infrastructure. Cette vitesse est mise en évidence par un fonctionnement du véhicule dans les zones non-linéaires. L'exploration vers la dynamique limite requiert un modèle du véhicule réaliste. La première phase de cette approche, est consacrée à la conception de lois de commande pour extrapoler le comportement du modèle du véhicule.  La deuxième phase de cette approche est l'estimation du dévers de la chaussée. Cette estimation est réalisée par un observateur à entrée inconnue, ceci dans le but de rendre la trajectoire plus réaliste et de tenir compte des effets du dévers sur le comportement dynamique du véhicule. La troisième phase de cette approche, présente l'extrapolation du comportement du véhicule, observé lors d'un passage en sollicitations modérées, vers une perte de contrôle virtuelle, cette extrapolation est réalisée en utilisant plusieurs instances du modèle dynamique exécutées avec des vitesses incrémentées, ces modèles sont contrôlés par des lois de commande et couplés à l'observateur du dévers. La dernière phase est consacrée à l'étude et à l'analyse des sorties des modèles extrapolés, en utilisant des critères de détection de la dynamique limite du véhicule. Une comparaison avec des données réelles est réalisée en utilisant les données expérimentales du véhicule prototype Peugeot 307 de l'IFSTTAR (ex INRETS/LCPC).
La deuxième partie de cet exposé est réservée à la présentation des résultats préliminaires obtenus dans le cadre du projet ANR-INOVE. Ces travaux portent sur la commande non linéaire couplée (longitudinale et latérale). La stratégie de commande proposée ici contrôle à la fois les mouvements longitudinal et latéral du véhicule via respectivement le couple de traction/freinage à la roue et l'angle de braquage. Cette commande utilise à la fois la linéarisation par feedback statique et une approche algébrique pour estimer les dérivées des signaux de références mesurées.  Cette méthode sera utilisée pour réaliser des manœuvres couplées comme le contrôle d'inter-distances entre véhicule et/ou l'évitement d'obstacles, le changement de voies ou toute autre manœuvre qui nécessite un contrôle couplé des mouvements longitudinaux et latéraux. Les premiers résultats de validation sont obtenus en comparant les performances de cette loi de contrôle pilotant un modèle du véhicule non linéaire à 10DDL avec des données expérimentales mesurées sous de fortes sollicitations dynamiques.

SECOND EXPOSÉ: 15h00-16h00

Orateur: Al Kassem Jebai (CAS, al-kassem.jebai@ensmp.fr).

Titre: Modélisation des moteurs à aimants permanents avec saturations magnétiques.

Résumé: Les moteurs synchrones à aimants permanents PMSM (Permanent Magnet Synchronous Motors) sont largement utilisés dans les applications industrielles grâce à leur rendement élevé. Pour contrôler ces moteurs, l'estimation de la position du rotor est nécessaire surtout à basse vitesse où il y a un problème théorique  d'observabilité. Un capteur de position ou de vitesse a un coût élevé et peut parfois dégrader la fiabilité et la robustesse du contrôleur.
Au cours des vingt dernières années plusieurs stratégies d'estimation de la position à partir des signaux électriques (courant et tension) ont été élaborées. Ces méthodes sont basées sur le modèle mathématique du moteur ou sur l'ajout des signaux hautes fréquences. En revanche, des phénomènes non linéaires comme la saturation magnétique introduisent des erreurs sur la position estimées surtout à basse vitesse. Ces erreurs dégradent les performances du contrôleur et peuvent conduire à l'instabilité du moteur.
On présente un modèle mathématique du moteur PMSM qui prend en compte les effets non linéaires de la saturation magnétique. Ce modèle provient d'une formulation énergétique. En effet, on modifie l'énergie magnétique du moteur en ajoutant des paramètres de saturation. Ce modèle est validé expérimentalement. Il permet d'expliquer et de compenser les erreurs d'estimation de la position du moteur dues à la saturation magnétique. Ce travail s'effectue dans le cadre d'une thèse avec Schneider Toshiba Inverter Europe (STIE). 

Juin : Jeudi 9 juin 2011 de 14h00-15h00

Thème « Modèles multi-échelles » :

1. Lieu :
Mines ParisTech, Bd Saint-Michel
salle  L-218.

2. Descriptif :

UN SEUL EXPOSÉ: 14h00-15h00

Orateur: Dominique Jeulin (CMM, dominique.jeulin@mines-paristech.fr)

Titre: Modèles probabilistes multi-échelles pour simuler des  microstructures complexes

Résumé: Les microstructures complexes rencontrées dans les matériaux impliquent souvent des  textures hétérogènes multi-échelles, qui peuvent être modélisées par des ensembles aléatoires développés en Morphologie Mathématique. Notre approche  s'appuie sur des images 2D ou 3D. Une caractérisation morphologique complète est utilisée pour l'identification d'un modèle de structure aléatoire. Dans cette présentation, nous  considérons des  modèles d'ensembles aléatoires booléens construits à partir de processus ponctuels multi-échelles de Cox, pour reproduire des microstructures présentant des hétérogénéités à différentes échelles. L'effet de ces échelles  multiples sur le comportement physique de milieux hétérogènes est illustré par des applications à des milieux réels.

Octobre : Jeudi 13 octobre 2011 de 14h00-15h00

Thème « Invariance et filtrage » :

1. Lieu :
Mines ParisTech, Bd Saint-Michel
salle  L-218.

2. Descriptif :

UN SEUL EXPOSÉ: 14h00-15h00

Orateur: Stéphane Mallat (CMAP, École Polytechnique, Paris)

Titre: Classification et Représentations Invariantes

Résumé: La classification de signaux (audio, images...) nécessite d'utiliser des représentations invariantes par l'action de certains groupes finis tels que des translations, des rotations ou des transformations affines. Stabiliser la classification relativement à des déformations élastiques impose aussi une continuité Lipschitzienne sur le groupe des difféomorphismes, que l'on n'obtient pas avec des représentations usuelles (Fourier, ondelettes).
Nous introduisons une classe d'opérateurs qui satisfont ces conditions d'invariance et de continuité Lipschitzienne, par une procédure non-linéaire de dispersion multi-échelle. Ces décompositions ont des similarités avec les opérateurs de dispersion en physique quantique et les invariants de Jauge. On obtient de nouvelles représentations des processus stationnaires, avec des applications pour la classification d'images, de textures et de sons. Certains enjeux de modélisation neurophysiologique du cortex visuel seront discutés.

Lien utile : http://www.cmap.polytechnique.fr/scattering 

Novembre : Jeudi 10 novembre 2011 de 14h00-15h00

Thème « Apprentissage et Bio-informatique » :

1. Lieu :
Mines ParisTech, Bd Saint-Michel
salle L-218.

2. Descriptif :

UN SEUL EXPOSÉ: 14h00-15h00

Orateur: Jean-Philippe Vert (CBIO, jean-philippe.vert@mines-paristech.fr)

Title: Machine learning and bioinformatics

Abstract: I will present a few problems in bioinformatics and cancer genomics that call for new data analysis and modelling methods. I will discuss some approaches we have been developing recently with statistical machine learning tools, in particular to introduce data- and problem-specific prior knowledge in statistically sound and computationally efficient procedures.

Décembre : Jeudi 8 décembre 2011 de 14h00-15h00

Thème « Parcimonie » :

1. Lieu :
Mines ParisTech, Bd Saint-Michel
salle  L-218.

2. Descriptif :

UN SEUL EXPOSÉ: 14h00-15h00

Orateur: Francis Bach (INRIA/ENS, francis.bach@inria.fr)

Title: Structured sparsity and convex optimization, Francis Bach

Abstract: The concept of parsimony is central in many scientific domains. In the context of statistics, signal processing or machine
learning, it takes the form of variable or feature selection problems, and is commonly used in two situations: First,  to make the model or the prediction more interpretable or cheaper to use, i.e., even if the underlying problem does not admit sparse solutions, one looks for the best sparse approximation. Second, sparsity can also be used given prior knowledge that the model should be sparse. In these two situations, reducing parsimony to finding models with low cardinality turns out to be limiting, and structured parsimony has emerged as a fruitful practical extension, with applications to image processing, text processing or bioinformatics.
In this talk, I will review recent results on structured sparsity, as it applies to machine learning and signal processing. (joint work with R. Jenatton, J. Mairal and G. Obozinski)

Janvier : Jeudi 12 janvier 2012 de 14h00-16h00

Thème « Contrôle et systèmes quantiques » :

1. Lieu :
Mines ParisTech, Bd Saint-Michel
salle  L-218.

2. Descriptif :

PREMIER EXPOSÉ: 14h00-15h00

Orateur : Igor Dotsenko (Laboratoire Kastler Brossel, ENS, igor.dotsenko@lkb.ens.fr)

Titre : Real-time quantum feedback prepares and stabilizes photon number states

Résumé: Feedback loops are central to most classical control procedures. A controller compares the signal measured by a sensor (system output) with the target value or set-point. It then adjusts an actuator (system input) to stabilize the signal around the target value. Generalizing this scheme to stabilize a micro-system’s quantum state relies on quantum feedback, which must overcome a fundamental difficulty: the sensor measurements cause a random back-action on the system. An optimal compromise uses weak measurements, providing partial information with minimal perturbation. The controller should include the effect of this perturbation in the computation of the actuator’s operation, which brings the incrementally perturbed state closer to the target. Although some aspects of this scenario have been experimentally demonstrated for the control of quantum or classical micro-system variables, continuous feedback loop operations that permanently stabilize quantum systems around a target state have not yet been realized. Here we have implemented such a real-time stabilizing quantum feedback scheme. It prepares on demand photon number states (Fock states) of a microwave field in a superconducting cavity, and subsequently reverses the effects of decoherence induced field quantum jumps. The sensor is a beam of atoms crossing the cavity, which repeatedly performs weak quantum nondemolition measurements of the photon number. The controller is implemented in a real-time computer commanding the actuator, which injects adjusted small classical fields into the cavity between measurements.The microwave field is a quantum oscillator usable as a quantum memory or as a quantum bus swapping information between atoms. Our experiment demonstrates that active control can generate non-classical states of this oscillator and combat their decoherence and is a significant step towards the implementation of complex quantum information operations.

DEUXIEME EXPOSÉ: 15h00-15h30

Orateur : Hadis Amini (CAS/INRIA, hadis.amini@mines-paristech.fr)

Titre : Feedback stabilization of discrete-time quantum systems

Résumé: This presentation is devoted to  the mathematical methods underlying the LKB quantum feedback experiment stabilizing photon-number states. This controlled system is governed by a discrete-time nonlinear Markov process. In open-loop, this Markov process admits  a set of martingales and  stationary pure states. These open-loop martingales are exploited  to  design  an adapted  Lyapunov feedback law that globally stabilizes the system towards a chosen target state among these  stationary pure states. Using a predictive quantum filter, the proposed feedback scheme is proved to be convergent  even in the presence of delays  and imperfect measurements.

TROISIEME EXPOSÉ: 15h30-16h

Orateur : Zaki Leghtas (INRIA/CAS, zaki.leghtas@inria.fr)

Titre : Stabilization by reservoir engineering of quantum systems: stabilizing entangled light with atoms

Résumé: Stabilization by reservoir engineering has the advantage, in comparison with feedback, to be fully insensitive to measurement errors and delays. We describe here a recent proposal where an entangled state of a microwave field in a superconducting cavity is stabilized. This is achieved by coupling the microwave field  to a stream of atoms. By carefully engineering this coupling, the microwave field state converges asymptotically towards  a  single predefined entangled state, whatever its initial condition is. The preparation and stabilization of such entangled states may have interesting applications to high precision metrology and quantum information processing.

Mars : Jeudi 8 mars 2012 de 14h00-16h00

Thème « Optimisation » :

1. Lieu :
Mines ParisTech, Bd Saint-Michel
salle  L-218.

2. Descriptif :

PREMIER EXPOSÉ: 14h00-15h00

Orateur : Ahmadou Thiam (CMA, ahmadou.thiam@mines-paristech.fr)

Titre : Optimisation face au risque marché: le cas d'un parc de cogénérations.

Abstract : A cogeneration system provides electrical (or mechanical) and thermal energy from the same primary energy source, and allows hence for considerable savings in fuel consumption compared to the separate production of electricity and heat. While its environmental interest is well documented, a cogeneration project represents a costlier upfront investment, making its economical viability less obvious. The economical value of a cogeneration may noticeably vary according to the operator’s profile and operating rule. While a financier would primarily focus on the spark spread arbitrage opportunities, an industrial producer, whom main objective is to fulfill his heat and electricity demands at the lowest cost, will be rather valuing the supply cost gains.

Due to the simultaneous production, the optimal costing problem can lead to an excess of the heat or power production, which the operator has to arbitrage. A common response consists in introducing a carbon price that penalizes heat losses, and allowing short electricity trades to the spot market in case of excess production. This leads indeed to a finer (often total) ordering of the admissible programs, but triggers two questions: (1) the choice of a economic carbon price that fairly reflects the actual operator’s behavior, and (2) the consistency of the agent’s optimal market strategy to his business; the more the strategy is market-driven, the more dynamic must be the market risks management.

We’ll develop a pricing model for a portfolio of cogeneration plants in presence of energy markets. The approach, a replication technique, will consist in the valuation of the optinial trading strategy that can be completely edged by the operation of the cogeneration plants. We’ll look thereby to capture the best value from the portfolio without taking any loss exposure from energy markets. This is especially relevant for industrials seeking to optimize their assets’value beyond simple traditional riskless strategies, while maintaining a consistent risk profile.

DEUXIEME EXPOSÉ: 15h00-16h00

Orateur : Paul Malisani (CAS, paul.malisani@mines-paristech.fr)

Titre : Construction de pénalisations intérieures pour des problèmes de commande optimale de systèmes non linéaires sous contraintes d'état et de commande.

Résumé: Dans le cadre de l'optimisation paramétrique les méthodes de points intérieurs sont très bien documentées et sont à la base d'algorithmes très performants. L'extension de ses méthodes à des problèmes de commande optimale n'est pas un problème simple. En effet, pour garantir la convergence de ce type de méthode il faut garantir que les solutions du problème pénalisé (résolu en relâchant les contraintes) satisfont strictement les contraintes. Dans la littérature existante l'intériorité des solution est toujours postulée comme une hypothèse. L'objectif de ses travaux est de donner des conditions sur les fonctions de pénalisation garantissant que la solution du problème pénalisé, résolu en relâchant l'ensemble des contraintes, respecte strictement les contraintes. Grâce à cette garantie d’intériorité, on peut montrer la convergence d'un algorithme basé sur les conditions classiques de stationnarité du calcul des variations.

Avril : Jeudi 12 avril 2012 de 14h00-15h00

Thème « Synthèse d'images » :

1. Lieu :
Mines ParisTech, Bd Saint-Michel
salle  L-218.

2. Descriptif :

UN SEUL EXPOSÉ: 14h00-15h00

Orateur : Patrick  Callet (CAOR et ECP, patrick.Callet@mines-paristech.fr)

Titre : Modélisation des propriétés optiques des matériaux pour un rendu physiquement réaliste en synthèse spectrale d'image.

Résumé: Nous décrirons, exemples à l'appui, un certain nombre de modèles d'interaction lumière-matière pertinents pour le rendu des métaux et alliages, des peintures opaques ou nacrées, des plastiques, des verres et des glaçures des céramiques.
Deux champs d'activités sont couplés : la biophotonique (description nano à macro) et les objets du patrimoine.
Pour télécharger le dernier film "Facsimilé" (26 min) :
http://fichiers.ecp.fr/get?k=vE9DR2n5eBExl8VohGA
réalisé par l'équipe interdisciplinaire (informatique, physique, chimie, histoire de l'art, musées et conservation, archéologie, vidéo, fonderie).

Autre annonce sur polychromie de la sculpture médiévale :
http://www.cnrs.fr/cw/dossiers/doschim/divers/actu.htm

Mai : Jeudi 10 mai 2012 de 14h00-16h00

Thème « Gradient stochastique et traitement d'images multi-variées » :

1. Lieu :
Mines ParisTech, Bd Saint-Michel
salle  L-218.

2. Descriptif :

PREMIER EXPOSÉ: 14h00-15h00

Orateur : Silvère Bonnabel (CAOR, silvere.bonnabel@mines-paristech.fr)

Titre : Gradient stochastique sur les variétés riemanniennes: présentation de la méthode et applications.

Résumé : La méthode du gradient stochastique est une approche simple pour déterminer un minimum local d'une fonction dont les évaluations sont corrompues par du bruit. Principalement motivé par des applications en apprentissage, on présentera une procédure pour étendre la méthode au cas où la fonction de coût est définie sur une variété riemannienne. Comme dans le cas euclidien, l'algorithme converge vers un point critique de la fonction de coût sous des hypothèses raisonnables. La méthode trouve de nombreuses applications. Elles permet de retrouver certains algorithmes connus, ou de proposer de nouveaux algorithmes. Par exemple, elle s'avère utile pour l'apprentissage de matrices de Mahalanobis de rang faible.

DEUXIEME EXPOSÉ: 15h00-16h00

Speaker : Santiago Velasco-Forero (CMM, velasco@cmm.ensmp.fr)

Title : Random Projections: Anomaly Detection and Multivariate Mathematical Morphology.

Abstract : The use of multi/hyperspectral sensors for anomaly and target detection is an exciting area of research in Remote Sensing, Image Processing and Pattern Recognition. When the target is known, signature-based target detectors try to detect all pixels whose spectrum shows a high degree of correlation with the reference. In this talk, we are interested in anomaly detection, which can be viewed as a particular case of target detection in which no a priori information about the spectrum of the target of interest is provided. We explore the problem of anomaly detection based on one-dimensional projections. The main advantage of the proposed approach is that it does not require any covariance matrix estimation, allowing to compute spatial adaptive anomaly detection in small neighborhoods. Although this is contrary to common sense, theoretical results support the consistence of our approach when a large number of univariate random projections is considered. Additionally, we introduce the application of this detector as a useful unsupervised ordering for multivariate vectors. We begin by exploring the properties that an image requires to ensure that the ordering and the associated morphological operators can be interpreted in a similar way than in the case of grey scale images. This will lead us to the notion of background/foreground decomposition. Additionally, affine invariance, robustness properties and theoretical convergence to the Mahalanobis distance in the case of Elliptically Contoured Distributions are analyzed.

Juin : Jeudi 14 juin 2012 de 14h00-16h00

Thème « Apprentissage et contrôle » :

1. Lieu :
Mines ParisTech, Bd Saint-Michel
salle  L-218.

2. Descriptif :

PREMIER EXPOSÉ: 14h00-15h00

Speaker : Toby Hocking  (CBIO/INRIA, Toby.Hocking@inria.fr)

Title : Learning smoothing models of copy number profiles using
breakpoint annotations.

Abstract : Many models have been proposed to detect breakpoints in chromosomal copy number profiles, but it is not obvious to choose which is appropriate for a given data set, nor to choose the smoothing parameter which controls the number of breakpoints. However, model fits are often judged in practice by examining scatterplots of the data along with a smoothing line. In many cases, it is easy to visually determine if a model captures the real breakpoints in the data.
In this talk, I will make this intuition concrete by defining a smoothing model training and evaluation protocol that exploits breakpoint annotations, which encode an expert's visual interpretation of which regions contain breakpoints. I will show results on a new database of 575 neuroblastoma annotated copy number profiles, and
compare the breakpoint detection accuracy and run time of several popular segmentation models.

DEUXIEME EXPOSÉ: 15h00-16h00

Orateur : Stephane Dudret  (CAS/AirLiquide, stephane.dudret@airliquide.com)

Titre : Modèle non-linéaire de convection-diffusion pour la distillation de l’air.

Résumé : Le contrôle des colonnes de distillation pour la séparation des gaz de l’air est actuellement basé sur des modèles linéaires à retard du procédé, indépendants du point de fonctionnement. Une approche qui atteint ses limites alors que le régime dynamique représente une part de plus en plus importante du temps de fonctionnement de l’installation. Dans le prolongement des travaux de W. Marquardt (1986) notamment, nous développons un modèle de type convection-diffusion pour la distribution des concentrations dans la colonne de distillation, obtenu par réduction sur une variété centre d’un modèle local d’échange diphasique.  Un tel modèle permet de retrouver la dépendance entre les débits internes et les retards ou l’efficacité de la séparation. Sur une géométrie simplifiée de colonne, nous montrons la stabilité locale du système, et comment le modèle peut-être utilisé comme observateur des profils de concentrations moyennant une mesure au bord. Nous illustrons par un cas d’application réel le comportement dynamique du modèle, après une identification simplifiée de ses paramètres.

Octobre : Jeudi 18 octobre 2012 de 14h00-15h00

Thème « Contrôle, robotique et neuroscience » :

1. Lieu :
Mines ParisTech, Bd Saint-Michel
salle  L-213.

2. Descriptif :

UN SEUL EXPOSÉ: 14h00-15h00

Speaker : Jean-Jacques Slotine, MIT.

Title : What control and robotics may yet learn from the brain.

Abstract : Although neurons as computational elements are 7 orders of magnitude slower than their artificial counterparts, the primate brain grossly outperforms robotic algorithms in all but the most structured tasks. Parallelism alone is a poor explanation, and much recent functional modelling of the central nervous system focuses on its modular, heavily feedback-based computational architecture, the result of accumulation of subsystems throughout evolution.
We discuss the global functionality of this architecture using nonlinear contraction theory, a comparatively recent dynamics system analysis tool.
We then study synchronization as a model of computations at different scales in the brain, and derive a simple condition for a general dynamical system to globally converge to a regime where diverse groups of fully synchronized elements coexist.
We show how such "polyrhythms" can be transiently selected by a very small number of inputs or connections.
We also quantify the role of synchronization in protecting against noise. Applications to some classical questions in robotics and control are discussed.

Octobre : Jeudi 8 novembre 2012 de 14h00-15h00

Thème « Vision et traitement d'image » :

1. Lieu :
Mines ParisTech, Bd Saint-Michel
salle  L-218.

2. Descriptif :

UN SEUL EXPOSÉ: 14h00-15h00

Orateur : Sotiris Manitsaris (CAOR,sotiris.manitsaris@mines-paristech.fr).

Titre : Vision par ordinateur pour la reconnaissance des gestes techniques et artistiques.

Résumé : La vision par ordinateur est la seule technologie permettant la reconnaissance des gestes sans interférence entre l'homme et l'ordinateur. Deux différentes approches de reconnaissance des gestes basée sur la vision sont proposées: a) la reconnaissance statique qui s'applique à chaque image de la vidéo comparant les caractéristiques de l'image avec le modèle déterministe du geste et b) la reconnaissance dynamique qui présuppose la modélisation stochastique du geste et elle s'applique à un ensemble de séquences d'images. Le présent exposé propose également des applications artistiques, telles que la reconnaissance des gestes musicaux des doigts, ainsi que des applications industrielles, telles que la reconnaissance du geste technique de l'opérateur travaillant à côté d'un robot collaboratif.

Décembre : Jeudi 13 décembre 2012 de 14h00-15h00

Thème « Traitement d'images tensorielles » :

1. Lieu :
Mines ParisTech, Bd Saint-Michel
salle  L-218.

2. Descriptif :

UN SEUL EXPOSÉ: 14h00-15h00

Speaker : Jesus Angulo (CMM, jesus.angulo@mines-paristech.fr)

Title : Nonzero Quaternion Geometric Averaging and Local Supremum/Infimum: Application for Processing RGB-NIR and RGB-Depth Images

Abstract: In the first part of the talk, we consider two approaches of quaternion geometric weighting Lp averaging working on the Lie group of nonzero quaternions. The first formulation is based on computing the Euclidean weighted Lp center of mass in the tangent space of quaternions.
The second method consider gradient descent algorithms for Lp averaging by minimizing the powers of the sum of quaternion geodesic distances, which converges to the Fréchet-Karcher barycenter of quaternions for p=2 and to the Fermat-Weber point for p = 1. Besides giving explicit forms of these algorithms, their application for quaternion image processing is shown in the second part of the talk, by introducing the notion of quaternion bilateral filtering. The performance of this approach of locally adaptive (spatially-variant) nonlinear filtering is illustrated using RGB color images, but also using RGB-NIR images and RGB-Depth ones where the image quaternion representation is natural.
The third part of the talk deals with the extension of mathematical morphology operators to quaternion images. The lack of natural ordering in non-Euclidean spaces present an inherent problem when defining morphological operators extended to quaternion-valued images. We analyze how a robust estimate of the center of mass can be used to obtain a notion of quaternion local origin which can be used to compute rank based operators in the quaternion tangent space. Hence, the notions of local supremum and infimum are introduced, which allow to define the quaternion dilation and erosion, and other derived morphological operators. The practical interest of these morphological operators is also illustrated using four components images such as RGB-NIR images and RGB-Depth images.

Janvier : Jeudi 10 janvier 2013 de 14h00-16h00

Thème « Fusion de données et planification de trajectoires » :

1. Lieu :
Mines ParisTech, Bd Saint-Michel
salle  L-213.

2. Descriptif :

PREMIER EXPOSÉ : 14h00-15h00

Speaker : Nadège Zarrouati-Vissière (CAS/DGA: nadege.zarrouati@mines-paristech.fr)

Title : Rotational and translational biases estimation based on depth and image measurements

Abstract : Constant biases associated to measured linear and angular velocities of a moving object can be estimated from measurements of a static environment by embedded camera and depth sensor. We propose a Lyapunov-based observer taking advantage of the SO(3)-invariance of the partial differential equations satisfied by the measured brightness and depth fields. The resulting observer is governed by a non-linear integro/partial differential system whose inputs are the linear/angular velocities and the brightness/depth fields. Convergence analysis is investigated under C^1 regularity assumptions on the object motion and its environment. Technically, it relies on Ascoli-Arzela theorem and pre-compactness of the observer trajectories. It ensures asymptotic convergence of the estimated brightness and depth fields. Convergence of the estimated biases is characterized by constraints depending only on the environment. These constraints are automatically satisfied when the environment does not admit any rotational symmetry axis. Such asymptotic observers can be adapted to any realistic camera model. Preliminary simulations with synthetic image and depth data (corrupted by noise around 10%) indicate that such Lyapunov-based observers converge for much weaker regularity assumptions.

SECOND EXPOSÉ : 15h00-16h00

Orateur : Jean Grégoire (CAOR, jean.gregoire@mines-paristech.fr)

Titre : Vers une gestion robuste des intersections: une affectation dynamique des priorités

Résumé: Une grande diversité de travaux s'intéressent à la gestion automatisée des intersections. En effet, les intersections conventionnelles sont à l'origine de nombreux accidents et sources de congestion. Dans ces travaux de recherche, l'intersection est assimilée à un plan, dont chaque véhicule occupe une certaine portion à un instant donné. Il en résulte un système multiagents où la coordination des véhicules est gérée par des requêtes envoyées par chacun d'eux à une infrastructure centrale pour réserver une région de l'espace-temps. Ces solutions manquent de robustesse: si un événement non prévu lors du calcul des trajectoires se produit (par exemple la traversée d'un piéton), il est nécessaire d'exécuter à nouveau tout le processus de planification. Pour pallier à ce problème, nous proposons de planifier à haut-niveau une stratégie d'évitement de collision et d'interblocage. S'inspirant des travaux en planification de mouvement, nous associons une manoeuvre à chaque véhicule, i.e. un chemin dans le plan de l'intersection. Le graphe des priorités définit alors le véhicule prioritaire pour tout couple de manoeuvres potentiellement conflictuelles. Nous montrons que ce graphe peut être construit dynamiquement et qu'il décrit synthétiquement la stratégie de coordination. Notre système présente alors une robustesse accrue, puisque cette stratégie peut être conservée tant que les priorités ne sont pas violées. L'infrastructure centrale peut indiquer aux véhicules un profil de vitesse optimal en complément du graphe de priorités, i.e. une description précise de la trajectoire à suivre. Cependant, la connaissance du graphe des priorités permet à chaque véhicule de disposer des informations nécessaires à la prise d'initiatives en réaction aux autres véhicules et aux aléas de l'environnement. Il fournit une information synthétique et partagée par l'ensemble des véhicules rendant envisageable la distribution des algorithmes de gestion de l'intersection.

Février : Jeudi 14 février 2013 de 14h00-16h00

Thème « Filtre de Kalman » :

1. Lieu :
Mines ParisTech, Bd Saint-Michel
salle  L-224.

2. Descriptif :

PREMIER EXPOSÉ : 14h00-15h00

Speaker : Martin Barczyk (CAOR, martin.barczyk@mines-paristech.fr)

Title : Invariant Observer Design for a Helicopter UAV Aided Inertial Navigation System

Abstract : The invariant observer is a constructive nonlinear design method for symmetry-possessing systems, such as a magnetometer-plus-GPS-aided inertial navigation system (INS) used for state estimation onboard an outdoor helicopter UAV platform. The invariant observer guarantees a simplified form of the nonlinear estimation error dynamics, which can be stabilized by a proper choice of observer gains using a nonlinear analysis. A systematic approach to this step is the Invariant Extended Kalman Filter (IEKF), which has been adapted to the aided INS case to compute the invariant observer gains. The resulting design is implemented in hardware and successfully validated in experiment, and demonstrates an improvement in performance over a conventional (non-invariant) EKF design.

SECOND EXPOSÉ : 15h00-16h00

Orateur : Pierre Rouchon (CAS, pierre.rouchon@mines-paristech.fr)

Titre : Approximations de rang faible pour le filtre de Kalman en grande dimension

Résumé: Pour les systèmes de grande dimension n, on propose une méthode numérique systématique pour résoudre de façon approchée l'équation différentielle de Riccati intervenant dans le filtre de Kalman. Cette méthode est proche dans l'esprit des filtres SEEK (Singular Evolutive Extended Kalman filters) utilisés depuis une dizaine d'années en océanographie. Cette méthode est géométrique et repose sur une approximation de rang m (très inférieur à n) de la matrice de covariance, ce rang m étant le seul paramètre à ajuster. Elle donne à chaque pas d'intégration une approximation des m plus grandes valeurs propres de la matrice de covariance et des directions propres associées. Un test numérique préliminaire sur une équations des ondes avec mesure partielle de l'état illustre son intérêt avec un rang m plus petit que 10. Par ailleurs, les principes géométriques sur lesquels repose cette approximation peuvent aussi être utilisés pour les systèmes quantiques ouverts où la matrice densité et l'équation différentielle de Lindblad remplacent alors la matrice de covariance et l'équation différentielle de Riccati (http://arxiv.org/abs/1207.4580).

Avril : Jeudi 11 avril 2013 de 14h00-16h00

Thème « Réalité virtuelle » :

1. Lieu :
Mines ParisTech, Bd Saint-Michel
salle  L-218.

2. Descriptif :

==>Les deux exposés seront suivis d'une démonstration en salle immersive.

PREMIER EXPOSÉ : 14h00-14h45

Orateur : Philippe Porral (PSA Peugeot Citroen, philippe.porral@mpsa.com)

Titre : Imagerie de synthèse physico-réaliste appliquée à la conception industrielle

Résumé : Seront développés les outils, les conditions et les méthodes nécessaires pour générer et exploiter des images indiscernables de la réalité par des observateurs de populations différentes. Le but est de permettre des décisions fiables et répétables sur des supports numériques pour évaluer les formes et les aspects (état de l'art et pistes de recherches). L'exposé portera aussi sur le volet génération des images en relation avec les travaux de Philippe Fuchs sur la restitution et la perception. Ces travaux s'effectuent dans le cadre du projet ANR LIMA (Lumière Interaction Matière Aspects) et d'une thèse sur l'acquisition et l'exploitation d'environnements lumineux en images hautes dynamiques spectrales et polarisées.

SECOND EXPOSÉ : 14h45-15h30

Orateur : Philippe Fuchs (CAOR, philippe.fuchs@mines-paristech.fr)

Titre : Restitution visuelle

Résumé: On commence à plus se préoccuper de considérer la vision comme un sens actif et non passif (en ce moment, vos yeux n'arrêtent pas de bouger, passant d'un mot à un autre, convergeant à bonne distance, tandis que vos cristallins changent de forme pour voir net votre écran ou votre pièce… rien que pour lire ce résumé). Après un rappel sur la perception tridimensionnelle de la vision humaine (perception monoculaire, perception binoculaire...), nous présentons nos recherches actuelles en restitution visuelle, en exploitant le mouvement de la tête et des yeux. Les caractéristiques du système oculomoteur et de la fusion binoculaire sont prises en compte pour l'amélioration de la perception visuelle, pour limiter les contraintes et pour adapter le système visuel à de nouveaux types d'interfaçages. Quelques usages seront présentés, avec des démonstrations en salle immersive.

Juin : Jeudi 13 juin 2013 de 14h00-15h00

Thème « Robotique » :

1. Lieu :
Mines ParisTech, Bd Saint-Michel
salle  L-218.

2. Descriptif :

UN SEUL EXPOSÉ: 14h00-15h00

Speaker : Panagiotis Tsiotras, Georgia Institute of Technology, Dynamics and Control Systems Laboratory, School of Aerospace Engineering

Title : Multi-resolution and Sampling-Based Path-Planning for Autonomous Vehicles

Abstract : Operation of autonomous vehicles (e.g., UAVs, UGVs) requires both trajectory design (planning) and trajectory tracking (control) tasks to be completely automated. For small-size UAVs, in particular, the task of autonomous path-planning is exacerbated by the lack of sufficient on-board computational capabilities (CPU and memory) as well as the short response time scales of these small-sized vehicles, which may hinder the real-time implementation of many of the sophisticated algorithms available in the literature. In this talk we will present some recent results for path-planning of autonomous vehicles that use ideas borrowed from multi-resolution theory (wavelets, beamlets) to construct abstractions of the environment of different granularity, and with known prior complexity. Sampling-based methods that lead to "self-adapted" multi-resolution graph abstractions will also be discussed; in the process, we will show connections between these popular sampling-based algorithms with approximate dynamic programming.

Short Bio : Dr. Panagiotis Tsiotras is the Dean's Professor at the Daniel Guggenheim School of Aerospace Engineering at the Georgia Institute of Technology (Georgia Tech) and the Director of the Dynamics and Control Systems Laboratory in the same department. He is also affiliated with the Center for Robotics and Intelligent Machines (RIM) and the Center for Space Systems at Georgia Tech. His current research interests include optimal and robust control of nonlinear systems, vehicle autonomy, and control theory applications to aerospace and mechanical systems. He holds degrees in Mechanical Engineering, Aerospace Engineering, and Mathematics. He has served at the Editorial Boards of the AIAA Journal of Guidance Control and Dynamics, the IEEE Transactions on Automatic Control and the IEEE Control Systems Magazine. He is a recipient of the NSF CAREER Award, and the Sigma Xi award for Excellence in Research. He is a Fellow of AIAA and a Senior Member of the IEEE.

Octobre : Jeudi 10 octobre 2013 de 14h00-16h00

Thème « Contrôle d'équations d'ondes et à retards » :

1. Lieu :
Mines ParisTech, Bd Saint-Michel
salle  L-218.

2. Descriptif :

PREMIER EXPOSÉ : 14h00-15h00

Orateur : Floren Di Meglio (CAS, florent.di_meglio@mines-paristech.fr )

Titre : Contrôle frontière d'Equations aux Dérivées Partielles hyperboliques pour le forage pétrolier

Résumé : Le forage de puits de pétrole nécessite le pilotage de systèmes extrêmement longs (plusieurs kilomètres), avec des contraintes opératoires souvent strictes et mal connues. Les phénomènes de transports et de propagation d'ondes sont prépondérants dans de nombreuses situations: ondes mécaniques de torsion (phénomène de stick-slip), transport de matière et propagation d'ondes acoustiques (UnderBalanced Drilling), etc. Les défis sont nombreux du point de vue de l'automatique: stabilisation, rejet de perturbations, estimation d'états distribués, identification de paramètres... Après avoir présenté des solutions à certains de ces problèmes industriels, on s'intéressera à l'étude, plus générale, des systèmes hyperboliques multivariables du 1er ordre.

SECOND EXPOSÉ : 15h00 -16h00

Orateur : Sébastien Boisgerault (CAOR, sebastien.boisgerault@mines-paristech.fr)

Titre : Equations à Retards - Un Plaidoyer Pour les Systèmes Algébro-Différentiels

Résumé: La littérature concernant les modèles et les propriétés des systèmes dynamiques à retards est largement fragmentée en fonction des caractéristiques du système, par exemple selon que les retards soient ponctuels ou distribués, commensurables ou non, le type retardé ou neutre. En nous limitant aux systèmes linéaires et invariants dans le temps, nous présenterons des arguments, issus de la physique, de l'automatique et de l'algèbre qui militent pour l'introduction d'une classe de systèmes algébro-différentiels à retards qui à la fois contient et dépasse ces catégories classiques. Nous montrerons que la modélisation de ces systèmes, l'étude de l'existence de leurs solutions et de leur stabilité peuvent être menées dans le cas général.

Novembre : Jeudi 14 novembre 2013 de 14h00-16h00

Thème « Calcul à haute performance » :

1. Lieu :
Mines ParisTech, Bd Saint-Michel
salle  L-213.

2. Descriptif :

PREMIER EXPOSÉ : 14h00-15h00

Orateur :Claude Tadonki (CRI, claude.tadonki@mines-paristech.fr )

Titre : Quantum Chronodynamics simulations and efficient evaluation of the Wilson-Dirac operator

Résumé : Quantum Chromodynamics (QCD) is the theory of strong nuclear force, which is responsible for the interactions between subnuclear particles. QCD simulations are typically performed through the lattice gauge theory approach, which provides a discrete analytical formalism called LQCD (Lattice Quantum Chromodynamics).
LQCD simulations usually involve generating and then processing data on petabyte scale which demands multiple teraflop-years on supercomputers. Large parts of both, generation and analysis, can be reduced to the inversion of an extremely large matrix, the so-called Wilson-Dirac operator.
For this purpose, and because this matrix is always sparse and structured, iterative methods are definitely considered. Therefore, the procedure of the application of this operator, resulting in a vector-matrix product, appears as a critical computation kernel that should be optimized at the best. Evaluating the Wilson-Dirac operator involves symmetric stencil computations where each node has 8 neighbours. Such configuration is really hindering when it comes to memory accesses and data exchanges among processors. For current and future generations of supercomputers the hierarchical memory structure makes it hard for a standard physicist to write an efficient code. Addressing these issues amongst others to harvest an acceptable amount of computing cycles for actual needs, which means reaching a good level of efficiency, is the main topic of this talk.

SECOND EXPOSÉ : 15h00 -16h00

Orateur : Frédéric Magoules (École Centrale Paris, Equipe Calcul à Haute Performance, frederic.magoules@ecp.fr )

Titre : Introduire le chaos dans les méthodes de décomposition de domaines

Résumé: L'évolution des ordinateurs permet désormais de résoudre de grands challenges dans les domaines de la médecine, la physique, la climatologie. Si les machines actuelles possèdent plusieurs centaines de milliers ou millions d'unités de calcul, les méthodes numériques, pour leur part, peinent à utiliser au mieux ces nouvelles architectures informatiques (précision et reproductibilité des calculs, robustesse des algorithmes, convergence des méthodes). Les méthodes de décomposition de domaines sont bien adaptées au calcul parallèle. En effet, la division d'un problème en plusieurs petits sous-problèmes, est un moyen naturel d'introduire le parallélisme. Mais dans le cas de plusieurs centaines de milliers ou millions de sous-problèmes ces méthodes sont-elles vraiment efficaces ?
Cet exposé présente comment les méthodes de décomposition de domaines ont évoluées au cours des années, et comment les conditions d'interfaces ont été optimisées pour accélérer la convergence de ces méthodes. Afin d'utiliser ces méthodes sur des machines massivement parallèles, l'algorithme itératif utilisé pour la résolution du problème interface doit également être modifié. Des itérations chaotiques sont ici proposées, lesquelles bien que permettant de s'affranchir de la synchronisation, introduisent des difficultés dans la convergence de l'algorithme.
Nous verrons que l'on peut prouver la convergence de la méthode de décomposition de domaines équipées d'itérations chaotiques, et des expériences numériques sur de nombreux exemples illustreront la robustesse et l'efficacité de l'approche proposée.

Décembre : Jeudi 12 décembre 2013 de 14h00-16h00

Thème « Image et robotique » :

1. Lieu :
Mines ParisTech, Bd Saint-Michel
salle  L-218.

2. Descriptif :

PREMIER EXPOSÉ : 14h00-15h00

Orateur : Emilie Wirbel (CAOR, emilie.wirbel@mines-paristech.fr)

Titre : Localisation par vision sur le robot NAO

Résumé : La localisation est un problème récurrent en robotique. Même si ce problème est de mieux en mieux traité et connu sur des plateformes adaptées (par exemple le CoreSLAM développé entre autres par le CAOR), il n'existe pas de solution absolument générique et dépourvue de contraintes. En particulier, les algorithmes classiques requièrent en général une certaine puissance de calcul ou des capteurs adaptés. Ces prérequis sont difficiles à obtenir sur un robot qui n'a pas été conçu dans ce but au départ. Le robot NAO, conçu par Aldebaran Robotics, possède bien deux caméras RGB, mais reste très contraint à la fois du point de vue de la puissance et des capteurs. Le but de cet exposé est de montrer comment utiliser l'information des caméras pour extraire malgré tout des informations de localisation satisfaisantes, permettant au robot de corriger sa trajectoire, d'estimer sa position et de naviguer. L'idée est de combiner des informations ponctuelles à base de points d'intérêt et des informations denses à base de corrélation d'images.

SECOND EXPOSÉ : 15h00 -16h00

Orateur : Bruno Figliuzzi (CMM, bruno.figliuzzi@mines-paristech.fr)

Titre : Modélisation du procédé de mise en peinture des tôles automobiles

Résumé: L'aspect visuel des pièces peintes d'une automobile contribue de façon significative à la qualité de l'ensemble du véhicule. Si les procédés industriels de dépôt de peinture employés au cours de la fabrication de l'automobile impactent de manière prépondérante l'aspect visuel des tôles revêtues, la qualité intrinsèque de la tôle utilisée n'en est pas moins un facteur essentiel de l'obtention de cet aspect. C'est pourquoi, du point de vue des producteurs d'acier, il est important de comprendre de quelle manière la topographie des tôles rugueuses influe sur la topographie après peinture. Au cours de cet exposé, nous présenterons divers modèles d'écoulement permettant de décrire le nivellement d'un film mince de peinture sur une surface rugueuse. Ces modèles insistent sur les propriétés physiques des peintures, dont la rhéologie est en général non-newtonienne. Une des difficultés majeures de l'étude est notamment la caractérisation de la rhéologie de la peinture dans la configuration géométrique des films minces. Une méthode a été développée qui permet, à partir d'images à intervalle régulier de la topographie de la surface du film au cours de son nivellement, d'identifier la rhéologie de la peinture. Cette méthode se base sur la résolution d'un problème inverse et l'utilisation de divers outils empruntés à l'analyse d'image.

Mars : Jeudi 13 mars 2014 de 14h00-16h00

Thème « Simulation conditionnelle et estimation bayesienne » :

1. Lieu :
Mines ParisTech, Bd Saint-Michel
salle  L-218.

2. Descriptif :

PREMIER EXPOSé : 14h00-15h00

Orateur : Christian Lantuéjoul (centre de Géosciences, christian.lantuejoul@mines-paristech.fr)

Titre : Simulation conditionnelle de modèles max-stables

Résumé : Les champs aléatoires max-stables permettent de modéliser des phénomènes extrêmes dans de nombreux domaines de l'environnement ou du climat. N'ayant pas de moments finis aux deux premiers ordres, les techniques usuelles de krigeage ne peuvent pas être utilisées pour estimer des risques ou envisager les conséquences de divers scénarios. Dans une telle situation, il est utile de recourir à des simulations conditionnelles. Partant d'un algorithme de simulation conditionnelle mis au point par Dombry, Eyi-Minko et Ribatet (Biometrika, Vol. 20, pp. 1-23, 2012), un nouvel algorithme est proposé qui s'appuie sur des variables latentes et qui s'avère plus rapide, plus précis et plus apte à traiter de grands jeux de données. Ce travail, financé par l'ANR Mc-SIM, s'effectue en colloboration avec L. Bel (AgroParisTech) et J.N. Bacro (Univ. Montpellier 2).

SECOND EXPOSé : 15h00-16h00

Speaker : Thomas Romary (centre de Géosciences, thomas.romary@mines-paristech.fr)

Title : Bayesian seismic tomography by parallel interacting Markov chains

Abstract : First arrival travel time tomography aims at estimating the velocity field of the subsurface. The resulting velocity field is then commonly used as a starting point for further seismological, mineralogical or tectonic analysis in a wide range of applications such as geothermal energy, volcanoes studies,... The estimated velocity field is obtained through inverse modeling by minimizing an objective function that compares observed and modeled travel times. This step is usually performed by steepest descent optimization algorithms. The major flaw of such optimization schemes, beyond the possibility of staying stuck in a local minima, is that they do not account for the multiple possible solutions of the inverse problem at stake. Therefore, they are unable to assess the uncertainties linked to the solution. In a Bayesian perspective however, the inverse problem can be seen as a conditional simulation problem, that can be solved using iterative algorithms. Indeed, Markov chains Monte-Carlo (MCMC) methods are known to produce samples of virtually any distribution. They have already been widely used in the resolution of non-linear inverse problems where no analytical expression for the forward relation between data and model parameters is available, and where linearization is unsuccessful. In Bayesian inversion, the total number of simulations we can afford is highly related to the computational cost of the forward model. Although fast algorithms have been recently developed for computing first arrival travel time of seismic waves, the complete browsing of the posterior distribution is hardly performed at final time, especially when it is high dimensional and/or multimodal. In the latter case, the chain may stay stuck in one of the modes. One way to improve the mixing properties of classical single MCMC is by making interact several Markov chains at different temperatures. These methods can make efficient use of large CPU clusters, without increasing the global computational cost with respect to classical MCMC and are therefore particularly suited for Bayesian inversion. The approach is illustrated on two geophysical case studies.

Juin : Jeudi 12 juin 2014 de 14h00-16h00

Thème « Feedback à l'échelle quantique » :

1. Lieu :
Mines ParisTech, Bd Saint-Michel
salle  V106-A.

2. Descriptif :

PREMIER EXPOSÉ : 14h00-15h00

Speaker :François Mallet (laboratoire Pierre Aigrain, ENS Paris, francois.mallet@lpa.ens.fr)

Title : Persistent control of a superconducting qubit by stroboscopic measurement feedback

Abstract : Recently, research on quantum physics has moved from only demonstration of subtle quantum phenomena to engineered systems benefiting from quantum laws peculiarities. Quantum measurements being non-deterministic, it is mandatory to develop feedback procedures in the aim of building predictable quantum machines. Feedback is made possible by the fact that the measurement record contains all the necessary information to follow the quantum state of the system in real time. In this talk, I will present a recent experiment where a superconducting qubit is controlled by a projective measurement based feedback. We demonstrate efficient qubit reset and trajectory stabilization using the information extracted from a Quantum Non Demolition projective measurement. This experiment benefits from 3 recent breakthroughs. First, we use the recently developed 3D transmon superconducting qubits, with several tens of microseconds coherence times [1].
Second, the detector for the qubit pointer states, which are a few microwave photons large coherent states, is a phase preserving parametric amplifier operating close to the quantum limit and recently developed in our group [2].
Third, the feedback loop can be performed with a delay of a fraction of a microsecond using a digital filter implemented on innovative fast electronic digital processors, namely Field-Programmable-Gate-Arrays (FPGA). In this experiment we combine these three ingredients to realize a test bed for measurement based feedback.
As a first illustration of its abilities, we demonstrate high fidelity qubit state preparation, approx. 99% for the ground state and approx. 95% for the excited state. We also demonstrate the perpetual stabilization of Rabi oscillations, with fidelity above 80% [3].

[1] H. Paik et al., Phys. Rev. Lett. 107, 240501 (2011)
[2] N. Roch et al., Phys. Rev. Lett.108, 147701 (2012)
[3] P. Campagne-Ibarcq et al., Phys. Rev. X. 3, 021008 (2013)

SECOND EXPOSÉ : 15h00-16h00

Orateur : Pierre Rouchon (centre automatique et systèmes , pierre.rouchon@mines-paristech.fr)

Titre : Modèles et stabilisation par feedback de systèmes quantiques ouverts

Résumé : Au niveau quantique, le feedback doit prendre en compte l'action en retour attachée à la mesure d'une observable. Nous présentons ici la structure des modèles markoviens incluant cette action en retour ainsi que deux méthodes de stabilisation par feedback: le feedback fondé sur la mesure où un système quantique est stabilisé par un contrôleur classique; le feedback cohérent, dit aussi autonome et proche de l'ingénierie de réservoir, où un système quantique est stabilisé par un contrôleur lui aussi quantique. Ces modèles et méthodes sont d'abord expliqués pour la boite à photons du LKB. Ils sont ensuite présentés pour un système quantique ouvert arbitraire.

Octobre : Jeudi 09 octobre 2014 de 14h00-16h00

Thème « Mobile mapping » :

1. Lieu :
Mines ParisTech, Bd Saint-Michel
salle  L118.

2. Descriptif :

PREMIER EXPOSÉ : 14h00-15h00

Speaker : Daniela Craciun (CAOR, daniela.craciun@mines-paristech.fr)

Title : Scalable and detail-preserving ground surface reconstruction from large 3d point clouds acquired by mobile mapping systems

Abstract: The currently existing mobile mapping systems equipped with active 3D sensors allow to acquire the environment with high sampling rates at high vehicle velocities. While providing an effective solution for environment sensing over large scale distances, such acquisition provides only a discrete representation of the geometry. Thus, a continuous map of the underlying surface must be built.
Mobile acquisition introduces several constraints for the state-of-the-art surface reconstruction algorithms.
Smoothing becomes a difficult task for recovering sharp depth features while avoiding mesh shrinkage. In addition, interpolation based techniques are not suitable for noisy datasets acquired by Mobile Laser Scanning (MLS) systems. Furthermore, scalability is a major concern for enabling real-time rendering over large scale distances while preserving geometric details.

This paper presents a fully automatic ground surface reconstruction framework capable to deal with the aforementioned constraints. The proposed method exploits the quasi-flat geometry of the ground throughout a morphological segmentation algorithm. Then, a planar Delaunay triangulation is applied in order to reconstruct the ground surface. A smoothing procedure eliminates high frequency peaks, while preserving geometric details in order to provide a regular ground surface. Finally, a decimation step is applied in order to cope with scalability constraints over large scale distances. Experimental results on real data acquired in large urban environments are presented and a performance evaluation with respect to ground truth measurements demonstrate the effectiveness of our method.

References: D. Craciun, A. M. Serna, J-E. Deschaud, B. Marcotegui and F. Goulette. Scalable and detail-preserving ground surface reconstruction from large 3D point clouds acquired by Mobile Mapping Systems. The International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences, Volume XL-3, 2014. ISPRS Technical Commission III Symposium, 5 – 7 September 2014, Zurich, Switzerland.

SECOND EXPOSÉ : 15h00-16h00

Speaker : Andrés Serna (CMM: andres.serna_morales@mines-paristech.fr)

Title : Semantic analysis of 3D point clouds from urban environments using mathematical morphology

Abstract : In the last ten years, thanks to new 3D data availability, an increasing number of geographic applications such as Google Earth, Geoportail, iTowns and Elyx-3D is flourishing. Most of them are enhanced with pedestrian navigation options and realistic 3D models. In order to build realistic and faithful to reality 3D maps, data need to be processed in a large scale way. This processing usually consists in transforming points into surfaces or geometric primitives for subsequent analysis and modeling.
This stage is often manual and therefore time consuming. Thus, object extraction from urban scenes is difficult and tedious, and existing semi-automatic methods may not be sufficiently precise nor robust. An automatic semantic analysis of extracted objects combined with the intelligent intervention of an operator would speed up and improve the process.

My Ph.D. thesis entitled "Semantic analysis of 3D point clouds from urban environments using mathematical morphology" is developed in the framework of TerraMobilita project. The general goal is the development of new automated methods for 3D urban cartography. In particular, we aim at developing automatic methods to process 3D point clouds from urban laser scanning. Our methods are based on elevation images, mathematical morphology and supervised learning. Although the processing of 3D urban data has been underway for many years, automatic semantic analysis is still an open research problem. The development of accurate and fast algorithms in this domain is one of the main contributions of this thesis.

In this seminar, two of the thesis contributions are presented:

1- Semantic analysis of 3D urban objects: in order to detect, segment and classify urban objects. In this process, an identifier and a class are assigned to each segmented object. Each class represents an urban semantic entity. Depending on the application, several classes can be defined, e.g. lampposts, traffic signs, benches, cars, pedestrians, garbage containers, bikes, among others. This separation is be useful to produce detailed 3D urban maps, to define the best itinerary for a specific mobility type, to produce parking areas maps and to compute parking statistics.

2- Ground segmentation and accessibility analysis: in order to define a Digital Terrain Model (DTM) with extra features such as access ramps geometry, useful to establish the suitability of a path for a specific mobility type. For example, high curbs should be avoided for a skater or a person in a wheelchair.

Our methods have been favorably compared with state of the art methods on public 3D databases.

Janvier : Jeudi 8 janvier 2015 de 14h00-16h00

Thème « Propriétés optiques des matériaux et réalité virtuelle »

1. Lieu :
Mines ParisTech, Bd Saint-Michel
salle L.218

2. Descriptif :

PREMIER EXPOSÉ : 14h00-15h00

Orateur : Alexis Paljic (CAOR, alexis.paljic@mines-paristech.fr)

Titre : Prototypage en Réalité Virtuelle : la question du transfert du Virtuel vers le Réel

Résumé : Par l'immersion et l'interaction pseudo-naturelles, les simulations de réalité virtuelle ont vocation à permettre le prototypage de produits ou de processus, sans passer par un prototype physique. Il s'agit donc de prédire, avant de produire. Le transfert, qui est la reproductibilité des résultats du virtuel vers le réel, est une question centrale pourtant assez peu représentée dans la littérature en Réalité Virtuelle. Il convient en effet de connaitre les limites du transfert en validant les simulations par des recherches scientifiques spécifiques à chaque usage. L'évaluation de la validité en Réalité Virtuelle peut porter sur des aspects sensori-moteurs, cognitifs ou encore fonctionnels. Elle se réalise au travers d'expérimentations avec des panels d'utilisateurs. Nous aborderons dans cet exposé la question de la validité des simulations à travers deux exemples de travaux de recherche au Centre de Robotique : la collaboration Homme-Robot en Usine et la Simulation Physiquement Réaliste de Matériaux.

Mots clefs : Immersion, Interaction, Perception, Facteurs Humains, Cognition, Modèles Physiques de Matériaux, Acceptabilité de la Collaboration Homme-Robot, Transfert.

SECOND EXPOSÉ : 15h00-16h00

Speakers : Enguerrand Couka (CMM, enguerrand.couka@mines-paristech.fr) et François Willot (CMM, francois.willot@mines-paristech.fr)

Title : Modeling and optical properties of a hematite coating: ellipsometry data vs. Fourier-based computations

Abstract : Images of a hematite-based epoxy coating are obtained by scanning electron microscopy (SEM). At the scale of a few micrometers, they show aggregates of hematite nano-particles organized along thin curved channels. We first segment the images and analyze them using mathematical morphology. The heterogeneous dispersion of particles is quantified using the correlation function and the granulometry of the embedding (epoxy) phase. Second, a two-scales, 3D random microstructure model with exclusion zones is proposed to simulate the spatial distribution of particles. This simple model is parametrized by four geometrical parameters related to the exclusion zones solely. The microstructure is numerically optimized, in the space of morphological parameters, on the granulometry of the embedding epoxy phase and on the microstructure correlation function, by standard gradient-descent methods. Excellent agreement is found between the SEM images and our optimized model. The size of the representative volume element associated to the optimized microstructure model is also compared with that of the SEM images. In a second step, the optical properties of the coating are predicted numerically and compared with ellipsometry measurements. The local anisotropic permittivity tensor of hematite particles, and that of the epoxy, are estimated by ellipsometry measurements carried out on a macroscopic hematite and epoxy samples. Fourier-based methods are used to treat complex permittivities. They predict the effective and local electric displacement field in the quasi-static approximation. The former is close to one of the Hashin-Shtrikman bounds. Good agreement is found between experimental data and FFT computations in the whole range of the visible spectrum.

Avril : Jeudi 13 avril 2017 de 14h00-16h00

Thème « Propriétés optiques des matériaux et réalité virtuelle »

1. Lieu :
Mines ParisTech, Bd Saint-Michel
salle L.213

2. Descriptif :

PREMIER EXPOSE: 14h00-15h00

Orateur : Zaki Leghtas (CAS, zaki.leghtas@mines-paristech.fr)

Titre : Technologies quantiques à base de circuits supraconducteurs

Résué: Des machines exploitant des propriétés quantiques comme le principe de superposition et d'intrication, pourraient révolutionner notre puissance de calcul, la sûreté de nos communications, et la précision de nos mesures. Nous parlerons des applications prometteuses de ces technologies, et l'avancement actuel dans leur réalisation. Enfin, nous expliquerons plus en detail les progrès dans le traitement de 'information quantique avec des circuits supraconducteurs. Ces circuits permettant de combiner: scalabilité, longs temps de cohérence et couplages forts, sont l'une des plateformes les plus prometteuses pour la réalisation 'un ordinateur quantique universel.

SECOND EXPOSE: 15h00-16h00

Orateur : Bruno Figliuzzi (CMM, bruno.figliuzzi@mines-paristech.fr)

Title : A Bayesian approach to linear hyperspectral unmixing

Abstract : Hyperspectral sensors and spectrometers are increasingly employed in remote sensing, materials sciences or biological applications. Hyperspectral imaging can explore surfaces using a vast portion of the electromagnetic spectrum with the aim of identifying materials characterized by specific spectral patterns or spectral signature. Hyperspectral sensors collect information in the form of a set of spatial images, where each image corresponds to a narrow band of wavelengths of the electromagnetic spectrum. These spatial images can be combined to form a three-dimensional hyperspectral data cube I(x, y, ?), where x and y represent spatial dimensions and ? a spectral dimension, usually a range of wavelengths.
The spatial resolution is a key characteristic of the sensor: when pixels are too large, the measured spectra is usually a combination of multiple objects of interest present in the scene. In this situation, post-processing methods have to be applied to identify the materials present on the observed surface. The development of these methods has fostered the development of an active field of research in the area of hyperspectral imaging, referred to as hyperspectral unmixing, which aims at identifying the spectral signatures or endmembers of the elementary materials and at quantifying their relative contributions or abundances to the hypersensor measurements.
The classical approach in hyperspectral unmixing is to assume that the measured spectra are linear combinations of the endmembers present in the observed surface weighted by their respective abundances. This model has a rather straightforward physical interpretation: it corresponds to situations where each incoming light ray interacts with a single endmember only before reaching the sensor.

In this presentation, we first discuss classical approaches to linear hyperspectral unmixing. We next formulate the linear mixing model in a Bayesian framework, which allows us to perform a joint estimation of the endmembers and of their respective abundances by relying on MCMC simulations. We conclude the presentation by suggesting directions for future research.

Mai : Jeudi 11 mai 2017 de 14h00-16h00

Thème « Processeurs multicoeurs et des nuages de points 3D »

1. Lieu :
Mines ParisTech, Bd Saint-Michel
salle L226

2. Descriptif :

PREMIER EXPOSE : 14h00-15h00

Orateur : Claude Tadonki (CRI, claude.tadonki@mines-paristech.fr)

Titre : Scabilité sur les processeurs multi-coeurs

Résumé: Depuis l'avènement du multi-oeur, on assiste à une tendance à l'augmentation du nombre de coeurs, ceci dans le but de fournir une puissance globale grandissante à l'échelle 'un processeur. Le modèle sous-jacent est celui de la mémoire partagée, don'organisation et les mécanismes internes sont de plus en plus complexes, bien que transparents pour le programmeur ordinaire. Cette complexité matérielle, ainsi que les aspects fondamentaux et conceptuels liés au parallélisme, so à l'origine des difficulté à obtenir des performances proportionnelles à la puissance thérique engagée par une exécution simultanée sur plusieuroeurs. Le but de cet exposé est 'explorer la question de la scalabilité et 'en expliquer les principaux facteurs influents.

SECOND EXPOSÉ : 15h00-16h00

Orateur : Jean-Emmanuel Deschaud (CAOR, jean-emmanuel.deschaud@mines-paristech.fr)

Titre : Nuage de Points 3D : de l'acquisition par système mobile lida à la simulation numérique sur données réelles.

Résumé : Ces dernières années ont vu une amélioration rapide des technologies de numérisation de scènes 3D. Nous verrons les travaux menés au sein de l'équipe NPM3D (pour Nuages de Points 3D) du laboratoire de Robotique sur d'une part les systèmes de numérisation mobile lidar (architecture, calibration) mais aussi tous les traitements que nous opérons sur les données produites de type "nuage de points" (débruitage, reconstruction, rendu, segmentation, classification, simulation numérique...) avec un champs d'application large qui va de l'archéologi à la gestion des infrastructures pour les collectivités.

Juin : Jeudi 8 juin 2017 de 14h00-16h00

Thème « Preuves de programmes, sélection de variables en grande dimension »

1. Lieu :
Mines ParisTech, Bd Saint-Michel
salle V106B

2. Descriptif :

PREMIER EXPOSÉ : 14h00-15h00

Orateur : Olivier Hermant (CRI, olivier.hermant@mines-paristech.fr)

Titre : Preuves (Automatiques) de programmes

Résumé : Les exigences sont croissantes en termes de sûreté des programmes, notamment ceux qualifiés de "critiques", de sécurité des systèmes informatiques, telles que les librairies de cryptographie ou les protocoles de communication, voire de correction des transformations de programmes comme la compilation. Pour répondre à ces besoins, de nombreuses méthodes formelles ont été développées. Celles-ci visent à analyser les programmes et à s'assurer que ceux-ci, ou, à plus large échelle, un logiciel, respecte sa spécification, ne produit pas d'erreur à l'exécution, possède un certain nombre de propriétés (vivacité/liveness, sécurité/safety), garantit que ses paramètres restent dans une certaine enveloppe, ne contient pas de faille... De manière à exprimer et prouver ces propriétés de manière systématique, nous avons besoin de formalismes. Une implémentation de ces derniers garantit ensuite la mécanisabilité de la vérification des propriétés désirées, si ce n'est de leur démonstration. Dans cet exposé, je présenterai mon travail sur les fondements logiques de ces systèmes, notamment la logique du premier ordre, à laquelle on rajoute une notion de calcul, via la réécriture. Je m'intéresserai à la propriété de complétude de la méthode de preuve dite "des tableaux" et montrerai le rôle central de cette propriété, et son impact sur la logique. Dans un second temps, je présenterai les aspects appliqués de ces travaux, à savoir l'outil de démonstration automatique Zenon Modulo, ainsi que le vérificateur de preuve Dedukti.

SECOND EXPOSÉ : 15h00-16h00

Orateur : Chloe-Agathe Azencott (CBIO, chloe-agathe.azencott@mines-paristech.fr)

Titre : Sélection de variables en grande dimension avec peu d'observations

Résumé : Les différences génomiques entre patients expliquent en grande partie pourquoi ceux-ci vivent la même maladie différemment. La médecine de précision nécessite donc d'identifier les régions du génome associées avec une prédisposition, un pronostic ou une réponse thérapeutique. Cependant, les données disponibles contiennent généralement largement plus de variables que d'observations. Le but de cet exposé est de présenter quelques techniques d'intégration de données qui peuvent être utilisées pour atténuer les difficultés statistiques qui surviennent dans cette situation.

Juin : Jeudi 12 octobre 2017 de 14h00-16h00

Thème « systèmes à retards variables » et « robustesse en morphologie mathématique »

1. Lieu :
Mines ParisTech, Bd Saint-Michel
salle V106B

2. Descriptif :

PREMIER EXPOSÉ : 14h00-15h00

Orateur : Delphine Bresch-Pietri (CAS, delphine.bresch-pietri@mines-paristech.fr

Titre : Transport delay vs communication delays: control stakes and open problems

Abstract In this talk, we present two different classes of delay which reveal ubiquitous in practical settings. First, we focus on systems involving transportation of material, such as Exhaust Gas Recirculation in the automotive industry and any flow system in general. Then, we detail the properties of a second larger class of delays, referred to as communication delays. For this last case, reordering of information can occur and the First-in/First-out principle can thus be violated. We illustrate the common challenges involved by these delay variations and draw some perspectives on the control problems at stake in each case. This talk is intended for a non-specialist public.

SECOND EXPOSÉ : 15h00-16h00

Orateur : Santiago Velasco (CMM, Santiago.Velasco@mines-paristech.fr)

Titre : Toward a Robust Mathematical Morphology

Abstract : Mathematical morphology (MM) mainly studied local-nonlinear operators based on max-plus algebra. They have many advantages including the easy interpretation according to shape/size relationships of objects in the image. However, one of the main limitation of MM operator is their sensibility to noise, i.e., the inclusion of a single outlier pixel in the neighborhood perturbs dramatically the results and the interpretation of MM operators. In this talk, we present some robust approaches to apply MM operators in presence of noise. Examples in robust morphological distance and pseudo-morphological operators are illustrated. Additionally, we also explore how to learn robust MM operators in the paradigm of “deep learning”.

Reference : S. Velasco-Forero and J. Angulo. Nonlinear operators on graphs via stacks. Geometric Science of Information, Oct 2015, Palaiseau, France. Geometric Science of Information Volume 9389 of the series Lecture Notes in Computer Science pp 654-663

Janvier : Jeudi 11 janvier 2018 de 14h00-16h00

Thème « Economic dispatch in energy management » et « ingénierie digitale des systèmes complexes»

1. Lieu :
Mines ParisTech, Bd Saint-Michel
salle L.213

2. Descriptif :

PREMIER EXPOSE: 14h00-15h00

Orateur : Welington de Oliveira (CMA, welington.oliveira@mines-paristech.fr)

Titre : A DC-programming approach for economic dispatch in energy problems

Résué: The economic dispatch problem in energy management aims at finding the optimal production schedule of a set of generation units while meeting various system-wide constraints. Nowadays, the energy landscape undergoes significant changes worldwide: large consumers have gained protagonism and can perform actions which may significantly impact on the load of the system. In particular, by using advanced information technology, large consumers are (or will soon be) able to partially control their consumption of energy. In this work, we formulate this new paradigm of bilevel optimization economic dispatch as a general DC (difference of convex functions) program. A new DC algorithm exploiting the problem's structure is presented, as well as its numerical performance on a realistic instance.

SECOND EXPOSE: 15h00-16h00

Orateur : François Willot (CMM, francois.willot@mines-paristech.fr et David Ryckelynckdavid.ryckelynck@mines-paristech.fr)

Title : Présentation de l'option Ingénierie Digitale des Systémes Complexes

Abstract : Mines ParisTech vient d'ouvrir cette année une nouvelle option intitulée Ingénierie Digitale des Systèmes Complexes. Nous avons tous l'expérience de l’accès rapide à l’information et aux données. Si l’industrie a été un précurseur dans le développement du numérique, la transformation digitale des métiers de l’ingénieur n’en est qu’à ses débuts et de nombreuses innovations viennent de startups. L’option fournit à l’élève l’occasion d’utiliser l’ensemble de ses connaissances d’ingénieur généraliste afin d'accélérer la transition digitale et d'apporter une solution à un problème industriel concret qui lui est posé dans le cadre de son projet de fin d’études.
Aujourd’hui, des quantités considérables de données sont détruites dans l’industrie, faute de savoir mieux les valoriser. Pourtant des gains de productivité importants sont possibles en portant une plus grande attention aux données, que celles-ci soient issues de simulations numériques ou de moyens de mesure. Sous l'angle de la mécanique des milieux continus, les optionnaires découvrirons des méthodes exploitables dans d'autres domaines où les données traitées sont particulièrement massives et attachées à des modèles de très haute fiabilité. Ce que nous proposons est loin du cadre méthodologique utilisé pour les publicités ciblées sur internet. Pourtant certains algorithmes sont communs car en général les données admettent un format tensoriel.

Université PSL Institut Mines-Telecom ParisTech Carnot M.I.N.E.S Armines