Partager cette page :

Séminaires du DIT 2005 - 2006

Architectures spécialisées pour la bioinformatique

18 octobre 2005, salle Y. Rocard, 14h15.           
Intervention de Dominique Lavenier, directeur de recherches au CNRS, 

Les progrès des biotechnologies conduisent à une croissance exponentielle des données génomiques. Cette masse d’information est quotidiennement fouillée par des dizaines de milliers de chercheurs en biologie pour en extraire de nouvelles connaissances. Les traitements associés sont coûteux mais peuvent être efficacement parallélisés sur des gros calculateurs, des fermes de PC ou des grilles. C’est habituellement la solution retenue par les centres de calcul de bioinformatique. Cependant, les performances peuvent être largement améliorées par un parallélisme à grain plus fin supporté par des architectures matérielles ad hoc. L’exposé, après une courte introduction au domaine de la bioinformatique, présentera les principes mis en œuvre dans ces accélérateurs matériels.

L'informatique diffuse : des concepts à la réalité

8 novembre, salle Y. Rocard, 14h15.           
Intervention de Michel Banâtre, directeur de recherches à l'INRIA,       

Une introduction au calcul sans attente (wait-free computing)

22 novembre 2005, salle Y. Rocard, 14h15.           
Intervention de Michel Raynal, Professeur à l'université de Rennes, 

Le calcul sans attente consiste à résoudre des problèmes de synchronisation sans faire appel à des primitives de synchronisation qui pourraient conduire un ou plusieurs processus à se bloquer de façon intermittente. Ceci interdit donc toutes les primitives de synchronisation classiques telles que celles  fondées sur des techniques d'exclusion mutuelle.  Un avantage du calcul sans attente est que la vitesse d'un processus ne dépend que de lui, quel que soit le comportement des autres processus (cest-à-dire même si ceux-ci crashent ou deviennent  extrêmement lents). Introduit dès 1977 par Leslie Lamport, ce type de calcul a été "oublié" avant d'être "redécouvert"  dans les années 1990, notamment par Maurice Herlihy qui en a donné des fondements théoriques. Il est depuis devenu un object d'étude utilisé dans le calcul asynchrone (réparti ou centralisé) et dans la résolution des problèmes dits "temps-réel". L'exposé introduira les principes sous-jacents au calcul sans attente et en illustrera des propriétés à l'aide de quelques exemples particulièrement simples.


Méthodes et Outils pour Automatiser la Génération de systèmes fiables : Une approche par contrôle

6 décembre, salle Y. Rocard, 14h15.
Intervention de Hervé Marchand, chargé de recherche à l'Inria, équipe Vertecs de l'Irisa,

Le problème de la synthèse de contrôleur sur des systèmes à événements discrets consiste, à  partir  d'une  spécification  du  système  et  d'un  ensemble  de propriétés (objectif de contrôle)  attendues de celui-ci, à dériver/synthétiser un contrôleur  qui, une  fois placé dans son environnement, va  contraindre le comportement du système de manière à garantir l'ensemble des propriétés.

Dans le cadre  de cet exposé, nous ferons un panorama  des méthodes de synthèse de contrôleur  telles qu'elles  furent introduites par  Ramadge et  Wohnam (RW) dans  les années 80/90.  Dans  un second  temps,  nous  nous intéresserons  au contrôle de  systèmes structurés (i.e. composés de  plusieurs sous-systèmes) et verrons comment adapter  les méthodes précédentes à ce  type de systèmes.  Nous finirons par un  tour d'horizon sur les recherches  actuellement réalisées dans ce cadre.


Présentation des réseaux pour la recherche et l'éducation en France,  en Europe et dans le monde.

mardi 17 janvier de 14h à 15h30, salle du conseil.
Intervention de D. Vandromme, directeur du réseau RENATER, le réseau informatique de la recherche nationale.

Les réseaux pour la recherche et l'éducation se sont énormément  développés depuis le début des années 2000, en s'écartant de plus en  plus des offres de services disponibles commercialement, tant en  termes de capacités que de services avancés. RENATER, qui en est la  composante nationale en France participe de façon active à la  structuration de l'Internet dans le pays, en même temps qu'il  contribue de façon très active à la construction de l'espace européen  de la recherche et de l'éducation. Il participe également au  rayonnement de la recherche européenne dans toutes les régions du  monde. Le sujet de la présentation est de donner une vue globale de  ces actions.


Analyse sémantique de programmes : application à la sécurité du code mobile.

mardi 31 janvier de 14h à 15h30, salle Y. Rocard.
Intervention de Thomas Jensen, directeur de recherche au CNRS, responsable de l'équipe Lande à l'Irisa.

L'analyse de programme est fondée sur la théorie de l'interprétation abstraite. Dans l'exposé, je vais présenter les éléments de base de cette théorie et montrer comment construire une analyse pour des applettes Java. Je vais ensuite décrire comment le résultat d'une telle analyse peut être utilisé pour améliorer la sécurité du code mobile (comme les applettes que l'on télé-charge) en couplant un programme avec une preuve de sa correction (le principe de "proof-carrying code").

Analyse du mouvement dans des séquences d’images: des modèles  physiques à l’apprentissage.

mardi 7 mars de 14h à 15h30, salle Y. Rocard.
Intervention de Patrick Bouthemy, directeur de recherche à l'INRIA, responsable de l'équipe Vista à l'Irisa.

Cet exposé abordera le problème de l’analyse de séquences d’images et couvrira les questions associées de modélisation, de mesure, de structuration et de reconnaissance du mouvement dans ces séquences d’images. Il s’intéressera plus particulièrement à deux domaines différents, l’analyse du mouvement fluide pour l’étude d’écoulements d’une part, et l’analyse de contenus dynamiques pour l’indexation vidéo d’autre part. Ces objectifs conduisent respectivement à l’introduction adaptée, dans les méthodes développées, de modèles physiques des phénomènes visualisés (en imagerie météorologique ou en mécanique des fluides expérimentale), et à la définition de modèles statistiques spécifiés par apprentissage pour appréhender les contenus très divers du domaine audio-visuel (notamment les programmes télévisuels de sports).

Turbocodes et algorithmes turbo

mardi 21 mars 2006 de 14h à 15h30, salle du conseil à l'ENS Cachan à Ker-Lann.
Intervention de C. Berrou, Directeur d'études à l'ENSTB, Directeur du laboratoire TAMCIC à Brest

Les turbocodes et les décodeurs associés, qui s'appuient sur le principe de la contre-réaction et qui sont mis en œuvre par un traitement itératif, offrent des performances proches des limites théoriques de Shannon. L'application de ce principe général de contre-réaction est aujourd'hui largement étendue à des fonctions de réception autres que le codage correcteur. Cette présentation retrace le cheminement qui a conduit à l'invention de cette nouvelle technique de codage et de décodage, et fait un inventaire des principales améliorations qui y ont été apportées par la suite. Les codes LDPC, une autre famille de codes décodés itérativement, sont une alternative aux turbocodes dans les comités de normalisation. L'exposé se terminera par une rapide comparaison des deux techniques.

Surveillance en fonctionnement, détection et diagnostic de pannes :  traitement statistique de l'information multi-capteurs sur la base de modèles physiques.

mardi 4 avril 2006 à 14h, samme Rocard à Ker-Lann.
Intervention de Michèle Basseville, directrice de recherches au CNRS, responsable  de l'équipe Sisthem à l'Irisa.

L'informatique joue un rôle crucial dans la sûreté de fonctionnement des systèmes technologiques critiques et/ou complexes, tels que les centrales nucléaires, les avions et engins spatiaux, les systèmes industriels de production continue (électricité, pétrole, chimie, métallurgie, sidérurgie), les grands ouvrages de génie civil (barrages, ponts, plateformes pétrolières), les véhicules et les infrastructures des systèmes de transport routiers et ferroviaires.  En raison de la diffusion massive de capteurs de toutes natures, ces systèmes bénéficient d'une instrumentation conséquente, et leur sûreté de fonctionnement passe par la conception d'algorithmes de traitement in-situ des données numériques ainsi disponibles.  Il s'agit alors en particulier d'opérer détection, localisation, et diagnostic d'événements imprévus ou de déviations par rapport à un comportement de référence normal.

Cet exposé abordera des fondements de la conception de tels algorithmes de traitement statistique. Il sera illustré d'exemples, notamment dans le domaine de la surveillance d'intégrité de structures (ponts, avions).

Mise à jour le 28 octobre 2015