9 novembre 2018  – Paris, Cité internationale – Collège d’Espagne.

Pour des raisons d’organisation, l’inscription aux réunions est gratuite mais obligatoire.
L’inscription se fait à travers le site du GdR ISIS :
http://www.gdr-isis.fr/index.php?page=reunion&idreunion=372

Organisateurs :

  • Gilles SICARD – CEA LETI (pour le GDR ISIS)
  • François BERRY – Institut Pascal – Clermont Fd (Pour le GDR ISIS et SOC²)
  • Daniel CHILLIET – IRISA – Rennes (Pour le GDR SOC²)
  • Kevin MARTIN – UBS – Lorient (Pour le GDR SOC²)
  • Dominique DALLET – IMS Bordeaux (Pour le GDR SOC²)

Cette journée thématique conjointement organisée par les GDR ISIS et GDR SOC² dont le thème de l’année est le « Near Sensor Computing », a pour but de réunir des acteurs travaillant sur les systèmes de vision embarqués au sens large. L’objectif est d’échanger à propos des dernières recherches sur les systèmes (smart camera) et capteurs d’images intelligents (rétine) ainsi que de réfléchir aux futurs axes de recherches.

Dans le domaine des capteurs d’image CMOS, de nouveaux dispositifs ont vu le jour qui intègrent directement dans le plan focal (ou près du plan focal) des algorithmes complexes de traitement et d’analyse de l’image, comme par exemple l’extraction de caractéristiques pour la reconnaissance de formes. De plus, des technologies émergentes, telles que l’intégration 3D, les memristors etc., permettent d’envisager de nouveaux opérateurs ou de nouvelles architectures.

Depuis quelques années, on assiste en effet à une coopération de plus en plus étroite entre le capteur d’images et les unités de traitement embarquées au plus proche du capteur. De tels systèmes de vision, sont aujourd’hui capables d’acquérir et d’analyser le flot d’images en temps réel afin de produire du contenu sémantique de la scène observée. De plus, en considérant les possibilités d’interconnexion de tels systèmes au sein de réseaux d’objets communicants, on note l’émergence de nouvelles activités de recherche (coopération de capteurs, traitements distribués, communication intelligente, cloud-computing, …)

De nombreuses équipes de nos communautés ont obtenus des résultats remarquables ces deux dernières années. Plusieurs présentations, à la fois sur les aspects matériels (circuits, architectures, systèmes…), les aspects algorithmiques ou méthodologiques (simulation, modélisation…) sont proposées.

Programme

9h30-10h15 : Accueil café
10h15-10h30 : Introduction
10h30-11h00 : Dominique GINHAC – LE2I (Dijon) – Architectures embarquées pour l’imagerie HDR en temps réel
11h00-11h30 : Wissam Benjilali – CEA LETI – On compressive sampling strategies for near image sensor decision making
11h30-12h00 : Jonathan Bonnard (DREAM, UCA) – A novel multiview smart camera framework based on FPGA for deep learning
12h00-12h30 : Stéphane CHEVOBBE (CEA) – Demonstration of a 3D stacked BSI vision chip

12h30-14h00 : Repas

14h00-14h30 : Jean Philippe DIGUET – Lab-STICC Lorient – Systèmes embarqués autonomes pour véhicules autonomes
14h30-15h00 : Yang NI – New Imaging Technologies – Multi-mode Logarithmic Sensor for Smart Vision Systems
15h00-15h30 : Juliette LEHIR – GeePs – Laboratoire de Génie électrique et électronique de Paris – Conception mixte d’un imageur intelligent intégré à traitements locaux massivement parallèles
15h30-16h00 : Satyajit Das – Lab-STICC Lorient – A 142MOPS/mW integrated programmable array accelerator for smart visual processing
16h00-16h30 : Mathieu Thevenin – Université Paris-Saclay, CEA IRAMIS SPEC – eISP, a fully programmable architecture for image and signal processing

Vous pouvez contacter les organisateurs en envoyant un message à francois.berry@uca.fr, kevin.martin@univ-ubs.fr, daniel.chillet@irisa.fr, dominique.dallet@ims-bordeaux.fr, Gilles.SICARD@cea.fr

En souhaitant vous voir nombreux le 09/11/2018 à Paris pour un échange fructueux.

Fichier PDF
Télécharger le PDF