[ENGLISH BELOW]
Bonjour,
Dans le cadre de nos travaux sur la sécurité de l’intelligence artificielle, nous proposons la thèse suivante : Sécurité de l’apprentissage profond décentralisé : intégrité et confidentialité des modèles de réseaux de neurones embarqués.
Contexte :
- Déploiement massif de l’Intelligence Artificielle
- Nouvelles modalités d’apprentissage décentralisé
- Sécurité des modèles : une surface d’attaque complexe
Les objectifs de la thèse :
- Définir les différents modèles de menaces propres à un apprentissage décentralisé (et embarqué)
- Caractériser des attaques visant l’intégrité des modèles, la disponibilité de l’algorithme d’apprentissage mais aussi de la confidentialité des modèles et des données.
- Améliorer ou proposer des mécanismes de protections
- Proposer des méthodologies d’évaluation de la robustesse des modèles
Plus d’information sur : https://gitlab.emse.fr/pierre-alain.moellic/anr_2020_picture_public/-/blob/main/SecureEmbeddedLearningDNN_descriptif.pdf
Merci de me contacter rapidement : pierre-alain.moellic@cea.fr
====== ENGLISH =====
In the context of research actions in the field of the Security of Articifial Intelligence, we propose the following PhD subject : Security of decentralized deep learning : integrity and confidentiality of embedded deep neural network models
Context :
- Large-scale deployment of AI
- New decentralized training processes
- Model security : a complex attack surface
Objective :
- Definition of the different threats models for embedded and decentralized training (focus on Federated Learning)
- Caracterization of attacks targeting models integrity, availability and confidentiality of models and data.
- Improve and propose protection schemes
- Propose evaluation methods for model robustness
Please contact : pierre-alain.moellic@cea.fr
Pierre-Alain Moellic
CEA LETI, Centre Microélectronique Provence, Gardanne
Equipe de recherche commune, CEA-LETI/Mines Saint-Etienne
Fichier PDF
Télécharger le PDF