Projets
Outil de détection des faiblesses de modèles d’IA/ML par analyse de nomenclature (AIBOM). J’ai rédigé la soumission initiale au concours xTech Scalable AI de l’armée américaine, où le projet s’est classé 4e et a obtenu un contrat SBIR de 2 M$.
Co-auteur de SISA (Sharded, Isolated, Sliced, and Aggregated training), une technique qui améliore le temps de désapprentissage machine jusqu’ à 4,63× avec les meilleures garanties de confidentialité. Publié au IEEE Symposium on Security and Privacy (Oakland) 2021.
Mainteneur de CleverHans, une bibliothèque Python fournissant des implémentations de référence d’attaques et de défenses adversariales pour les modèles de machine learning. Largement utilisée dans la recherche en sécurité ML.
Contribution à BastionLab, un framework open source pour la data science confidentielle. Permet aux propriétaires de données de partager des jeux de données pour analyse sans exposer les données brutes, grâce aux environnements d’exécution de confiance.
Contribution à BlindBox, une solution pour déployer des modèles d’IA dans des enclaves confidentielles afin que ni le fournisseur du modèle ni l’opérateur de l’infrastructure ne puissent accéder aux données utilisateur.
Contribution à AICert, un outil de certification de la provenance et de l’intégrité des modèles d’IA via l’attestation matérielle d’environnements de calcul confidentiel.