Attaques adversariales contre les techniques d'analyse de code binaire basées sur l'apprentissage automatique: étude d'une attaque par imitation en boîte noire sans requête.
Adversarial Attacks Against Machine-Learning-Based Binary Code Analysis: A Zero-Query Black-Box Mimicry Attack Study.
Jury
Directeur de these_MARION_Jean-Yves_Loria, Université de Lorraine
Rapporteur_WU_Shyhtsun Felix_National Cheng Kung University
Rapporteur_VIET TRIEM TONG_Valérie_Centrale Supélec
Examinateur_SAZZADUR_Rahaman_University of Arizona
Président_MINIER_Marine_Loria, Université de Lorraine
école doctorale
IAEM - INFORMATIQUE - AUTOMATIQUE - ELECTRONIQUE - ELECTROTECHNIQUE - MATHEMATIQUES
Laboratoire
LORIA - Laboratoire Lorrain de Recherche en Informatique et ses Applications
Mention de diplôme
Informatique
A008
Loria
Campus Scientifique
BP 239
54506 Vandoeuvre-lès-Nancy
Mots clés
Attaque adverse,Apprentissage automatique,Analyse de code binaire,Boîte noire,Sans requête,Attaque par imitation,
Résumé de la thèse
L'analyse de code binaire basée sur l'apprentissage automatique est devenue un pilier essentiel de la cybersécurité moderne, en automatisant de manière efficace la détection de similarité de codes compilés.
Pouvoir décider si deux morceaux de code sont similaires possède de nombreuses applications, telles que la découverte de vulnérabilités ou la classification de logiciels malveillants (malware).
Cependant, ces modèles reposent souvent sur des motifs syntaxiques et structurels fragiles plutôt que sur la véritable sémantique des programmes, les rendant vulnérables aux manipulations adversarial
Keywords
Adversarial attack,Machine learning,Binary code analysis,Black box,Zero query,Mimicry Attack,
Abstract
Machine-learning-based binary code analysis has become a cornerstone of modern software security, enabling efficient automatic similarity detection directly from compiled executables.
This enables solutions to downstream tasks such as vulnerability discovery and malware classification.
Yet, these models often rely on fragile syntactic and structural patterns rather than true program semantics, making them vulnerable to adversarial manipulation.
This thesis investigates the robustness of Binary Code Similarity Detection (BCSD) models under adversarial conditions.
We introduce Kelpie, a novel tw