SAUGER GABRIEL


14h00

Soutenance de thèse de GABRIEL SAUGER

Attaques adversariales contre les techniques d'analyse de code binaire basées sur l'apprentissage automatique: étude d'une attaque par imitation en boîte noire sans requête.

Adversarial Attacks Against Machine-Learning-Based Binary Code Analysis: A Zero-Query Black-Box Mimicry Attack Study.

Jury

Directeur de these_MARION_Jean-Yves_Loria, Université de Lorraine
Rapporteur_WU_Shyhtsun Felix_National Cheng Kung University
Rapporteur_VIET TRIEM TONG_Valérie_Centrale Supélec
Examinateur_SAZZADUR_Rahaman_University of Arizona
Président_MINIER_Marine_Loria, Université de Lorraine


école doctorale

IAEM - INFORMATIQUE - AUTOMATIQUE - ELECTRONIQUE - ELECTROTECHNIQUE - MATHEMATIQUES

Laboratoire

LORIA - Laboratoire Lorrain de Recherche en Informatique et ses Applications

Mention de diplôme

Informatique
A008 Loria Campus Scientifique BP 239 54506 Vandoeuvre-lès-Nancy
*

Mots clés

Attaque adverse,Apprentissage automatique,Analyse de code binaire,Boîte noire,Sans requête,Attaque par imitation,

Résumé de la thèse

L'analyse de code binaire basée sur l'apprentissage automatique est devenue un pilier essentiel de la cybersécurité moderne, en automatisant de manière efficace la détection de similarité de codes compilés. Pouvoir décider si deux morceaux de code sont similaires possède de nombreuses applications, telles que la découverte de vulnérabilités ou la classification de logiciels malveillants (malware). Cependant, ces modèles reposent souvent sur des motifs syntaxiques et structurels fragiles plutôt que sur la véritable sémantique des programmes, les rendant vulnérables aux manipulations adversarial

Keywords

Adversarial attack,Machine learning,Binary code analysis,Black box,Zero query,Mimicry Attack,

Abstract

Machine-learning-based binary code analysis has become a cornerstone of modern software security, enabling efficient automatic similarity detection directly from compiled executables. This enables solutions to downstream tasks such as vulnerability discovery and malware classification. Yet, these models often rely on fragile syntactic and structural patterns rather than true program semantics, making them vulnerable to adversarial manipulation. This thesis investigates the robustness of Binary Code Similarity Detection (BCSD) models under adversarial conditions. We introduce Kelpie, a novel tw