Sécurité et IA by AMIAD
PITCH
Le European Symposium on Security and AI (ESSAI) tient sa première édition lors l’European Cyber Week (ECW) les 20 et 21 novembre 2024.
Cet évènement, co-organisé par l’AMIAD (Agence Ministérielle de l’Intelligence Artificielle de Défense) et l’Inria (Institut national de la recherche en sciences et technologies du numérique), propose un programme de trois sessions thématiques axées sur :
La sécurité des systèmes d’intelligence artificielle, qui aborde l’intégrité (empoisonnement, portes dérobées, exemples adverses) et la confidentialité des données (reconstruction de données d’entrainement)
L’utilisation de l’intelligence artificielle pour renforcer la cybersécurité (supervision, analyse de logs, pentest assisté par IA,…)
L’utilisation malveillante de l’intelligence artificielle générative (détection de deepfakes, traçabilité des données générées, jailbreaking de LLM ).
Les participants assisteront à des présentations données par des scientifiques nationaux et internationaux, dont les travaux ont été acceptés dans des conférences de premier plan en intelligence artificielle et en sécurité.
Ce symposium, volontairement interdisciplinaire, met en lumière une variété de domaines d’application, couvrant entre autres les enjeux de l’intelligence artificielle appliquée à la défense, la santé ou encore les médias. Il offre ainsi aux participants une compréhension plus complète et diversifiée des défis et des opportunités dans ces domaines.
PROGRAMME
Session #1: AI for Cybersecurity
Wednesday, November 20th – 13:30-18:00 – Room Le Carré 1
-
Fault Injection and Safe-Error Attack for Extraction of Embedded Neural Network Models, Kevin Hector, Pierre-Alain Moëllic, Jean-Max Dutertre, Mathieu Dumont – ESORICS, 2023
-
When Side-Channel Attacks Break the Black-Box Property of Embedded Artificial Intelligence, Benoît Coqueret, Mathieu Carbone, Olivier Sentieys, Gabriel Zaid – AISEC, 2023
-
Decoding the Secrets of Machine Learning in Malware Classification, Savino Dambra, Yufei Han, Simone Aonzo, Platon Kotzias, Antonino Vitale, Juan Caballero, Davide Balzarotti, Leyla Bilge – SIGSAC, 2023
-
Dos and don’ts of machine learning in computer security, Daniel Arp, Erwin Quiring, Feargus Pendlebury, Alexander Warnecke, Fabio Pierazzi, Christian Wressnegger, Lorenzo Cavallaro, Konrad Rieck – USENIX Security Symposium, 2022
-
How machine learning is solving the binary function similarity problem, Andrea Marcelli, Mariano Graziano, Xabier Ugarte-Pedrero, Yanick Fratantonio, Mohamad Mansouri, Davide Balzarotti – USENIX Security Symposium, 2022
-
Getting pwn’d by AI : Penetration testing with large language models, Andreas Happe, Jürgen Cito – ESEC/FSE, 2023. presented by Manuel Reinsperger
Session #2: Vulnerabilities of AI
Thrusday, November 21st – 9:00-12:00 – Room La Nef
-
SECURITYNET: Assessing Machine Learning Vulnerabilities on Public Models, Boyang Zhang, Zheng Li, Ziqing Yang, Xinlei He, Michael Backes, Mario Fritz, Yang Zhang – USENIX Security Symposium, 2024
-
On the Privacy-Robustness-Utility Trilemma in Distributed Learning, Youssef Allouah, Rachid Guerraoui, Nirupam Gupta, Rafaël Pinot, John Stephan – ICML, 2023
-
Unveiling the Threat: Investigating Distributed and Centralized Backdoor Attacks in Federated Graph Neural NetworksDigital Threats, Jing Xu, Stefanos Koffas, Stjepan Picek – Digital Threats: Research and Practice, 2024
-
“Real Attackers Don’t Compute Gradients”: Bridging the Gap Between Adversarial ML Research and Practice, Giovanni Apruzzese, Hyrum S. Anderson, Savino Dambra, David Freeman, Fabio Pierazzi, Kevin Roundy – SaTML, 2023
-
When Your AI Becomes a Target: AI Security Incidents and Best Practices, Kathrin Grosse, Lukas Bieringer, Tarek R. Besold, Battista Biggio, Alexandre Alahi – AAAI, 2024
Session #3: GenAI and Security
Thrusday, November 21st – 13:30-18:00 – Room La Nef
-
CodeLMSec Benchmark: Systematically Evaluating and Finding Security Vulnerabilities in Black-Box Code Language Models, Hossein Hajipour,
Keno Hassler, Thorsten Holz, Lea Schönherr, Mario Fritz – SaTML, 2024 -
Stealing Part of a Production Language Model, Nicholas Carlini, Daniel Paleka, Krishnamurthy (Dj) Dvijotham, Thomas Steinke, Jonathan Hayase, A. Feder Cooper, Katherine Lee, Matthew Jagielski, Milad Nasr, Arthur Conmy, Eric Wallace, David Rolnick, Florian Tramèr – ICML, 2024
-
Not What You’ve Signed Up For: Compromising Real-World LLM-Integrated Applications with Indirect Prompt Injection, Kai Greshake, Sahar Abdelnabi, Shailesh Mishra, Christoph Endres, Thorsten Holz, Mario Fritz – AISec, 2023
-
The Stable Signature: Rooting Watermarks in Latent Diffusion Models, Pierre Fernandez, Guillaume Couairon, Hervé Jégou, Matthijs Douze, Teddy Furon – ICCV, 2023.