La double face de la GenAI : entre innovation en cybersécurité et vulnérabilités émergentes

La double face de la GenAI : entre innovation en cybersécurité et vulnérabilités émergentes

L’avènement rapide de l’intelligence artificielle générative (GenAI) soulève de nouvelles préoccupations en matière de cybersécurité, tout en offrant des perspectives prometteuses pour contrer ces menaces. L’essor fulgurant de technologies telles que ChatGPT a non seulement captivé l’intérêt général et celui des entreprises en 2023, mais a également éveillé la convoitise de cybercriminels. Ces derniers exploitent les capacités avancées de la GenAI pour mener à bien leurs desseins malveillants, démontrant ainsi la dualité de la GenAI comme étant à la fois un outil puissant et un vecteur potentiel de nouvelles vulnérabilités dans l’espace numérique.

Gérôme Billois, expert chez Wavestone, met en lumière la complexité inédite que la GenAI introduit dans le domaine de la cybersécurité. Il souligne que l’interaction avec ces systèmes d’IA se fait à travers des modes d’entrée diversifiés, incluant texte et images, engendrant une variabilité des réponses à des requêtes identiques due à leur nature non déterministe. Cette particularité des systèmes d’IA générative modifie profondément les approches traditionnelles de la cybersécurité, posant ainsi un défi majeur quant à la gestion des risques associés et à l’adaptation des stratégies de défense.

L’exemple de PoisonGPT, révélé par la start-up française Mithril Security, illustre parfaitement les risques de manipulation de modèles d’IA générative. En modifiant subtilement un modèle LLM (Large Language Model) et en le republiant, il a été possible de le faire divulguer des informations erronées, comme attribuer faussement le premier pas sur la Lune à Yuri Gagarine. Ce cas soulève des questions cruciales sur la fiabilité et la sécurisation des modèles d’IA, et met en exergue la nécessité d’établir des mécanismes de confiance et de validation rigoureux pour ces technologies émergentes. La GenAI, par conséquent, représente un terrain fertile tant pour l’innovation en matière de sécurité que pour l’émergence de nouvelles menaces, nécessitant une vigilance et une adaptation constantes de la part des acteurs du domaine.