Comprendre les risques liés à la cybersécurité des intelligences artificielles génératives
Les intelligences artificielles génératives, telles que ChatGPT, DALL·E, Midjourney ou encore Bard, ont connu un développement fulgurant au cours des dernières années. Capables de produire du texte, des images, du code ou encore du son à partir de simples requêtes utilisateurs, elles posent cependant de nouveaux défis en matière de cybersécurité. L’utilisation de ces IA comporte des risques croissants de fuites de données, de génération de contenus malveillants ou de manipulation d’information, suscitant ainsi un intérêt accru des professionnels de la sécurité informatique, des régulateurs et des entreprises.
Dans cet article, nous explorerons les principales menaces liées aux intelligences artificielles génératives et les stratégies à mettre en œuvre pour se prémunir contre les abus et les vulnérabilités. L’objectif est de mieux encadrer l’utilisation de ces outils puissants tout en assurant la confidentialité, l’intégrité et la disponibilité des systèmes d’information.
Les principales menaces liées aux IA génératives
Les IA génératives, en raison de leur capacité à simuler ou automatiser de nombreuses tâches humaines, peuvent être détournées à des fins malveillantes. Voici les risques de cybersécurité les plus fréquemment identifiés :
- Exfiltration de données sensibles : Les utilisateurs peuvent involontairement soumettre des informations confidentielles aux IA génératives. Ces données peuvent être intégrées au modèle lors de l’entraînement continu, augmentant ainsi le risque qu’elles soient régurgitées ultérieurement via de futures requêtes.
- Génération de phishing et de deepfakes : Grâce à leurs capacités linguistiques et créatives, les IA génératives peuvent produire des e-mails ou des messages de phishing extrêmement crédibles, ou des contenus audiovisuels (deepfakes) susceptibles de tromper victimes et systèmes de sécurité.
- Injections de prompt (prompt injection attacks) : Des acteurs malveillants peuvent manipuler des instructions ou des entrées pour faire exécuter à l’IA des actions non souhaitées par les administrateurs ou utilisateurs légitimes.
- Fuite d’informations via les API : Les services d’IA proposés via des API peuvent, s’ils ne sont pas correctement sécurisés, être vulnérables à des attaques visant à extraire des informations internes sur le modèle ou sur d’autres utilisateurs.
- Accès non autorisé à des systèmes d’information : Dans certains cas, les IA capables de générer du code peuvent être utilisées pour programmer des scripts malveillants ou automatiser des phases d’attaque (reconnaissance, exploitation, post-exploitation).
Encadrement réglementaire et obligations légales
Afin de prévenir les abus et de responsabiliser les acteurs du numérique, de nombreuses juridictions commencent à encadrer légalement l’usage des intelligences artificielles. En Europe, le règlement général sur la protection des données (RGPD) impose, par exemple, une obligation de minimisation des données (article 5.1.c) ainsi qu’un encadrement strict des traitements automatisés (article 22).
En outre, la Commission européenne a proposé en 2021 l’AI Act, un projet de règlement dédié à l’intelligence artificielle. Celui-ci classe les systèmes d’IA par niveau de risque et impose des exigences spécifiques pour les systèmes à haut risque, incluant la transparence, la robustesse et la gouvernance des données d’entraînement.
En France, la CNIL a publié plusieurs lignes directrices sur l’usage de l’IA, soulignant l’importance d’évaluations d’impact sur la vie privée (PIA), de la transparence algorithmique et de la sécurité des données.
Bonnes pratiques techniques pour sécuriser les systèmes basés sur l’IA générative
Pour prévenir les abus et les fuites de données, il est essentiel d’intégrer la cybersécurité dès la conception des systèmes intégrant des IA génératives (approche « sécurité dès la conception »). Voici quelques bonnes pratiques fondamentales :
- Contrôle des entrées utilisateurs : Imposer des filtres et des règles de validation sur les prompts utilisateurs afin d’éviter les attaques par injection ou les demandes malveillantes.
- Journalisation des interactions : Archiver les requêtes et les réponses de l’IA pour permettre une détection rapide des comportements suspects ou inappropriés tout en respectant les règles de conformité RGPD.
- Prévention des fuites de données : Isoler les environnements utilisateur, anonymiser les données soumises et limiter ou désactiver l’apprentissage continu pour les modèles traitant des données sensibles.
- Révision manuelle et modération : Intégrer un processus de validation humaine dans les cas critiques, notamment pour la génération de contenu susceptible d’être diffusé largement.
- Chiffrement et authentification : Sécuriser les communications avec l’IA via des protocoles chiffrés (TLS), utiliser une authentification forte pour accéder aux services d’IA et restreindre l’accès via des politiques RBAC (Role-Based Access Control).
Sensibilisation et gouvernance interne
La gouvernance de l’usage de l’IA est un levier fondamental de cybersécurité. Les entreprises et institutions doivent élaborer des politiques internes précises sur l’utilisation des IA génératives. Cela nécessite :
- Formation des utilisateurs : Sensibiliser les collaborateurs à l’utilisation correcte des IA, en expliquant clairement les risques liés à la saisie de données sensibles ou confidentielles.
- Référentiel de bonnes pratiques : Rédiger et diffuser un guide interne listant les usages permis, les interdictions et les procédures d’escalade en cas d’incident de sécurité impliquant une IA.
- Création d’un comité éthique ou d’un responsable IA : Pour encadrer l’évaluation des impacts, vérifier la conformité aux exigences légales et valider les projets intégrant ces technologies.
Surveillance en continue et réponse aux incidents
Les systèmes embarquant de l’IA doivent faire l’objet d’une surveillance active. L’intégration de mécanismes de détection d’anomalies, de journalisation avancée et d’alertes en temps réel participe à une stratégies de défense « en profondeur » efficace.
Il est également recommandé de prévoir un plan de réponse aux incidents incluant des scénarios spécifiques aux IA génératives. Par exemple :
- Révocation rapide des clés d’API exposées ou compromises
- Analyse post-mortem des prompts ou des contenus générés
- Patch rapide des mécanismes de validation ou filtrage insuffisants
Des outils de cybersécurité traditionnels comme les SIEM (Security Information and Event Management), les WAF (Web Application Firewalls) et les solutions de DLP (Data Loss Prevention) peuvent être adaptés ou complétés pour surveiller les flux d’interactions IA.
Vers une standardisation de la sécurité des IA génératives
Pour accompagner le déploiement sécurisé de l’intelligence artificielle, plusieurs organisations œuvrent à la création de normes et standards techniques. L’ISO a déjà publié les premières normes ISO/IEC 22989 (terminologie IA) et ISO/IEC 23894 (gouvernance des risques de l’IA). L’ENISA (Agence de l’Union européenne pour la cybersécurité) offre également des recommandations spécifiques, notamment dans son rapport « Threat Landscape for Artificial Intelligence » de 2023.
Au niveau industriel, des consortiums tels que le Partnership on AI, le National Institute of Standards and Technology (NIST) et la Mozilla Foundation mènent des initiatives en faveur d’une IA responsable et sécurisée. L’émergence de benchmarks, de bibliothèques d’audit et d’outils open source pour tester la sécurité des IA devrait également contribuer à renforcer les systèmes dans les années à venir.
Protéger les systèmes intégrant des IA génératives demandera une approche pluridisciplinaire, combinant cybersécurité, droit informatique, éthique et veille technologique. Une organisation proactive, qui associe les DSI, RSSI, juristes, développeurs et utilisateurs finaux, pourra transformer ces outils puissants en véritables leviers d’innovation sans compromettre la sécurité de son système d’information.