{ Tribune Expert } - 5 étapes pour sécuriser les charges de travail liées à l'IA
A mesure que l'adoption de l'IA s'accélère, les responsables de la sécurité doivent mettre en place des programmes de sécurité dédiés aux charges de travail IA pour protéger leur organisation, et cela tout en veillant à favoriser l'innovation basée sur l'intelligence artificielle. Tout un défi !

Sur la seule dernière année, les charges de travail intégrant des composants d'IA ont augmenté de près de 500 %. Autrement dit : l'IA est partout et elle s'installe durablement. Bien entendu, aussi utiles soient-elles, ces charges de travail à base d'IA présentent des défis en matière de sécurité, notamment leur vulnérabilité potentielle aux cyberattaques, l'exposition des données ou encore la manipulation des modèles.
Ainsi, à mesure que l'adoption de l'IA s'accélère, les responsables de la sécurité doivent mettre en place des programmes de sécurité dédiés aux charges de travail IA pour protéger leur organisation, et cela tout en veillant à favoriser l'innovation basée sur l'intelligence artificielle. Tout un défi !
Un programme de sécurité robuste exige une approche proactive et structurée. Voici cinq étapes essentielles pour assurer la sécurité et la résilience dans les environnements IA.
Étape 1 : obtenir une visibilité sur les charges de travail d'IA
La visibilité est la base de tout programme de sécurité. De nombreuses organisations manquent de visibilité et ne savent pas précisément où les charges de travail IA sont exécutées ? Qui y a accès ? Quelles données sont traitées ?
Obtenir cette visibilité nécessite en tout premier lieu d'inventorier les charges de travail IA dans les environnements cloud, sur-site et hybrides. Il est en effet essentiel d'identifier les dépendances à l'IA, dans les frameworks de machine learning, les API et les sources de données, pour comprendre les failles potentielles. De plus, la surveillance en temps réel permet aux équipes de sécurité de détecter les activités inhabituelles, les accès non autorisés et les risques d'exposition avant qu'ils ne deviennent des menaces majeures.
Bonnes pratiques : utiliser des plateformes natives de protection des applications cloud (CNAPP) pour découvrir les charges de travail d'IA et appliquer un système de tags des actifs pour classifier les modèles IA selon leur niveau de sécurité.
Étape 2 : sécuriser les pipelines de développement et de déploiement d'IA
Les modèles d'IA passent par plusieurs étapes de développement, de l'entraînement au déploiement. Chacune présente des risques de sécurité, tels que l'empoisonnement des données, le vol de modèle et les mauvaises configurations.
L'adoption des pratiques DevSecOps permet d'intégrer la sécurité dès le début du développement des modèles d'IA. Dès lors, il est essentiel pour les organisations d'analyser le code et les dépendances des modèles pour détecter les vulnérabilités avant leur déploiement mais également d'imposer des contrôles d'accès stricts aux dépôts de modèles et aux ensembles de données d'entraînement afin d'éviter les modifications non autorisées et les fuites de données.
Bonnes pratiques : intégrer des outils d'analyse de vulnérabilités des bibliothèques IA (par exemple, TensorFlow, PyTorch) dans les pipelines CI/CD et utiliser des outils de sécurité d'infrastructure as code (IaC) pour prévenir les erreurs de configuration.
Étape 3 : protéger les charges de travail d'IA en phase d'exécution
Les modèles IA sont vulnérables après leur déploiement : attaques par entrées adverses, évasion de modèle, modifications non autorisées, etc. La sécurité en phase d'exécution consiste à surveiller et à protéger en continu les charges de travail actives pour répondre aux activités malveillantes avant qu'elles ne causent des dommages.
Les organisations doivent ainsi activer la détection des menaces en temps réel pour les charges de travail d'IA en utilisant l'analyse comportementale afin d'identifier les anomalies et les activités suspectes. La surveillance des interactions via API permet de détecter les requêtes inhabituelles ou non autorisées pouvant compromettre les modèles. Les équipes peuvent aussi prendre des mesures préventives, comme appliquer le principe du moindre privilège pour limiter la surface d'attaque.
Bonnes pratiques : utiliser des solutions de détection et de réponse cloud (CDR) pour une surveillance continue ; Mettre en oeuvre la détection d'anomalies pour identifier les attaques adverses ; Restreindre l'accès aux API IA en fonction des rôles et des autorisations des utilisateurs.
Étape 4 : gérer les risques liés à l'IA et assurer la conformité
Les autorités réglementaires du monde entier introduisent des cadres de gouvernance de l'IA pour répondre aux préoccupations en matière de sécurité, de confidentialité et d'éthique. Les organisations doivent aligner leurs programmes de sécurité IA sur ces normes.
L'adoption d'un cadre de gestion des risques IA basé sur MITRE ATLAS et les directives OWASP pour l'IA permet une approche structurée. Il est donc vivement recommandé aux organisations de documenter les risques de sécurité IA dans un registre des risques et prioriser les mesures d'atténuation. Se conformer aux réglementations, comme l'AI Act de l'Union Européenne ou le cadre NIST pour la gestion des risques liés à l'IA, est primordial pour respecter les standards légaux et industriels.
Bonnes pratiques : réaliser régulièrement des évaluations de sécurité pour identifier les écarts avec les politiques ; utiliser des outils permettant d'auditer les décisions des modèles IA ; chiffrer les données sensibles d'entraînement et appliquer des politiques de protection des données.
Étape 5 : Former et sensibiliser les équipes de sécurité aux menaces IA
La sécurité IA est un domaine en évolution rapide, ce qui oblige les professionnels à rester informés sur les nouvelles menaces et les stratégies de défense.
Développer des programmes de formation en sécurité IA pour les équipes de sécurité et les développeurs garantit que le personnel est prêt à gérer les menaces spécifiques à l'IA. Réaliser des modélisations de menaces IA et former les équipes aux meilleures pratiques leur permet d'anticiper les vecteurs d'attaque potentiels. Mettre en place un plan de réponse aux incidents IA assure une approche structurée en cas de violation, afin de limiter les impacts.
La sécurisation des charges de travail IA n'est pas un effort ponctuel, mais un processus continu. En suivant ces cinq étapes - visibilité, sécurisation des pipelines, protection à l'exécution, gestion des risques et formation des équipes - les organisations peuvent bâtir un programme de sécurité IA résilient, permettant d'innover tout en limitant les risques.
À mesure que l'adoption de l'IA s'intensifie, les responsables de la sécurité doivent adopter des mesures proactives pour protéger les charges de travail IA et renforcer la confiance dans les prises de décision pilotées par l'intelligence artificielle. L'avenir de la sécurité IA dépend de notre capacité à anticiper et à contrer les menaces en temps réel.
* Philippe Darley est expert cybersécurité du Cloud chez Sysdig
Sur le même thème
Voir tous les articles Cybersécurité