Intelligence artificielle et cybersécurité

IA et cybersécurité : enjeux, opportunités et risques pour les entreprises françaises
L'intelligence artificielle (IA) révolutionne rapidement le paysage technologique de l’entreprise, et les entreprises françaises sont donc impactées comme les autres. Des chatbots améliorant le service client, aux algorithmes optimisant les processus de production, l'IA s'immisce dans tous les secteurs et à toutes les étapes de la vie d’une organisation, promettant gains de productivité et avantages concurrentiels. En 2025, 66 % des entreprises françaises, toutes tailles confondues, déclarent avoir adopté l’intelligence artificielle (IA) dans leurs activités, selon les données les plus récentes disponibles.
Parallèlement, la cybersécurité devient une préoccupation majeure face à des menaces en constante évolution. Les cyberattaques, de plus en plus sophistiquées, se multiplient, mettant en péril la réputation, les données et la stabilité financière des organisations.
Dans ce contexte, l'IA apparaît comme un outil à double tranchant pour la cybersécurité. D'un côté, elle offre des capacités sans précédent pour détecter et contrer les cyber menaces. De l'autre, elle peut être exploitée par les cybercriminels pour concevoir des attaques plus insidieuses.
"J'ai toujours considéré l'IA comme la technologie la plus profonde sur laquelle l'humanité travaille – plus profonde que le feu, l'électricité, ou tout ce que nous avons fait dans le passé"
Sundar Pichai, PDG de Google
Dans ce chapitre, nos experts analysent pour vous l'impact de l'IA sur la cybersécurité des entreprises françaises autour de deux axes principaux : identifier et comprendre les opportunités incroyables qu'elle présente pour renforcer les défenses d’une part, et aussi identifier et être préparé à contrer les nouveaux risques qu'elle introduit, d’autre part.
Notre objectif est de vous fournir une compréhension claire des enjeux pour vous permettre de naviguer dans ce nouveau paysage de la cybersécurité à l'ère de l'IA.
Sommaire
- 01Les applications de l'IA au service de la cybersécurité
- 02Quels problèmes pose l'utilisation de l'IA en cybersécurité ?
- 03Les 5 types de nouvelles menaces liées à l’IA pour la cybersécurité
- 04Un cadre de cybersécurité pour la réglementation et l’éthique de l'IA
- 05Quelle stratégie pour tirer partie de l’IA en cybersécurité ?
- 06Ce que l’on peut déjà entrevoir de l’avenir de l'IA en cybersécurité
01 - Les applications de l'IA au service de la cybersécurité
L'intelligence artificielle offre des opportunités sans précédent pour renforcer la cybersécurité des entreprises françaises. Trois technologies majeures intégrant l'IA sont particulièrement déterminantes : l'EDR (Endpoint Detection & Response), sa version étendue XDR (eXtended Detection & Response) et le SOAR (Security Orchestration, Automation, and Response). Ces outils, combinés notamment dans des solutions comme le NextGen SOC, permettent une protection intelligente et évolutive du système d'information.
1.1 - La détection avancée des menaces et des anomalies
L'IA révolutionne la détection des menaces cybernétiques grâce à sa capacité à analyser en temps réel des volumes massifs de données. Les algorithmes d'apprentissage automatique, entraînés sur des millions d'échantillons de logiciels malveillants et de comportements suspects, peuvent identifier des schémas d'attaque complexes que les systèmes traditionnels basés sur des règles auraient du mal à repérer.
Par exemple, les systèmes de détection d'intrusion alimentés par l'IA peuvent surveiller en continu le trafic réseau, repérant instantanément les activités anormales qui pourraient indiquer une tentative d'infiltration. Ces systèmes apprennent et s'adaptent constamment, ce qui leur permet de détecter même les menaces les plus récentes et sophistiquées.
De plus, l'IA excelle dans la détection des anomalies comportementales. En établissant une base de référence du comportement normal des utilisateurs et des systèmes, elle peut rapidement identifier des écarts potentiellement dangereux, comme celui d’un employé qui accèderait soudainement à des fichiers sensibles en dehors de ses heures de travail.
1.2 - L'EDR et le XDR : une détection avancée des menaces basée sur l'IA
L'EDR représente une évolution majeure dans la protection des terminaux. Grâce à l'IA et au machine learning, il surveille en continu le comportement des équipements (postes de travail, serveurs, appareils mobiles) pour détecter les activités suspectes en temps réel. Contrairement aux antivirus traditionnels qui se basent sur des signatures connues, l'EDR analyse les schémas comportementaux pour identifier même les menaces "zero-day" encore inconnues.
Les algorithmes d'apprentissage automatique de l'EDR, entraînés sur des millions d'échantillons de logiciels malveillants et de comportements suspects, peuvent repérer des schémas d'attaque complexes que les systèmes traditionnels auraient du mal à identifier. Par exemple, l'EDR peut détecter un employé accédant soudainement à des fichiers sensibles en dehors de ses heures de travail habituelles.
Le XDR pousse cette logique encore plus loin en étendant cette surveillance intelligente au-delà des terminaux. Il collecte et analyse les données de l'ensemble du système d'information : terminaux, réseau, cloud, messagerie et applications. Cette vision globale, couplée aux capacités d'analyse de l'IA, permet une détection plus fine des attaques sophistiquées qui pourraient passer inaperçues lorsque chaque composant est analysé isolément. Le XDR peut ainsi repérer des comportements malveillants qui se manifesteraient à travers différentes parties du système d'information.
De nouvelles briques de sécurité EDR ou XDR viennent simplifier, automatiser et accélérer la détection et remédiation de ces nouvelles menaces.

Comment fonctionne un EDR ou un XDR
L'IA joue un rôle crucial dans les solutions EDR et XDR en améliorant la détection, la priorisation et la réponse aux menaces. Grâce à l'IA, ces solutions offrent une protection plus robuste et plus réactive contre les cybermenaces modernes, à travers les actions suivantes :
- La détection des menaces :
L'IA analyse en continu les comportements des processus et des utilisateurs sur les endpoints pour détecter des anomalies. Par exemple, elle peut identifier des activités inhabituelles qui pourraient indiquer une tentative d'intrusion. Egalement utilisés par les EDR, les algorithmes de machine learning permettent de reconnaître des modèles de menaces connus et d'identifier des comportements suspects en se basant sur des données historiques.
Avec le XDR, l'IA utilise des techniques avancées pour identifier les menaces furtives et sophistiquées que les cybercriminels utilisent pour infiltrer les réseaux. Cela inclut la détection des attaques zero-day et des menaces persistantes avancées (APT). - La priorisation des alertes :
Grâce au filtrage intelligent, l'IA aide à trier et à prioriser les alertes de sécurité en filtrant les fausses alertes et en mettant en avant les menaces les plus critiques. Les équipes de sécurité peuvent donc mieux se concentrer sur les incidents les plus importants. - Une réponse automatisée :
L'IA joue un rôle crucial dans la détection et la neutralisation des menaces avant qu'elles ne causent des dommages. Grâce au XDR, il est possible d'identifier des comportements suspects bien en amont, avant qu'une attaque ne soit pleinement déclenchée. L'intelligence artificielle peut également enclencher des actions automatiques pour contenir les menaces, telles que l'isolement d'un appareil compromis ou le blocage d'une adresse IP suspecte, sans intervention humaine. Cette approche garantit une réponse rapide et cohérente aux incidents.
1.3 - SOAR: Une analyse des risques et une réponse aux incidents automatisables
Face à la multiplication des alertes de sécurité, l'IA joue un rôle crucial dans l'automatisation de leur traitement notamment par le biais des SOAR (Security Orchestration, Automation, and Response), outils qui prennent la forme d’une plateforme utilisant l’IA pour automatiser et orchestrer les processus de gestion des incidents de sécurité.
Le SOAR offre à votre entreprise une capacité accrue à réagir plus rapidement et efficacement aux cybermenaces.
Comment marche un SOAR ?
Un SOAR fonctionne en automatisant plusieurs aspects de la gestion des incidents de sécurité.
- D'abord, il utilise des algorithmes d'intelligence artificielle pour trier et prioriser automatiquement les alertes de sécurité, ainsi améliore la filtration des fausses alertes pour se concentrer sur les menaces les plus graves. Cela rend le travail des équipes de sécurité plus efficace et réactif.
- Ensuite, le SOAR analyse le contexte de chaque alerte en croisant des informations provenant de multiples sources, comme les journaux de sécurité et les bases de données, ce qui aide à mieux comprendre la nature et l'ampleur de la menace.
- Enfin, il déclenche des actions automatiques pour contenir les menaces, telles que l’isolement d’un appareil compromis ou le blocage d’une adresse IP suspecte, sans intervention humaine. Cette approche assure une réponse rapide et cohérente aux incidents, réduisant le temps pendant lequel les systèmes restent vulnérables.

Quelles sont les principales fonctionnalités d’un SOAR ?
Les plateformes d'orchestration, d'automatisation et de réponse de sécurité (SOAR) intégrant l'IA offrent ces cinq capacités essentielles :
- Le tri et la priorisation automatiques des alertes, ce qui signifie une réduction considérable du "bruit" pour permettre aux équipes de sécurité de se concentrer sur les menaces les plus critiques.
- L’analyse contextuelle rapide, qui se traduit par une corrélation instantanée d'informations provenant de multiples sources pour comprendre la portée réelle d'une alerte.
- Le déclenchement d'actions de réponse automatisées par l’isolation immédiate d'appareils compromis, le blocage des adresses IP malveillantes ou l’application de correctifs de sécurité, sans intervention humaine directe.
- Le suivi et la gestion centralisés des incidents, à savoir la supervision complète depuis la détection jusqu'à la résolution, avec tableaux de bord et rapports détaillés pour mesurer les performances et l'efficacité des réponses.
- L’intégration de bases de données de menaces c’est-à-dire l’enrichissement continu des données sur les incidents par l'agrégation de sources d'information multiples, facilitant une compréhension approfondie et une réaction proactive face aux menaces.
1.4 - L’IA pour renforcer l'authentification et la gestion des identités
L'IA apporte une dimension supplémentaire à l'authentification et à la gestion des identités, domaines cruciaux de la cybersécurité. Les systèmes d'authentification basés sur l'IA peuvent ainsi :
- Analyser en temps réel de multiples facteurs comportementaux (frappe au clavier, mouvements de la souris, habitudes de navigation) pour une authentification continue et non intrusive.
- Détecter les tentatives d'usurpation d'identité en identifiant les schémas d'utilisation inhabituels.
- Adapter dynamiquement les exigences d'authentification en fonction du niveau de risque perçu pour chaque connexion.
Grâce à ces capacités, la sécurité se trouve considérablement renforcée, conjointement à une expérience utilisateur améliorée ; un équilibre souvent difficile à atteindre avec les méthodes de cyber sécurités traditionnelles.
1.5 - L’IA pour optimiser la gestion des vulnérabilités
La gestion des vulnérabilités représente un défi constant pour les entreprises, confrontées à un flux continu de nouvelles failles de sécurité. L'IA peut grandement optimiser ce processus selon les manières suivantes.
- D’abord en priorisant automatiquement les vulnérabilités en fonction de leur criticité réelle pour l'entreprise, en tenant compte du contexte spécifique de l'organisation.
- Ensuite, en prédisant quelles vulnérabilités sont les plus susceptibles d'être exploitées, permettant une allocation plus efficace des ressources de correction.
- Également, en automatisant le processus de correction pour certaines vulnérabilités, réduisant ainsi la charge de travail des équipes IT.
- Enfin, en stimulant des attaques pour tester l'efficacité des correctifs et identifier les failles résiduelles.
Avec cette approche basée sur l’IA, les entreprises maintiennent une posture de sécurité plus robuste face à un paysage de menaces en constante évolution.
De manière générale, l’IA propose un large éventail d’applications en cybersécurité, allant de la détection avancée des menaces à l’optimisation de la gestion des vulnérabilités. Grâce à ces technologies, les entreprises françaises peuvent renforcer leurs défenses, améliorer leur temps de réaction face aux incidents et adopter une approche plus proactive en matière de sécurité. Pour autant… l’IA n’est pas une solution miracle et doit s’intégrer dans une une stratégie de cybersécurité globale et bien pensée pour être réellement efficace.
1.6 - L’IA au service de l’anticipation des cyberattaques
L'un des atouts majeurs de l'IA en cybersécurité réside dans sa capacité prédictive.
En analysant les tendances historiques, les informations sur les menaces actuelles et même les discussions sur le dark web, les modèles d'IA peuvent anticiper les futures attaques potentielles.
Ces systèmes sont capables, par exemple, de prédire quels secteurs d'activité ou types d'organisations sont susceptibles d'être ciblés par certaines campagnes de malware. Ils peuvent également identifier les vulnérabilités les plus susceptibles d'être exploitées dans un avenir proche, permettant aux entreprises de prioriser leurs efforts de correction.
Cette capacité d'anticipation permet aux organisations d'adopter une posture de sécurité proactive plutôt que réactive, renforçant de manière significative leur résilience face aux cybermenaces.
02 - Quels problèmes pose l'utilisation de l'IA en cybersécurité ?
L'intelligence artificielle apporte de nombreux avantages en matière de cybersécurité, mais son utilisation n'est pas sans défis. Les experts de l’IA et de la cybersécurité ont identifié cinq grands problèmes qui sont autant de défis auxquels les entreprises françaises se heurtent lorsqu'elles intègrent l'IA dans leurs stratégies de sécurité.
Comprendre ces défis vous aidera à élaborer des stratégies adaptées pour les surmonter et exploiter pleinement le potentiel de l’IA tout en limitant les risques associés.

2.1 - Un besoin en données massives mais des problématiques de confidentialité
L'efficacité des systèmes d'IA en cybersécurité repose sur leur capacité à analyser de grandes quantités de données. Cette aptitude leur permet de détecter des schémas complexes et des anomalies subtiles, essentielles pour identifier les menaces avancées. Mais, c'est aussi précisément cette nécessité de traiter d'énormes volumes de données qui soulève plusieurs problèmes de cybersécurité.
- Une exposition accrue des données : Pour être efficaces, ces systèmes d'intelligence artificielle doivent avoir accès à un large éventail de données de l'entreprise, y compris potentiellement des informations sensibles. Cela crée un point de vulnérabilité supplémentaire – si le système d'IA lui-même est compromis, une quantité significative de données confidentielles devient exposé à des cybermenaces.
- Des risques de fuite de données : La collecte et le stockage de grandes quantités de données augmentent les risques de fuites, que ce soit par erreur humaine, faille de sécurité ou attaque ciblée.
- Des problèmes de conformité : Le traitement de vastes ensembles de données peut soulever des questions de conformité, notamment en ce qui concerne le RGPD et d'autres réglementations sur la protection des données.
- Des attaques sur les données d'entraînement : Les cybercriminels pourraient cibler spécifiquement les données utilisées pour entraîner l'IA, soit pour les voler, soit pour les manipuler et ainsi compromettre l'efficacité du système.
- Une surcharge d'informations : L'analyse de grandes quantités de données peut parfois conduire à une surcharge d'informations, rendant difficile la distinction entre les menaces réelles et le bruit de fond.
Ainsi, bien que l'analyse de grandes quantités de données soit cruciale pour l'efficacité de l'IA en cybersécurité, elle introduit paradoxalement de nouveaux sujets en matière de sécurité que les entreprises doivent adresser avec attention.
2.2 - Des modèles complexes alliés à un manque d'explicabilité
Les modèles d'IA utilisés en cybersécurité sont souvent très complexes, ce qui les rend difficiles à comprendre et à expliquer, même pour les experts. On parle alors "d'explicabilité" dans le domaine de l'intelligence artificielle.
Ce manque d'explicabilité, communément appelé le problème de la "boîte noire", pose plusieurs défis.
- Il peut être difficile de justifier les décisions prises par ces systèmes, ce qui devient problématique dans des situations critiques ou en cas de litige.
- De plus, cette opacité complique l'identification et la correction des erreurs dans le modèle.
- Pour les entreprises françaises, cela peut aussi poser des problèmes de conformité, certaines réglementations exigeant la transparence des processus décisionnels automatisés.
2.3 - Le risque de faux positifs et de faux négatifs
Malgré leur sophistication, les systèmes d'IA en cybersécurité ne sont pas infaillibles, loin s’en faut... Ils peuvent générer des faux positifs, c'est-à-dire signaler des menaces qui n'en sont pas réellement, ce qui entraîne une perte de temps et de ressources pour les équipes de sécurité.
À l'inverse, ils peuvent aussi produire des faux négatifs, passant à côté de réelles menaces, avec potentiellement des conséquences graves pour la sécurité de l'entreprise.
Trouver le bon équilibre entre sensibilité et précision lance un défi constant aux entreprises utilisant l'IA en cybersécurité.
2.4 - L’expertise humaine pour interpréter les résultats, toujours nécessaire
Bien que l'IA puisse traiter de grandes quantités de données et détecter des schémas complexes, l'interprétation finale de ses résultats nécessite souvent une expertise humaine. Les analystes en sécurité doivent être capables de comprendre les sorties de l'IA, de les contextualiser et de prendre des décisions éclairées en conséquence. Cela nécessite une formation continue et une adaptation des compétences, ce qui ajoute une difficulté à de nombreuses entreprises, en particulier dans un contexte de pénurie de talents en cybersécurité.
2.5 - L’implémentation et la maintenance des solutions IA ont un coût…
L’adoption de solutions de cybersécurité basées sur l’IA représente un investissement conséquent pour les entreprises françaises. Au-delà de l’acquisition initiale, il faut compter la formation des équipes, l’intégration aux systèmes existants et une maintenance continue, d’autant plus cruciale que les menaces évoluent rapidement.
Pour les PME, ces coûts constituent souvent un frein majeur. Selon une étude de Gartner, le guide des principales tendances technologiques, l’implémentation d’une solution d’IA en cybersécurité pour une entreprise de taille moyenne varie entre 50 000 et 300 000 euros, avec des coûts annuels de maintenance estimés entre 15 % et 20 % de l’investissement initial. Pour les grandes entreprises, ces coûts peuvent dépasser le million d’euros.
Malgré ces investissements, une majorité de PME françaises sous-investissent encore en cybersécurité. Environ 68 % des TPE-PME allouent moins de 2 000 euros annuels à leur sécurité informatique, et 93 % n’ont pas de budget dédié à la cybersécurité, distinct du budget informatique global.
Face à la directive européenne NIS2, qui impose des exigences accrues en matière de cybersécurité, notamment pour environ 15 000 PME et collectivités françaises, ces entreprises sont appelées à renforcer leurs compétences et à investir davantage pour se conformer aux nouvelles obligations.
03 - Les 6 types de nouvelles menaces liées à l’IA pour la cybersécurité
L'émergence de l'intelligence artificielle dans le domaine de la cybersécurité a engendré une nouvelle ère de menaces, dont les premières manifestations significatives ont été observées dès 2020.
Ces cinq types de menaces liées à l'IA ont pris une ampleur considérable en seulement quelques années, principalement en raison de trois facteurs :
- la démocratisation rapide des outils d'IA elle-même, qui se sont développés de manière exponentielle depuis le succès de ChatGPT 3.5 en novembre 2022
- l'accès facilité à de vastes ensembles de données
- et l'augmentation exponentielle de la puissance de calcul disponible.
Cette convergence a permis aux cybercriminels de développer et de déployer des attaques plus sophistiquées, plus rapides et plus difficiles à détecter, à une échelle sans précédent.
Rappelons que l’escalade des cybermenaces se traduit par un impact économique vertigineux pour l'économie française. Selon les dernières estimations des Technology Market Insights de Statista, le coût total de la cybercriminalité en France aurait atteint 129 milliards de dollars en 2024 (environ 119 milliards d'euros), contre 94 milliards l'année précédente - une hausse alarmante de 37% en un an. Cette explosion des coûts reflète directement la sophistication croissante des attaques utilisant l'IA, rendant la protection des entreprises plus cruciale que jamais.

3.1 - L’automatisation de cyberattaques de plus en plus sophistiquées
L'IA permet aux cybercriminels d'automatiser leurs attaques à une échelle sans précédent, tout en les rendant de plus en plus pointues et complexes à déceler.
Elle leur permet de scanner rapidement et efficacement de vastes réseaux pour identifier les vulnérabilités, d'adapter dynamiquement leurs techniques d'attaque en fonction des défenses rencontrées, et de personnaliser à grande échelle leurs approches pour cibler des victimes spécifiques.
Par exemple, l'IA peut générer automatiquement des milliers de variantes de malwares pour contourner les systèmes de détection, ou encore analyser le comportement en ligne des cibles pour créer des campagnes de phishing hautement crédibles et personnalisées.
Cette automatisation intelligente permet aux attaquants de mener des opérations complexes avec une efficacité et une rapidité inégalées, multipliant ainsi l'échelle et l'impact potentiel de leurs attaques.
3.2 - La création de contenus malveillants plus convaincants (deepfakes, phishing avancé)
Les deepfakes et le phishing avancé, alimentés par l'IA, représentent une menace croissante pour la cybersécurité, car ils permettent de créer des leurres extrêmement convaincants.
Les deepfakes peuvent générer de fausses vidéos ou de faux audios de personnes en position d'autorité, tandis que le phishing avancé utilise l'IA pour personnaliser les messages comme on vient de le voir dans le précédent exemple, et imiter parfaitement le style de communication de contacts légitimes.
Ces technologies rendent les attaques d'ingénierie sociale beaucoup plus difficiles à détecter, augmentant considérablement les chances de succès des tentatives d'hameçonnage, d'escroquerie ou d'accès non autorisé aux systèmes d'information des entreprises.
3.3 - Exploitation des vulnérabilités des systèmes d'IA
Même les systèmes d'IA utilisés en cybersécurité, comme ceux qui détectent les malwares ou les intrusions, peuvent se révéler vulnérables aux attaques.
Les cybercriminels exploitent les faiblesses de ces systèmes, par exemple en les trompant avec des données spécialement conçues, pour contourner les défenses et infiltrer les réseaux qu'ils sont censés protéger. Ainsi, une technologie destinée à renforcer la sécurité peut paradoxalement devenir un point d'entrée pour les attaquants.
3.4 - Les attaques par empoisonnement des données d'entraînement
L'empoisonnement des données d'entraînement est une menace sérieuse pour la cybersécurité car il cible directement la base sur laquelle les systèmes d'IA de sécurité apprennent.
Les attaquants peuvent introduire des données malveillantes ou biaisées dans le processus d'apprentissage de l'IA, ce qui peut amener le système à prendre de mauvaises décisions, comme classifier des logiciels malveillants comme inoffensifs ou ignorer des comportements suspects.
Cela compromet l'efficacité des outils de cybersécurité basés sur l'IA, les rendant moins fiables pour protéger les réseaux et les données de l'entreprise.
3.5 - Le contournement des systèmes de sécurité basés sur l'IA
Les pirates cyber développent des techniques pour contourner les systèmes de sécurité reposant sur l'IA, en étudiant leur fonctionnement et en exploitant leurs limites.
Ainsi, ils peuvent créer des malwares qui modifient leur comportement pour ne pas correspondre aux modèles que l'IA a appris à détecter. Ou, autre exemple, ils peuvent concevoir des attaques qui imitent le trafic normal pour passer inaperçues.
Ces techniques rendent les systèmes de défense basés sur l'IA moins efficaces, créant ainsi de nouvelles vulnérabilités dans la sécurité des entreprises qui dépendent de ces technologies avancées pour leur protection.
3.6 - L'utilisation malveillante des LLM et IA génératives
Les modèles de langage de grande taille, les fameux LLM comme ChatGPT, Claude ou Gemini, représentent une nouvelle frontière dans l'arsenal des cybercriminels. Ces outils d'IA générative, conçus pour démocratiser l'accès à l'intelligence artificielle, deviennent paradoxalement des multiplicateurs de force pour les acteurs malveillants, abaissant drastiquement les barrières techniques à l'entrée dans le monde de la cybercriminalité.
- La génération automatisée de code malveillant constitue l'une des applications les plus préoccupantes. Les cybercriminels exploitent les capacités de programmation des LLM pour créer rapidement des variantes de malwares, des scripts d'exploitation et des outils d'attaque sophistiqués.
Un attaquant sans compétences techniques approfondies peut désormais demander à une IA de générer du code pour exploiter des vulnérabilités spécifiques, contourner des systèmes de sécurité ou créer des portes dérobées.
Cette démocratisation de la création de malwares accélère considérablement le rythme et la diversité des attaques. - La création de campagnes de désinformation à grande échelle exploite la capacité des LLM à générer du contenu crédible et personnalisé en masse. Les cybercriminels utilisent ces outils pour produire, par exemple, des milliers de variantes d'emails de phishing, chacune adaptée à sa cible spécifique.
Ces IA peuvent analyser les profils LinkedIn, les publications sur les réseaux sociaux et d'autres données publiques pour créer des messages d'hameçonnage ultra-personnalisés, augmentant drastiquement leur taux de réussite.
De plus, la barrière linguistique n'existe plus puisqu’un cybercriminel génère désormais des contenus parfaitement rédigés dans n'importe quelle langue. - L'utilisation directe de ChatGPT et outils similaires pour concevoir des attaques transforme ces assistants IA en consultants involontaires en cybercriminalité. Malgré les garde-fous mis en place, les attaquants développent constamment de nouvelles techniques de "jailbreak" pour contourner les restrictions éthiques de ces modèles. Il leur est ainsi possible d’obtenir des plans d'attaque détaillés, des stratégies d'ingénierie sociale sophistiquées, ou des conseils pour exploiter des failles de sécurité spécifiques.
Ces exemples illustrent tous comment l'IA, en étant certes un outil puissant pour la cybersécurité, peut également être exploitée par les cybercriminels pour créer des menaces plus sophistiquées et difficiles à détecter.
04 - Un cadre de cybersécurité pour la réglementation et l’éthique de l'IA
L'intégration de l'intelligence artificielle dans les stratégies de cybersécurité des entreprises soulève de nombreuses questions réglementaires et éthiques. Alors que l'IA offre des opportunités sans précédent pour renforcer la sécurité des systèmes d'information, son utilisation doit s'inscrire dans un cadre légal et éthique strict.
L'Union européenne, consciente des enjeux, a pris les devants en proposant plusieurs réglementations visant à encadrer l'utilisation de l'IA, y compris dans le domaine de la cybersécurité. Ces dispositions garantissent une utilisation responsable et transparente de l'IA, tout en protégeant les droits fondamentaux des individus.
Dans les paragraphes suivants, nous vous présentons les cinq principaux textes qui façonnent une utilisation éthique de l'IA en cybersécurité par les entreprises.
4.1 - La législation européenne sur l'IA et son impact sur la cybersécurité
Adopté en 2024, le règlement européen sur l'IA, le RIA ou AI Act, initié en 2021, a établi un cadre législatif qui classe les systèmes selon leur niveau de risque. En cybersécurité, les systèmes d’IA sont considérés comme « à haut risque» : ils doivent répondre à des exigences strictes en matière de qualité des données, de documentation, de traçabilité, de transparence et de supervision humaine, avant leur mise sur le marché européen.
Les entreprises françaises utilisant l'IA pour leur cybersécurité devront se mettre en conformité progressivement, à mesure de l’entrée en application du texte (jusqu’en 2026 pour certaines obligations), assurant ainsi une plus grande fiabilité et une responsabilité améliorée de leurs systèmes.

4.2 - La conformité au RGPD dans l'utilisation de l'IA pour la sécurité
Le RGPD s'applique directement à l'utilisation de l'IA en cybersécurité, notamment concernant le traitement des données personnelles.
Les entreprises doivent s'assurer que leurs systèmes d’intelligence artificielle respectent les principes de minimisation des données, de limitation des finalités, et obtiennent le consentement nécessaire.
Soyez en particulier attentifs à l'article 22 du RGPD, qui concerne les décisions automatisées, et est particulièrement pertinent pour les systèmes d'IA en cybersécurité qui prennent des décisions affectant les individus.
4.3 - Ce que la directive NIS2 change concrètement pour votre sécurité numérique
Entrée en vigueur en octobre 2024, la directive européenne NIS2 élargit les obligations de cybersécurité à de nombreux secteurs jugés critiques, dont les télécoms, le numérique ou encore la santé. Elle impose notamment la mise en place de mesures de gestion des risques, la désignation de responsables cybersécurité, et un délai strict de 24 heures pour notifier toute cyberattaque significative.
L’enjeu : renforcer la résilience des entreprises face à des menaces de plus en plus sophistiquées, et éviter des sanctions en cas de non-conformité.
En parallèle de la directive NIS2, l’ANSSI a publié en 2024 de nouvelles obligations pour les opérateurs de services essentiels (OSE). L’objectif est de renforcer la détection des incidents et la résilience face aux cybermenaces, notamment via l’automatisation et l’intelligence artificielle.
Pour savoir si votre entreprise est concernée et comment vous mettre en conformité, consultez notre chapitre dédié à la réglementation
4.4 - Les enjeux éthiques implicites à l'utilisation de l'IA en cybersécurité
La Commission européenne pour l’efficacité de la justice (CEPEJ), qui dépend du Conseil européen, a publié une charte, qui déploie les lignes directrices éthiques pour une IA digne de confiance, et s'appliquant à la cybersécurité. Ces principes incluent :
- Le respect de l'autonomie humaine : Les systèmes d'IA en cybersécurité ne doivent pas remplacer la prise de décision humaine, mais la compléter. Ainsi, les décisions critiques de sécurité devraient toujours impliquer une supervision humaine.
- La prévention des préjudices : Les systèmes d'IA doivent être conçus pour protéger l'intégrité physique et mentale des individus. Dans le contexte de la cybersécurité, cela signifie éviter les faux positifs qui pourraient injustement restreindre l'accès aux systèmes pour des utilisateurs légitimes.
- L'équité : Les systèmes d'IA ne doivent pas discriminer ou créer des biais injustes. En cybersécurité, cela implique que les algorithmes de détection de menaces doivent être testés pour s'assurer qu'ils ne ciblent pas injustement certains groupes d'utilisateurs.
- L'explicabilité : Les décisions prises par les systèmes d'IA en cybersécurité sont transparentes et compréhensibles. Les entreprises doivent être capables d'expliquer comment leur IA a détecté une menace ou pris une décision de sécurité spécifique.
Ces principes entendent garantir que l'IA en cybersécurité est utilisée de manière éthique, responsable et transparente, renforçant ainsi la confiance dans ces technologies avancées. Les entreprises doivent les intégrer dans le développement et l'utilisation de leurs systèmes d'IA pour la cybersécurité.
4.5 - Quid de la responsabilité juridique en cas de faille de sécurité liée à l'IA ?
La directive NIS 2 (Network and Information Systems), adoptée en 2022, renforce considérablement les obligations de cybersécurité en Europe et élargit son champ d'application. Voici les points clés concernant son impact sur l'utilisation de l'IA en cybersécurité :
- La directive s'étend désormais explicitement aux fournisseurs de services numériques, y compris ceux qui utilisent l'IA pour la cybersécurité. Cela signifie que les entreprises développant ou utilisant des solutions de sécurité basées sur l'IA sont directement concernées.
- Les entreprises doivent mettre en place des mesures techniques et organisationnelles appropriées pour gérer les risques liés à la sécurité des réseaux et des systèmes d'information. Pour les systèmes d'IA, cela implique des contrôles spécifiques pour garantir leur fiabilité et leur résilience.
- En cas d'incident de sécurité significatif impliquant des systèmes d'IA, les entreprises sont tenues de le notifier rapidement aux autorités compétentes.
- La directive met l'accent sur la sécurité de la chaîne d'approvisionnement, ce qui est particulièrement pertinent pour les systèmes d'IA qui peuvent dépendre de multiples fournisseurs et sources de données.
- Le non-respect de ces obligations peut entraîner des sanctions plus sévères, incitant les entreprises à prendre au sérieux la sécurité de leurs systèmes d'IA.
Cette directive vise ainsi à créer un environnement numérique plus sûr en Europe, en tenant compte des nouvelles technologies comme l'IA dans le domaine de la cybersécurité.
05 - Quelle stratégie pour tirer partie de l’IA en cybersécurité ?
Pour tirer parti de l'IA en cybersécurité, les entreprises doivent d'abord évaluer leurs besoins spécifiques et les risques associés. Par exemple, une fintech utilise l'IA pour détecter les fraudes en temps réel, tandis qu'une entreprise manufacturière l’emploie pour protéger son réseau IoT industriel.
C’est seulement après une définition claire de vos objectifs, que vous pourrez implémenter des outils voire tout un système d’intelligence artificielle de manière sécuritaire. À cette fin, il apparaît primordial d’appliquer des bonnes pratiques de sécurité déjà éprouvées pour les systèmes d'IA.
Ces bonnes pratiques ont été élaborées par plusieurs organisations et institutions au fil du temps depuis environ 2018-2019, mais elles ont vraiment pris de l'importance ces dernières années avec une accélération significative en 2020-2021. Elles évoluent constamment à mesure que notre compréhension des risques liés à l'IA s'améliore. Il n’est pas possible de déterminer de date précise de "création", mais on suit plutôt une évolution continue.

5.1 - Quels experts IA et cybersécurité ont élaboré ces bonnes pratiques ?
En 2019, le NIST (National Institute of Standards and Technology) a publié un projet de plan pour le développement de normes techniques pour l'IA fiable. En 2022, ils ont publié un cadre de gestion des risques de l'IA qui inclut des considérations de cybersécurité.
En décembre 2020, l'ENISA (Agence de l'Union européenne pour la cybersécurité) a publié un rapport intitulé Artificial Intelligence Cybersecurity Challenges, qui détaille les bonnes pratiques pour sécuriser les systèmes d'IA.
Par ailleurs, au niveau européen, un AI Pact est entré en vigueur e pacte sur l’IA encourage et soutient depuis le 1er août 2024. Cs organisations à planifier la mise en œuvre des mesures de la législation sur l’IA. Il vient compléter la démarche de législation sur l’IA [règlement(UE) 2024/1689 déjà en place.
En 2020, MITRE, organisation à but non lucratif américaine qui gère des centres de recherche et développement financés par le gouvernement fédéral et spécialisé notamment dans la cybersécurité, l'intelligence artificielle et l'aérospatiale a lancé, en partenariat avec Microsoft, le cadre ATLAS (Adversarial Threat Landscape for Artificial-Intelligence Systems) qui définit des tactiques et techniques pour sécuriser les systèmes d'IA.
La Fondation Robert Schuman, centre de recherches et d'études sur l’Europe,a publié en juillet 2024 un document intitulé Que retenir de la loi européenne sur l’intelligence artificielle ?, qui répond à un certain nombre de questions fondamentales.
En France, c’est l’ANSSI qui constitue la source la plus officielle en matière de cybersécurité, et notamment relative à l'utilisation de l’IA. Cette agence gouvernementale met à disposition toute une documentation spécifique concernant la réglementation et permettant d’améliorer la confiance numérique.
5.2 - Six bonnes pratiques de cybersécurité pour les systèmes d’IA
1. La sécurisation des données d'entraînement : Vérifier rigoureusement l'intégrité et la qualité des données utilisées pour entraîner les modèles d'IA. Par exemple, utiliser des techniques de chiffrement et de contrôle d'accès pour protéger ces données contre les manipulations.
2. La protection des modèles d'IA : Mettre en place des mécanismes robustes pour protéger les modèles d'IA contre les attaques adverses. Cela peut inclure l'utilisation de techniques comme l'apprentissage par adversaire pour renforcer la résilience des modèles.
3. Une surveillance continue : Implémenter des systèmes de monitoring en temps réel pour détecter les comportements anormaux des systèmes d'IA. Par exemple, utiliser des tableaux de bord de sécurité qui alertent immédiatement en cas de décisions inhabituelles prises par l'IA.
4. Des mises à jour régulières : Établir un processus de mise à jour régulière des modèles d'IA et des systèmes de sécurité associés pour contrer les nouvelles menaces. Cela peut impliquer des cycles de réentraînement périodiques avec de nouvelles données.
5. Appliquer un principe de défense en profondeur : Appliquer une approche multicouche pour la sécurité des systèmes d'IA, incluant des contrôles d'accès stricts, la segmentation du réseau, et des systèmes de détection d'intrusion spécifiques à l'IA.
6. Former son personnel : Sensibiliser, informer et qualifier continuellement les équipes de sécurité et les utilisateurs finaux sur les spécificités des systèmes d'IA en cybersécurité, y compris la reconnaissance des potentielles manipulations ou défaillances de ces systèmes.
En adoptant ces stratégies et bonnes pratiques, les entreprises peuvent maximiser les avantages de l'IA en cybersécurité tout en minimisant les risques associés. Il est essentiel de maintenir une approche équilibrée entre innovation et sécurité, en s'assurant que l'intégration de l'IA renforce réellement la posture de sécurité globale de l'entreprise.
06 - L’avenir de l'IA en cybersécurité : quels défis pouvez-vous anticiper ?
L'intelligence artificielle continue d'évoluer rapidement, façonnant l'avenir de la cybersécurité. Voici les principales tendances et perspectives à surveiller :
6.1 - Vers des systèmes d'IA plus explicables et transparents
La transparence des systèmes d’IA demeure un enjeu crucial pour la cybersécurité, où comprendre les décisions automatisées est indispensable pour la confiance et la conformité.
Face aux préoccupations croissantes concernant les "boîtes noires" de l'IA, la recherche s'oriente vers le développement de systèmes d'IA explicables (XAI). Mais depuis les premières méthodes open-source comme LIME (2016) ou AI Explainability 360 d’IBM (2019), le domaine de l’IA explicable a fortement évolué.
Aujourd’hui, les chercheurs et industriels développent des outils d’explicabilité intégrés directement dans les modèles profonds, avec notamment :
- les méthodes d’explicabilité intrinsèque dans les réseaux neuronaux profonds
Grâce à des techniques comme Integrated Gradients ou Grad-CAM, désormais intégrées à des frameworks récents comme Captum (Meta), on peut interpréter visuellement les décisions des modèles. Ces outils sont de plus en plus utilisés pour fiabiliser les systèmes de détection d’anomalies en cybersécurité. - les modèles hybrides combinant IA symbolique et apprentissage automatique
Ils facilitent la compréhension des décisions. De plus, la combinaison d’IA symbolique et d’apprentissage automatique améliore la vérifiabilité. Cette approche monte en puissance, notamment dans la cybersécurité, où la traçabilité est clé. - les plateformes XAI dédiées à la cybersécurité, telles que celles développées par des acteurs comme Google AI, Microsoft Azure AI , Vectra AI ou Zscaler intègrent des fonctionnalités d’audit et de reporting en temps réel. Ces avancées répondent à la fois à des exigences de conformité, de transparence et de confiance opérationnelle.

6.2 - L'IA quantique, une avancée à anticiper pour sécuriser durablement vos données
L’intelligence artificielle quantique ouvre la voie à une nouvelle génération de capacités en cybersécurité : analyse prédictive plus rapide, détection de menaces complexes, automatisation des réponses. Mais elle bouleverse aussi l’équilibre actuel des systèmes de protection des données. En effet, la majorité des protocoles de cryptographie classiques sont déjà menacés d’obsolescence par la puissance de calcul des futurs ordinateurs quantiques.
Pour préparer les entreprises à une transition, le NIST (l’institut américain de référence en normalisation) a publié en août 2024 ses premiers standards officiels de cryptographie post-quantique : ML-KEM, ML-DSA et SLH-DSA. Ces nouveaux algorithmes sont conçus pour résister aux attaques potentielles de l’ère quantique.
Mais cette dynamique n’est pas réservée aux États-Unis. En Europe, la Commission européenne a recommandé dès 2024 une feuille de route pour accompagner les États membres dans l’adoption de solutions post-quantiques. En France, l’ANSSI encourage une approche hybride combinant protocoles traditionnels et cryptographie post-quantique, et soutient des projets comme RESQUE (piloté par Thales) pour développer des outils souverains de sécurisation des communications.
Grâce à cette convergence internationale, les entreprises disposent de repères fiables pour anticiper les évolutions réglementaires, renforcer leur posture de sécurité et protéger efficacement leurs données critiques face aux menaces émergentes.
6.3 - Synergie IA, blockchain, IoT et réseaux 5G/6G : une alliance pour une cybersécurité renforcée
Avec la multiplication des objets connectés (IoT) et le déploiement rapide des réseaux 5G et 6G, les entreprises voient leur surface d’attaque s’élargir, complexifiant la gestion des risques cyber.
L’intelligence artificielle joue alors un rôle clé dans l’analyse en temps réel des données massives issues de ces environnements connectés, afin de détecter anomalies et tentatives d’intrusion plus rapidement et avec davantage de précision.
Parallèlement, la blockchain garantit l’intégrité, la traçabilité et la sécurisation des échanges de données sensibles, et crée un cadre fiable de partage des informations critiques.
La convergence de ces technologies, combinée aux capacités avancées des réseaux nouvelle génération, constitue un levier stratégique pour anticiper et neutraliser efficacement les menaces, notamment dans les secteurs à forte exposition comme la santé, la logistique ou l’industrie.
Enfin, cette approche intégrée s’inscrit dans un cadre réglementaire européen et français exigeant, garantissant conformité et protection des données face aux risques croissants.
6.4 - Attirer et former les talents en IA et cybersécurité, un enjeu RH stratégique
Les experts formés en cybersécurité manquent sérieusement. Et le déficit de talents s’aggrave. En 2024, on déplorait près de 4,8 millions de postes non pourvus, soit une hausse de 19 % par rapport à 2023 (d’après une étude ISC2). Cette pénurie impacte directement la capacité des entreprises à protéger leurs systèmes face à des menaces toujours plus sophistiquées, notamment avec l’essor de l’intelligence artificielle. Pour combler ce manque, investir dans la formation continue est essentiel.
En France, des mastères spécialisés en cybersécurité comme celui de Centrale Supelec ou de l’ESIEA plus spécifiquement orienté sur les systèmes d’information, le Bachelor de l’EPITA, les programmes de divers IUT, le M2 de l’université de Côte d’Azur à Sophia-Antipolis ou encore le programme avancé de l’ENS Paris Saclay permettent de préparer efficacement les prochaines générations d’experts.
À l’échelle européenne, des cursus doubles Erasmus Mundus d’EURECOM renforcent cette dynamique.
Face à ces enjeux, les entreprises doivent aussi adopter des méthodes innovantes — réalité virtuelle, serious games, formations hybrides — pour développer rapidement les compétences clés en IA, sécurité cloud, Zero Trust et réponse aux incidents.
Enfin, les initiatives publiques s’intensifient : le programme France Relance, qui a posé les bases en matière de cybersécurité, a laissé place à France 2030. Ce dernier, doté de 54 milliards d’euros, soutient notamment le dispositif Cyber PME qui accompagne les TPE/PME dans leur montée en compétences et la sécurisation de leurs infrastructures.

6.5 - Comment naviguer dans l’ère de l’IA générative et de la régulation européenne ?
L’essor rapide de l’IA générative ouvre la porte à des menaces inédites pour la cybersécurité de votre entreprise : campagnes de phishing de plus en plus sophistiquées, deepfakes indétectables, malwares autonomes capables d’évoluer sans intervention humaine… Ces risques exigent une vigilance accrue et une adaptation constante de vos outils de détection et de réponse aux incidents.
Sur le plan réglementaire, le cadre européen se structure avec l’AI Act, en cours de déploiement pour encadrer les systèmes d’IA à haut risque. Cette législation impose des exigences strictes en matière de transparence, d’éthique, de protection des données personnelles et de responsabilité. En parallèle, la CNIL en France publie régulièrement des recommandations pour guider les entreprises dans la conformité et la gestion des risques liés à l’IA.
Intégrer ces nouvelles contraintes réglementaires et techniques n’est pas seulement une obligation : c’est une opportunité pour votre entreprise de renforcer sa posture de confiance, d’améliorer la sécurité de ses systèmes et de se positionner en acteur responsable et innovant sur le marché.
Pour réussir, pensez à mettre en place une gouvernance dédiée à l’IA, associant équipes techniques, juridiques et éthiques. Ce pilotage interne vous aidera à anticiper les évolutions réglementaires et à déployer des stratégies de cybersécurité adaptées à ces nouvelles menaces.
Consultez les chapitres du guide de la cybersécurité en entreprise

Un guide complet vous propose un aperçu des meilleures pratiques pour protéger votre entreprise.

Les types de cyberattaques d’entreprises les plus courants et comment s'en prémunir

Créer une culture de sécurité, assurant ainsi la protection des actifs numériques et la résilience face aux cyberattaques.

Le guide exhaustif des meilleures pratiques en matière de prévention des cyberattaques

Une vue d'ensemble des technologies et solutions de sécurité essentielles pour protéger les entreprises.

Les outils nécessaires pour développer une stratégie de sensibilisation et de formation à la cybersécurité

Le rôle, les missions, les compétences, les types d'entreprises dans lesquelles un DSI peut opérer

Les défis de la cybersécurité en entreprise dans la santé, l’industrie et la finance

Mettre en place une stratégie de sécurité robuste et adaptée à ce nouvel environnement de Cloud

les meilleures pratiques et solutions pour sécuriser efficacement votre écosystème IoT

Quelles réglementations et directives en matière de cybersécurité pour les entreprises

Anticiper les tendances de la cybersécurité pour protéger les actifs de son organisation