ParticuliersNous contacterAssistanceEspace Client

SFR Business - marque de SFR

Contactez-nous MENU

    Me faire rappeler Nous écrire 0 805 70 24 54

    Service &
    appel gratuits

    Intelligence artificielle et cybersécurité

    Guide Cybersecurité et IA

    IA et cybersécurité : enjeux, opportunités et risques pour les entreprises françaises

    Suivant Introduction Logiciels malveillants Gouvernance et gestion des risques Prévention et bonnes pratiques Solutions de sécurité Sensibilisation et formations Cybersécurité et DSI Secteurs et industries spécifiques Impacts économiques et stratégiques Cybersécurité et IA Cybersécurité et cloud Cybersécurité et IoT Réglementation Tendances émergentes Précédent

    L'intelligence artificielle (IA) révolutionne rapidement le paysage technologique de l’entreprise, et les entreprises françaises sont donc impactées comme les autres. Des chatbots améliorant le service client, aux algorithmes optimisant les processus de production, l'IA s'immisce dans tous les secteurs et à toutes les étapes de la vie d’une organisation, promettant gains de productivité et avantages concurrentiels.

    Parallèlement, la cybersécurité devient une préoccupation majeure face à des menaces en constante évolution. Les cyberattaques, de plus en plus sophistiquées, se multiplient, mettant en péril la réputation, les données et la stabilité financière des organisations.

    Dans ce contexte, l'IA apparaît comme un outil à double tranchant pour la cybersécurité. D'un côté, elle offre des capacités sans précédent pour détecter et contrer les cyber menaces. De l'autre, elle peut être exploitée par les cybercriminels pour concevoir des attaques plus insidieuses.

    "J'ai toujours considéré l'IA comme la technologie la plus profonde sur laquelle l'humanité travaille – plus profonde que le feu, l'électricité, ou tout ce que nous avons fait dans le passé"

    Sundar Pichai, PDG de Google

    Dans ce chapitre, nos experts analysent pour vous l'impact de l'IA sur la cybersécurité des entreprises françaises autour de deux axes principaux : identifier et comprendre les opportunités incroyables qu'elle présente pour renforcer les défenses d’une part, et aussi identifier et être préparé à contrer les nouveaux risques qu'elle introduit, d’autre part.

    Notre objectif est de vous fournir une compréhension claire des enjeux pour vous permettre de naviguer dans ce nouveau paysage de la cybersécurité à l'ère de l'IA.

    Sommaire

    01 - Les applications de l'IA au service de la cybersécurité

    L'intelligence artificielle offre des opportunités sans précédent pour renforcer la cybersécurité des entreprises françaises. Trois technologies majeures intégrant l'IA sont particulièrement déterminantes : l'EDR (Endpoint Detection & Response), sa version étendue XDR (eXtended Detection & Response) et le SOAR (Security Orchestration, Automation, and Response). Ces outils, combinés notamment dans des solutions comme le NextGen SOC, permettent une protection intelligente et évolutive du système d'information.


    La détection avancée des menaces et des anomalies


    L'IA révolutionne la détection des menaces cybernétiques grâce à sa capacité à analyser en temps réel des volumes massifs de données. Les algorithmes d'apprentissage automatique, entraînés sur des millions d'échantillons de logiciels malveillants et de comportements suspects, peuvent identifier des schémas d'attaque complexes que les systèmes traditionnels basés sur des règles auraient du mal à repérer.

    Par exemple, les systèmes de détection d'intrusion alimentés par l'IA peuvent surveiller en continu le trafic réseau, repérant instantanément les activités anormales qui pourraient indiquer une tentative d'infiltration. Ces systèmes apprennent et s'adaptent constamment, ce qui leur permet de détecter même les menaces les plus récentes et sophistiquées.

    De plus, l'IA excelle dans la détection des anomalies comportementales. En établissant une base de référence du comportement normal des utilisateurs et des systèmes, elle peut rapidement identifier des écarts potentiellement dangereux, comme celui d’un employé qui accèderait soudainement à des fichiers sensibles en dehors de ses heures de travail.

    L'EDR et le XDR : une détection avancée des menaces basée sur l'IA


    L'EDR représente une évolution majeure dans la protection des terminaux. Grâce à l'IA et au machine learning, il surveille en continu le comportement des équipements (postes de travail, serveurs, appareils mobiles) pour détecter les activités suspectes en temps réel. Contrairement aux antivirus traditionnels qui se basent sur des signatures connues, l'EDR analyse les schémas comportementaux pour identifier même les menaces "zero-day" encore inconnues.

    Les algorithmes d'apprentissage automatique de l'EDR, entraînés sur des millions d'échantillons de logiciels malveillants et de comportements suspects, peuvent repérer des schémas d'attaque complexes que les systèmes traditionnels auraient du mal à identifier. Par exemple, l'EDR peut détecter un employé accédant soudainement à des fichiers sensibles en dehors de ses heures de travail habituelles.

    Le XDR pousse cette logique encore plus loin en étendant cette surveillance intelligente au-delà des terminaux. Il collecte et analyse les données de l'ensemble du système d'information : terminaux, réseau, cloud, messagerie et applications. Cette vision globale, couplée aux capacités d'analyse de l'IA, permet une détection plus fine des attaques sophistiquées qui pourraient passer inaperçues lorsque chaque composant est analysé isolément. Le XDR peut ainsi repérer des comportements malveillants qui se manifesteraient à travers différentes parties du système d'information.


    De nouvelles briques de sécurité EDR ou XDR viennent simplifier, automatiser et accélérer la détection et remédiation de ces nouvelles menaces.

    L'EDR et le XDR : une détection avancée des menaces basée sur l'IA

    Comment fonctionne un EDR ou un XDR

    L'IA joue un rôle crucial dans les solutions EDR et XDR en améliorant la détection, la priorisation et la réponse aux menaces. Grâce à l'IA, ces solutions offrent une protection plus robuste et plus réactive contre les cybermenaces modernes.


    • Détection des menaces :
      L'IA analyse en continu les comportements des processus et des utilisateurs sur les endpoints pour détecter des anomalies. Par exemple, elle peut identifier des activités inhabituelles qui pourraient indiquer une tentative d'intrusion. Egalement utilisés par les EDR, les algorithmes de machine learning permettent de reconnaître des modèles de menaces connus et d'identifier des comportements suspects en se basant sur des données historiques. Avec le XDR, l'IA utilise des techniques avancées pour identifier les menaces furtives et sophistiquées que les cybercriminels utilisent pour infiltrer les réseaux. Cela inclut la détection des attaques zero-day et des menaces persistantes avancées (APT).

    • Priorisation des alertes :
      Grâce au filtrage intelligent, l'IA aide à trier et à prioriser les alertes de sécurité en filtrant les fausses alertes et en mettant en avant les menaces les plus critiques. Cela permet aux équipes de sécurité de se concentrer sur les incidents les plus importants.

    • Réponse automatisée :
      L'IA permet de détecter et de neutraliser les menaces avant qu'elles ne causent des dommages. Ainsi, le XDR peut identifier des comportements suspects bien avant qu'une attaque ne soit pleinement lancée. L'IA peut également déclencher des actions automatiques pour contenir les menaces, comme isoler un appareil compromis ou bloquer une adresse IP suspecte, sans intervention humaine. Cela permet une réponse rapide et cohérente aux incidents.

    SOAR: Une analyse des risques et une réponse aux incidents automatisables


    Face à la multiplication des alertes de sécurité, l'IA joue un rôle crucial dans l'automatisation de leur traitement notamment par le biais des SOAR (Security Orchestration, Automation, and Response), outils qui prennent la forme d’une plateforme utilisant l’IA pour automatiser et orchestrer les processus de gestion des incidents de sécurité.

    Le SOAR permet ainsi à votre entreprise de réagir plus rapidement et efficacement aux cybermenaces.

    Comment marche un SOAR ?

    Un SOAR fonctionne en automatisant plusieurs aspects de la gestion des incidents de sécurité.


    • D'abord, il utilise des algorithmes d'intelligence artificielle pour trier et prioriser automatiquement les alertes de sécurité, ce qui permet de filtrer les fausses alertes et de se concentrer sur les menaces les plus graves. Cela rend le travail des équipes de sécurité plus efficace et réactif.
    • Ensuite, le SOAR analyse le contexte de chaque alerte en croisant des informations provenant de multiples sources, comme les journaux de sécurité et les bases de données, ce qui aide à mieux comprendre la nature et l'ampleur de la menace.
    • Enfin, il peut déclencher des actions automatiques pour contenir les menaces, comme isoler un appareil compromis ou bloquer une adresse IP suspecte, sans qu'une intervention humaine soit nécessaire. Cela permet une réponse rapide et cohérente aux incidents, réduisant le temps pendant lequel les systèmes sont vulnérables.
    SOAR: Une analyse des risques et une réponse aux incidents automatisables
    Quelles sont les principales fonctionnalités d’un SOAR ?

    Les plateformes d'orchestration, d'automatisation et de réponse de sécurité (SOAR) intégrant l'IA peuvent :


    • trier et prioriser automatiquement les alertes, réduisant considérablement le "bruit" et permettant aux équipes de sécurité de se concentrer sur les menaces les plus critiques.
    • analyser rapidement le contexte d'une alerte en corrélant des informations provenant de multiples sources.
    • déclencher des actions de réponse automatisées pour contenir les menaces. Par exemple, le SOAR peut isoler un appareil compromis, bloquer une adresse IP malveillante ou appliquer des correctifs de sécurité, sans intervention humaine directe.
    • opérer un suivi et une gestion centralisés des incidents de sécurité, depuis leur détection jusqu'à leur résolution. Le SOAR fournit des tableaux de bord et des rapports détaillés pour surveiller les performances et l'efficacité des réponses.
    • intégrer des bases de données de menaces et d'autres sources d'information pour enrichir les données sur les incidents et les menaces. Cela aide les analystes à mieux comprendre et à réagir aux incidents de manière plus proactive.

    Xavier Poinsignon explique comme le NextGenSoc de SFR Business intègre l’outil d’orchestration SOAR et déploie une solution qui permet une réaction rapide et cohérente face aux attaques, minimisant leur impact sur les infrastructures des entreprises.

    L’IA renforce l'authentification et la gestion des identités


    L'IA apporte une dimension supplémentaire à l'authentification et à la gestion des identités, domaines cruciaux de la cybersécurité. Les systèmes d'authentification basés sur l'IA peuvent ainsi :


    • analyser en temps réel de multiples facteurs comportementaux (frappe au clavier, mouvements de la souris, habitudes de navigation) pour une authentification continue et non intrusive.
    • détecter les tentatives d'usurpation d'identité en identifiant les schémas d'utilisation inhabituels.
    • adapter dynamiquement les exigences d'authentification en fonction du niveau de risque perçu pour chaque connexion.

    Ces capacités permettent de renforcer considérablement la sécurité tout en améliorant l'expérience utilisateur, un équilibre souvent difficile à atteindre avec les méthodes de cyber sécurités traditionnelles.


    L’IA pour optimiser la gestion des vulnérabilités


    La gestion des vulnérabilités est un défi constant pour les entreprises, confrontées à un flux continu de nouvelles failles de sécurité. L'IA peut grandement optimiser ce processus de plusieurs manières.

    • D’abord en priorisant automatiquement les vulnérabilités en fonction de leur criticité réelle pour l'entreprise, en tenant compte du contexte spécifique de l'organisation.
    • Ensuite, en prédisant quelles vulnérabilités sont les plus susceptibles d'être exploitées, permettant une allocation plus efficace des ressources de correction.
    • Également, en automatisant le processus de correction pour certaines vulnérabilités, réduisant ainsi la charge de travail des équipes IT.
    • Enfin, en stimulant des attaques pour tester l'efficacité des correctifs et identifier les failles résiduelles.

    Cette approche basée sur l'IA permet aux entreprises de maintenir une posture de sécurité plus robuste face à un paysage de menaces en constante évolution.

    De manière générale, l'IA offre un large éventail d'applications en cybersécurité, de la détection avancée des menaces à l'optimisation de la gestion des vulnérabilités. Ces technologies permettent aux entreprises françaises de renforcer considérablement leurs défenses, d'améliorer leur temps de réaction face aux incidents et d'adopter une approche plus proactive de la sécurité. Pour autant… l'IA n'est pas une solution miracle et doit être intégrée dans une stratégie de cybersécurité globale et bien pensée pour en tirer pleinement parti.


    L’IA au service de l’anticipation des cyberattaques


    L'un des atouts majeurs de l'IA en cybersécurité est sa capacité prédictive.
    En analysant les tendances historiques, les informations sur les menaces actuelles et même les discussions sur le dark web, les modèles d'IA peuvent anticiper les futures attaques potentielles.

    Ces systèmes peuvent, par exemple, prédire quels secteurs d'activité ou types d'organisations sont susceptibles d'être ciblés par certaines campagnes de malware. Ils peuvent également identifier les vulnérabilités les plus susceptibles d'être exploitées dans un avenir proche, permettant aux entreprises de prioriser leurs efforts de correction.

    Cette capacité d'anticipation permet aux organisations d'adopter une posture de sécurité proactive plutôt que réactive, renforçant considérablement leur résilience face aux cybermenaces.

    02 - Quels problèmes pose l'utilisation de l'IA en cybersécurité ?


    Bien que l'intelligence artificielle offre de nombreux avantages en matière de cybersécurité, son utilisation n'est pas sans défis. Les experts de l’IA et de la cybersécurité ont pu mettre en exergue essentiellement cinq grands problèmes auxquels les entreprises françaises sont confrontées lorsqu'elles intègrent l'IA dans leurs stratégies de sécurité.

    Bien les comprendre vous permettra de développer des stratégies pour les surmonter afin de tirer pleinement parti du potentiel de l'intelligence artificielle, tout en minimisant les risques associés.


    Quels problèmes pose l'utilisation de l'IA en cybersécurité

    Un besoin en données massives mais des problématiques de confidentialité

    L'efficacité des systèmes d'IA en cybersécurité repose sur leur capacité à analyser de grandes quantités de données. Cette aptitude leur permet de détecter des schémas complexes et des anomalies subtiles, essentielles pour identifier les menaces avancées. Mais, c'est aussi précisément cette nécessité de traiter d'énormes volumes de données qui soulève plusieurs problèmes de cybersécurité.


    • Une exposition accrue des données : Pour être efficaces, ces systèmes d'intelligence artificielle doivent avoir accès à un large éventail de données de l'entreprise, y compris potentiellement des informations sensibles. Cela crée un point de vulnérabilité supplémentaire – si le système d'IA lui-même est compromis, une quantité significative de données confidentielles devient exposé à des cybermenaces.
    • Risques de fuite de données : La collecte et le stockage de grandes quantités de données augmentent les risques de fuites, que ce soit par erreur humaine, faille de sécurité ou attaque ciblée.
    • Problèmes de conformité : Le traitement de vastes ensembles de données peut soulever des questions de conformité, notamment en ce qui concerne le RGPD et d'autres réglementations sur la protection des données.
    • Attaques sur les données d'entraînement : Les cybercriminels pourraient cibler spécifiquement les données utilisées pour entraîner l'IA, soit pour les voler, soit pour les manipuler et ainsi compromettre l'efficacité du système.
    • Surcharge d'informations : L'analyse de grandes quantités de données peut parfois conduire à une surcharge d'informations, rendant difficile la distinction entre les menaces réelles et le bruit de fond.

    Ainsi, bien que l'analyse de grandes quantités de données soit cruciale pour l'efficacité de l'IA en cybersécurité, elle introduit paradoxalement de nouveaux défis en matière de sécurité que les entreprises doivent adresser avec attention.

    L’ANSSI a publié en avril 2024 un guide de recommandations de sécurité pour un système d'IA générative.

    Des modèles complexes alliés à un manque d'explicabilité


    Les modèles d'IA utilisés en cybersécurité sont souvent très complexes, ce qui les rend difficiles à comprendre et à expliquer, même pour les experts. On parle alors d'explicabilité' dans le domaine de l'intelligence artificielle.

    Ce manque d'explicabilité, communément appelé le problème de la "boîte noire", pose plusieurs défis.


    • Il peut être difficile de justifier les décisions prises par ces systèmes, ce qui peut être problématique dans des situations critiques ou en cas de litige.
    • De plus, cette opacité peut compliquer l'identification et la correction des erreurs dans le modèle.
    • Pour les entreprises françaises, cela peut aussi poser des problèmes de conformité, certaines réglementations exigeant la transparence des processus décisionnels automatisés.

    Le risque de faux positifs et de faux négatifs


    Malgré leur sophistication, les systèmes d'IA en cybersécurité ne sont pas infaillibles, loin s’en faut... Ils peuvent générer des faux positifs, c'est-à-dire signaler des menaces qui n'en sont pas réellement, ce qui entraîne une perte de temps et de ressources pour les équipes de sécurité.

    À l'inverse, ils peuvent aussi produire des faux négatifs, passant à côté de réelles menaces, avec potentiellement des conséquences graves pour la sécurité de l'entreprise.

    Trouver le bon équilibre entre sensibilité et précision lance un défi constant aux entreprises utilisant l'IA en cybersécurité.


    L’expertise humaine pour interpréter les résultats, toujours nécessaire


    Bien que l'IA puisse traiter de grandes quantités de données et détecter des schémas complexes, l'interprétation finale de ses résultats nécessite souvent une expertise humaine. Les analystes en sécurité doivent être capables de comprendre les sorties de l'IA, de les contextualiser et de prendre des décisions éclairées en conséquence. Cela nécessite une formation continue et une adaptation des compétences, ce qui ajoute une difficulté à de nombreuses entreprises, en particulier dans un contexte de pénurie de talents en cybersécurité.


    L’implémentation et la maintenance des solutions IA ont un coût…


    L'adoption de solutions de cybersécurité basées sur l'IA peut représenter un investissement significatif pour les entreprises françaises. Les coûts ne se limitent pas à l'acquisition initiale des technologies, mais incluent également la formation du personnel, l'intégration avec les systèmes existants, et la maintenance continue. De plus, étant donné l'évolution rapide des menaces et des technologies d'IA, ces solutions nécessitent des mises à jour fréquentes pour rester efficaces.

    Pour de nombreuses entreprises, en particulier les PME, ces coûts peuvent constituer un obstacle majeur à l'adoption de l'IA en cybersécurité.

    D'après une étude de Gartner (Le Guide des principales tendances technologiques), le coût moyen d'implémentation d'une solution d'IA en cybersécurité pour une entreprise de taille moyenne peut varier entre 50 000 et 300 000 euros, selon la complexité et l'étendue du projet.

    Les coûts de maintenance annuels sont estimés entre 15% et 20% de l'investissement initial. Pour les grandes entreprises, ces coûts peuvent facilement dépasser le million d'euros. Il est important de noter que ces chiffres sont des estimations et peuvent varier considérablement selon les besoins spécifiques de chaque entreprise.

    03 - Les 5 types de nouvelles menaces liées à l’IA pour la cybersécurité


    L'émergence de l'intelligence artificielle dans le domaine de la cybersécurité a engendré une nouvelle ère de menaces, dont les premières manifestations significatives ont été observées dès 2020.

    Ces cinq types de menaces liées à l'IA ont pris une ampleur considérable en seulement quelques années, principalement en raison de trois facteurs :


    • la démocratisation rapide des outils d'IA elle-même, qui se sont développés de manière exponentielle depuis le succès de ChatGPT 3.5 en novembre 2022
    • l'accès facilité à de vastes ensembles de données
    • et l'augmentation exponentielle de la puissance de calcul disponible.

    Cette convergence a permis aux cybercriminels de développer et de déployer des attaques plus sophistiquées, plus rapides et plus difficiles à détecter, à une échelle sans précédent.

    Les 5 types de nouvelles menaces liées à l’IA pour la cybersécurité

    L’automatisation de cyberattaques de plus en plus sophistiquées


    L'IA permet aux cybercriminels d'automatiser leurs attaques à une échelle sans précédent, tout en les rendant de plus en plus pointues et complexes à déceler.

    Elle leur permet de scanner rapidement et efficacement de vastes réseaux pour identifier les vulnérabilités, d'adapter dynamiquement leurs techniques d'attaque en fonction des défenses rencontrées, et de personnaliser à grande échelle leurs approches pour cibler des victimes spécifiques.

    Par exemple, l'IA peut générer automatiquement des milliers de variantes de malwares pour contourner les systèmes de détection, ou encore analyser le comportement en ligne des cibles pour créer des campagnes de phishing hautement crédibles et personnalisées.

    Cette automatisation intelligente permet aux attaquants de mener des opérations complexes avec une efficacité et une rapidité inégalées, multipliant ainsi l'échelle et l'impact potentiel de leurs attaques.


    En 2023, une attaque DDos d’apparence simple mais à l'efficacité redoutable grâce à l'automatisation par IA, cible Doctolib. En effet, au fil des jours et pendant deux semaines, l'attaquant a réussi à personnaliser ses demandes de rançon en fonction des données financières de plus de 500 entreprises victimes.


    Une création de contenu malveillant plus convaincant (deepfakes, phishing avancé)


    Les deepfakes et le phishing avancé, alimentés par l'IA, représentent une menace croissante pour la cybersécurité, car ils permettent de créer des leurres extrêmement convaincants.

    Les deepfakes peuvent générer de fausses vidéos ou de faux audios de personnes en position d'autorité, tandis que le phishing avancé utilise l'IA pour personnaliser les messages comme on vient de le voir dans le précédent exemple, et imiter parfaitement le style de communication de contacts légitimes.

    Ces technologies rendent les attaques d'ingénierie sociale beaucoup plus difficiles à détecter, augmentant considérablement les chances de succès des tentatives d'hameçonnage, d'escroquerie ou d'accès non autorisé aux systèmes d'information des entreprises.


    En 2024, une arnaque utilisant un deepfake audio du PDG de Ferrari a été déjouée de manière très simple. En effet, un cadre proche de la direction a reçu par WhatsApp un message de Benedetto Vigna, lui demandant de passer une opération de change rapidement. Il aura suffi à ce cadre méfiant de répondre par une simple question personnelle pour déstabiliser le cybercriminel !


    Exploitation des vulnérabilités des systèmes d'IA


    Même les systèmes d'IA utilisés en cybersécurité, comme ceux qui détectent les malwares ou les intrusions, peuvent se révéler vulnérables aux attaques.

    Les cybercriminels exploitent les faiblesses de ces systèmes, par exemple en les trompant avec des données spécialement conçues, pour contourner les défenses et infiltrer les réseaux qu'ils sont censés protéger. Ainsi, une technologie destinée à renforcer la sécurité peut paradoxalement devenir un point d'entrée pour les attaquants.


    En 2018, la plateforme de services à domicile d’Ikea, TaskRabbit, a vu 3,75 millions de ses utilisateurs dont les données sensibles ont été compromises. L’attaque de type DDoS a mobilisé un très gros botnet contrôlé par IA. Le site a dû être suspendu, et durant la panne, l’attaque a fait 141 millions de victimes supplémentaires.


    Les attaques par empoisonnement des données d'entraînement


    L'empoisonnement des données d'entraînement est une menace sérieuse pour la cybersécurité car il cible directement la base sur laquelle les systèmes d'IA de sécurité apprennent.

    Les attaquants peuvent introduire des données malveillantes ou biaisées dans le processus d'apprentissage de l'IA, ce qui peut amener le système à prendre de mauvaises décisions, comme classifier des logiciels malveillants comme inoffensifs ou ignorer des comportements suspects.

    Cela compromet l'efficacité des outils de cybersécurité basés sur l'IA, les rendant moins fiables pour protéger les réseaux et les données de l'entreprise.


    En 2023, des chercheurs de Lasso Security ont découvert plus de 1 500 jetons d'API exposés sur Hugging Face, mettant en danger des géants comme Meta et Google. Cette exposition permettait des attaques par empoisonnement de données d'entraînement, où les cybercriminels pouvaient modifier les modèles d'IA, compromettant ainsi leur intégrité.


    Le contournement des systèmes de sécurité basés sur l'IA


    Les pirates cyber développent des techniques pour contourner les systèmes de sécurité reposant sur l'IA, en étudiant leur fonctionnement et en exploitant leurs limites.

    Ainsi, ils peuvent créer des malwares qui modifient leur comportement pour ne pas correspondre aux modèles que l'IA a appris à détecter. Ou, autre exemple, ils peuvent concevoir des attaques qui imitent le trafic normal pour passer inaperçues.

    Ces techniques rendent les systèmes de défense basés sur l'IA moins efficaces, créant ainsi de nouvelles vulnérabilités dans la sécurité des entreprises qui dépendent de ces technologies avancées pour leur protection.


    En 2023, une nouvelle forme de malware capable d'analyser et d'adapter son comportement pour échapper à la détection par les systèmes d'IA a été découverte. Ce malware a réussi à infecter plus de 100 000 appareils avant d'être détecté. Le détail est à retrouver dans ce rapport du 'rapport duKaspersky Lab.


    Ces exemples illustrent tous comment l'IA, en étant certes un outil puissant pour la cybersécurité, peut également être exploitée par les cybercriminels pour créer des menaces plus sophistiquées et difficiles à détecter.

    04 - Un cadre de cybersécurité pour la réglementation et l’éthique de l'IA

    L'intégration de l'intelligence artificielle dans les stratégies de cybersécurité des entreprises soulève de nombreuses questions réglementaires et éthiques. Alors que l'IA offre des opportunités sans précédent pour renforcer la sécurité des systèmes d'information, son utilisation doit s'inscrire dans un cadre légal et éthique strict.

    L'Union européenne, consciente des enjeux, a pris les devants en proposant plusieurs réglementations visant à encadrer l'utilisation de l'IA, y compris dans le domaine de la cybersécurité. Ces dispositions garantissent une utilisation responsable et transparente de l'IA, tout en protégeant les droits fondamentaux des individus.

    Dans les paragraphes suivants, nous vous présentons les cinq principaux textes qui façonnent une utilisation éthique de l'IA en cybersécurité par les entreprises.

    La législation européenne sur l'IA et son impact sur la cybersécurité


    Le règlement européen sur l'IA, le RIA ou AI Act, initié en 2021, a établi un cadre législatif qui classe notamment les systèmes d'intelligence artificielle en cybersécurité comme "à haut risque". Ces systèmes d’IA à haut risque doivent répondre à des obligations strictes avant leur mise sur le marché européen. Cela implique des exigences strictes en matière de qualité des données, de documentation, de traçabilité, de transparence, et de surveillance humaine.

    Les entreprises françaises utilisant l'IA pour leur cybersécurité devront se conformer à ces règles, assurant ainsi une plus grande fiabilité et une responsabilité améliorée de leurs systèmes.

    Un cadre de cybersécurité pour la réglementation et l’éthique de l'IA

    La conformité au RGPD dans l'utilisation de l'IA pour la sécurité


    Le RGPD s'applique directement à l'utilisation de l'IA en cybersécurité, notamment concernant le traitement des données personnelles.

    Les entreprises doivent s'assurer que leurs systèmes d’intelligence artificielle respectent les principes de minimisation des données, de limitation des finalités, et obtiennent le consentement nécessaire.

    Soyez en particulier attentifs à l'article 22 du RGPD, qui concerne les décisions automatisées, et est particulièrement pertinent pour les systèmes d'IA en cybersécurité qui prennent des décisions affectant les individus.


    La Cnil a publié un document sur la cybersécurité et l’IA, répondant très clairement aux questions relatives sur le règlement européen et le RGPD.


    Les enjeux éthiques implicites à l'utilisation de l'IA en cybersécurité


    La Commission européenne pour l’efficacité de la justice (CEPEJ), qui dépend du Conseil européen, a publié une charte, qui déploie les lignes directrices éthiques pour une IA digne de confiance, et s'appliquant à la cybersécurité. Ces principes incluent :


    • Le respect de l'autonomie humaine : Les systèmes d'IA en cybersécurité ne doivent pas remplacer la prise de décision humaine, mais la compléter. Ainsi, les décisions critiques de sécurité devraient toujours impliquer une supervision humaine.
    • La prévention des préjudices : Les systèmes d'IA doivent être conçus pour protéger l'intégrité physique et mentale des individus. Dans le contexte de la cybersécurité, cela signifie éviter les faux positifs qui pourraient injustement restreindre l'accès aux systèmes pour des utilisateurs légitimes.
    • L'équité : Les systèmes d'IA ne doivent pas discriminer ou créer des biais injustes. En cybersécurité, cela implique que les algorithmes de détection de menaces doivent être testés pour s'assurer qu'ils ne ciblent pas injustement certains groupes d'utilisateurs.
    • L'explicabilité : Les décisions prises par les systèmes d'IA en cybersécurité sont transparentes et compréhensibles. Les entreprises doivent être capables d'expliquer comment leur IA a détecté une menace ou pris une décision de sécurité spécifique.

    Ces principes entendent garantir que l'IA en cybersécurité est utilisée de manière éthique, responsable et transparente, renforçant ainsi la confiance dans ces technologies avancées. Les entreprises doivent les intégrer dans le développement et l'utilisation de leurs systèmes d'IA pour la cybersécurité.


    Quid de la responsabilité juridique en cas de faille de sécurité liée à l'IA ?


    La directive NIS 2 (Network and Information Systems), adoptée en 2022, renforce considérablement les obligations de cybersécurité en Europe et élargit son champ d'application. Voici les points clés concernant son impact sur l'utilisation de l'IA en cybersécurité :


    • La directive s'étend désormais explicitement aux fournisseurs de services numériques, y compris ceux qui utilisent l'IA pour la cybersécurité. Cela signifie que les entreprises développant ou utilisant des solutions de sécurité basées sur l'IA sont directement concernées.

    • Les entreprises doivent mettre en place des mesures techniques et organisationnelles appropriées pour gérer les risques liés à la sécurité des réseaux et des systèmes d'information. Pour les systèmes d'IA, cela implique des contrôles spécifiques pour garantir leur fiabilité et leur résilience.

    • En cas d'incident de sécurité significatif impliquant des systèmes d'IA, les entreprises sont tenues de le notifier rapidement aux autorités compétentes.

    • La directive met l'accent sur la sécurité de la chaîne d'approvisionnement, ce qui est particulièrement pertinent pour les systèmes d'IA qui peuvent dépendre de multiples fournisseurs et sources de données.

    • Le non-respect de ces obligations peut entraîner des sanctions plus sévères, incitant les entreprises à prendre au sérieux la sécurité de leurs systèmes d'IA.

    Cette directive vise ainsi à créer un environnement numérique plus sûr en Europe, en tenant compte des nouvelles technologies comme l'IA dans le domaine de la cybersécurité.


    SFR Business vous résume en quoi consiste cette directive NIS2 pour votre entreprise.

    05 - Quelle stratégie pour tirer partie de l’IA en cybersécurité ?

    Pour tirer parti de l'IA en cybersécurité, les entreprises doivent d'abord évaluer leurs besoins spécifiques et les risques associés. Par exemple, une fintech utilise l'IA pour détecter les fraudes en temps réel, tandis qu'une entreprise manufacturière l’emploie pour protéger son réseau IoT industriel.

    C’est seulement après une définition claire de vos objectifs, que vous pourrez implémenter des outils voire tout un système d’intelligence artificielle de manière sécuritaire. À cette fin, il apparaît primordial d’appliquer des bonnes pratiques de sécurité déjà éprouvées pour les systèmes d'IA.

    Ces bonnes pratiques ont été élaborées par plusieurs organisations et institutions au fil du temps depuis environ 2018-2019, mais elles ont vraiment pris de l'importance ces dernières années avec une accélération significative en 2020-2021. Elles évoluent constamment à mesure que notre compréhension des risques liés à l'IA s'améliore. Il n’est pas possible de déterminer de date précise de "création", mais on suit plutôt une évolution continue.

     Quelle stratégie pour tirer partie de l’IA en cybersécurité

    Quels experts IA et cybersécurité ont élaboré ces bonnes pratiques ?


    En 2019, le NIST (National Institute of Standards and Technology) a publié un projet de plan pour le développement de normes techniques pour l'IA fiable. En 2022, ils ont publié un cadre de gestion des risques de l'IA qui inclut des considérations de cybersécurité.

    En décembre 2020, l'ENISA (Agence de l'Union européenne pour la cybersécurité) a publié un rapport intitulé Artificial Intelligence Cybersecurity Challenges, qui détaille les bonnes pratiques pour sécuriser les systèmes d'IA.

    Par ailleurs, au niveau européen, un AI Pact est entré en vigueur e pacte sur l’IA encourage et soutient ledepuis le 1er août 2024. Cs organisations à planifier la mise en œuvre des mesures de la législation sur l’IA. Il vient compléter la démarche de législation sur l’IA [règlement(UE) 2024/1689 déjà en place.

    En 2020, MITRE, organisation à but non lucratif américaine qui gère des centres de recherche et développement financés par le gouvernement fédéral et spécialisé notamment dans la cybersécurité, l'intelligence artificielle et l'aérospatiale a lancé, en partenariat avec Microsoft, le cadre ATLAS (Adversarial Threat Landscape for Artificial-Intelligence Systems) qui définit des tactiques et techniques pour sécuriser les systèmes d'IA.

    La Fondation Robert Schuman, centre de recherches et d'études sur l’Europe,a publié en juillet 2024 un document intitulé Que retenir de la loi européenne sur l’intelligence artificielle ?, qui répond à un certain nombre de questions fondamentales.

    En France, c’est l’ANSSI qui constitue la source la plus officielle en matière de cybersécurité, et notamment relative à l'utilisation de l’IA. Cette agence gouvernementale met à disposition toute une documentation spécifique concernant la réglementation et permettant d’améliorer la confiance numérique.

    Six bonnes pratiques de cybersécurité pour les systèmes d’IA




    1. La sécurisation des données d'entraînement : Vérifier rigoureusement l'intégrité et la qualité des données utilisées pour entraîner les modèles d'IA. Par exemple, utiliser des techniques de chiffrement et de contrôle d'accès pour protéger ces données contre les manipulations.




    2. La protection des modèles d'IA : Mettre en place des mécanismes robustes pour protéger les modèles d'IA contre les attaques adverses. Cela peut inclure l'utilisation de techniques comme l'apprentissage par adversaire pour renforcer la résilience des modèles.




    3. Une surveillance continue : Implémenter des systèmes de monitoring en temps réel pour détecter les comportements anormaux des systèmes d'IA. Par exemple, utiliser des tableaux de bord de sécurité qui alertent immédiatement en cas de décisions inhabituelles prises par l'IA.




    4. Des mises à jour régulières : Établir un processus de mise à jour régulière des modèles d'IA et des systèmes de sécurité associés pour contrer les nouvelles menaces. Cela peut impliquer des cycles de réentraînement périodiques avec de nouvelles données.




    5. Appliquer un principe de défense en profondeur : Appliquer une approche multicouche pour la sécurité des systèmes d'IA, incluant des contrôles d'accès stricts, la segmentation du réseau, et des systèmes de détection d'intrusion spécifiques à l'IA.




    6. Former son personnel : sensibiliser, informer et qualifier continuellement les équipes de sécurité et les utilisateurs finaux sur les spécificités des systèmes d'IA en cybersécurité, y compris la reconnaissance des potentielles manipulations ou défaillances de ces systèmes.




    En adoptant ces stratégies et bonnes pratiques, les entreprises peuvent maximiser les avantages de l'IA en cybersécurité tout en minimisant les risques associés. Il est essentiel de maintenir une approche équilibrée entre innovation et sécurité, en s'assurant que l'intégration de l'IA renforce réellement la posture de sécurité globale de l'entreprise.

    06 - Ce que l’on peut déjà entrevoir de l’avenir de l'IA en cybersécurité

    L'intelligence artificielle continue d'évoluer rapidement, façonnant l'avenir de la cybersécurité. Voici les principales tendances et perspectives à surveiller :

    Une évolution vers des systèmes d'IA plus explicables et transparents


    Face aux préoccupations croissantes concernant les "boîtes noires" de l'IA, la recherche s'oriente vers le développement de systèmes d'IA explicables (XAI). Ces systèmes permettront aux entreprises de comprendre et d'auditer plus facilement les décisions prises par l'IA en matière de cybersécurité.

    Ainsi, des outils comme LIME (Local Interpretable Model-agnostic Explanations) sont déjà utilisés pour expliquer les décisions des modèles de détection de malwares basés sur l'IA.


    Dès août 2019, IBM a lancé AI Explainability 360, une boîte à outils open-source qui aide les développeurs, les data scientists, et autres professionnels de l'IA à rendre leurs modèles d’intelligence artificielle pour la cybersécurité plus transparents et interprétables. Cette initiative, enrichie au fil des ans, permet aux professionnels de l'IA, et aux entreprises qui les mobilisent, de mieux comprendre comment leurs systèmes de détection de menaces basés sur l'IA prennent des décisions. Cela contribue ainsi à renforcer la confiance et la transparence dans les systèmes d'IA.

    l’avenir de l'IA en cybersécurité

    Le développement de l'IA quantique impacte la cryptographie


    L'avènement de l'informatique quantique promet de révolutionner l'IA et la cryptographie.
    D'un côté, l'IA quantique permettrait une analyse de données et une détection de menaces beaucoup plus rapides et précises.

    De l'autre, elle menacerait de rendre obsolètes de nombreux systèmes de cryptographie actuels. Les entreprises devront se préparer à la cryptographie post-quantique pour protéger leurs données contre ces futures capacités de calcul.


    En 2023, Google a annoncé des avancées significatives dans le développement d'algorithmes de machine learning quantique, capables de détecter des schémas de cyberattaques indétectables par les méthodes classiques. Et en 2024, aux États-Unis, le NIST (National Institute of Standards and Technology) a publié ses premiers standards pour la cryptographie post-quantique.


    Convergence de l'IA avec d'autres technologies (blockchain, IoT) pour la sécurité


    La synergie entre l'IA, la blockchain et l'IoT offre de nouvelles possibilités en cybersécurité.
    Par exemple, l'IA peut être utilisée pour analyser en temps réel les données de millions d'objets connectés, tandis que la blockchain peut sécuriser l'intégrité de ces données. Des projets comme Ocean Protocol explorent déjà ces convergences, permettant le partage sécurisé de données pour l'entraînement de modèles d'IA tout en préservant la confidentialité.


    La start-up CipherTrace du groupe Mastercard, spécialisée dans la cybersécurité des transactions en cryptomonnaies, a introduit des outils d'IA dans ses solutions pour détecter plus efficacement les activités frauduleuses et les risques de blanchiment d'argent dans les transactions en cryptomonnaies. Ces outils permettent une analyse plus rapide et précise des données blockchain.

    D’autres enjeux, les RH en IA et cybersécurité


    La demande de professionnels qualifiés en IA et cybersécurité continue de croître rapidement, créant un défi majeur pour les entreprises. Selon une étude de l’ISC2, il y a un déficit mondial de près de 3 millions de professionnels en cybersécurité.

    Pour combler cet écart, les entreprises devront investir massivement dans la formation interne et collaborer avec les institutions éducatives pour développer des programmes spécialisés.

    Des initiatives comme AI for Cybersecurity de l'INRIA en France entendent former la prochaine génération d'experts en IA appliquée à la cybersécurité.

    Certains master 2 en intelligence artificielle d’universités françaises référentes en informatique, comme Rennes 1 dès septembre 2025, vont déployer des programmes plus fouillés incluant la possibilité de se spécialiser en cybersécurité. Autre cheminement, l’ENS Paris Saclay propose des diplômes de spécialisation, comme l’ARIA en intelligence artificielle pour des personnes ayant déjà un certain niveau.

    Initiative ambitieuse mais valeureuse, Microsoft dès 2022 lançait un Plan Compétences Cybersécurité avec pour objectif la formation en France de 10000 personnes sur trois ans.

    L'avenir de l'IA en cybersécurité promet non seulement des avancées significatives, mais… pose aussi des défis complexes. Si votre entreprise identifie correctement ces tendances et investit dans la technologie et les talents appropriés, elle fera partie de celles qui seront les mieux positionnées pour naviguer dans ce paysage en évolution rapide.

    les RH en IA et cybersécurité

    Consultez les chapitres du guide de la cybersécurité en entreprise

    Guide de la cybersécurité en entreprise
    Introduction au guide de la cybersécurité en entreprise

    Un guide complet vous propose un aperçu des meilleures pratiques pour protéger votre entreprise.

    Cybersécurité en entreprise et logiciels malveillants
    Cybersécurité en entreprise et logiciels malveillants

    Les types de cyberattaques d’entreprises les plus courants et comment s'en prémunir

    Cybersécurité en entreprise : gouvernance et gestion des risques
    Cybersécurité, gouvernance et gestion des risques

    Créer une culture de sécurité, assurant ainsi la protection des actifs numériques et la résilience face aux cyberattaques.

    Cybersécurité en entreprise : prévention et bonnes pratiques
    Cybersécurité : prévention et bonnes pratiques

    Le guide exhaustif des meilleures pratiques en matière de prévention des cyberattaques

    cybersécurité, technologies et solutions de sécurité
    Cybersécurité, technologies et solutions de sécurité

    Une vue d'ensemble des technologies et solutions de sécurité essentielles pour protéger les entreprises.

    formation à la cybersécurité en entreprise
    Sensibilisation et formation à la cybersécurité

    Les outils nécessaires pour développer une stratégie de sensibilisation et de formation à la cybersécurité

    Cybersécurité et DSI
    Cybersécurité et DSI

    Le rôle, les missions, les compétences, les types d'entreprises dans lesquelles un DSI peut opérer

    Cybersécurité en entreprise et secteurs/industries spécifiques
    La cybersécurité dans la santé, l’industrie et la finance

    Les défis de la cybersécurité en entreprise dans la santé, l’industrie et la finance

    Cybersécurité des PME et TPE : impacts économiques
    Cybersécurité des PME et TPE : impacts économiques

    Un guide dédié à la cybersécurité des TPE - PME

    logiciels malveillants
    Cybersécurité à l'ère du Cloud

    Mettre en place une stratégie de sécurité robuste et adaptée à ce nouvel environnement de Cloud

    Cybersécurité en entreprise et IoT
    Comment protéger les objets connectés

    les meilleures pratiques et solutions pour sécuriser efficacement votre écosystème IoT

    Réglementation de la cybersécurité
    Réglementation de la cybersécurité

    Quelles réglementations et directives en matière de cybersécurité pour les entreprises

    Cybersécurité en entreprise après 2024 : tendances émergentes et avenir
    Cybersécurité : tendances émergentes et avenir

    Anticiper les tendances de la cybersécurité pour protéger les actifs de son organisation