You are currently viewing Enjeux de l’IA sur la cybersécurité | Webinaire du 20 mai 2025

Enjeux de l’IA sur la cybersécurité | Webinaire du 20 mai 2025

Pourquoi ce webinaire ?

Dans le cadre d’une réflexion menée au sein de la FFMAS, Fédération Française des Métiers de l’Assistanat et du Secrétariat, la question de l’interrelation entre intelligence artificielle (IA) et cybersécurité prend une dimension stratégique. En effet, ces deux domaines sont aujourd’hui intimement liés, non seulement pour garantir un usage responsable et sécurisé de l’IA, mais aussi pour faire face aux menaces de plus en plus sophistiquées qui pèsent sur les systèmes d’information.

Questionnement sur les enjeux

1. Faut-il maîtriser la cybersécurité pour bien utiliser l’IA ?

Oui, car l’utilisation de l’IA expose inévitablement à des risques spécifiques de cybersécurité :

  • Fuites de données lors de l’entraînement des modèles IA sur des jeux de données sensibles.
  • Exploitation malveillante des IA, comme les deepfakes, les attaques par ingénierie sociale ou les IA génératrices de codes malicieux.
  • Détournement d’algorithmes pour biaiser les résultats ou compromettre les systèmes (ex : attaques adversariales).

Maîtriser les fondamentaux de la cybersécurité (gestion des accès, protection des données, détection des intrusions) est donc indispensable pour prévenir les vulnérabilités induites par l’IA. Cela permet d’encadrer son usage de manière éthique, conforme au RGPD et aux normes en vigueur.

2. Faut-il maîtriser l’IA pour assurer la cybersécurité ?

Encore une fois, la réponse est oui, dans une perspective stratégique :

  • Les cybermenaces évoluent à grande vitesse et en complexité. Seule une IA bien maîtrisée permet une cybersécurité proactive : détection automatique des anomalies réseau, apprentissage des comportements suspects, prévention des intrusions en temps réel.
  • L’IA est déjà utilisée dans les solutions de cybersécurité avancées (SIEM, EDR, XDR) pour analyser de vastes volumes de données en continu.
  • De plus, comprendre comment fonctionnent les algorithmes permet d’anticiper leurs failles potentielles (comme les biais ou les vulnérabilités dans les modèles de langage).

Ainsi, un professionnel souhaitant garantir une cybersécurité robuste doit non seulement savoir utiliser les outils d’IA, mais aussi comprendre leur logique, leurs limites et leur comportement face aux menaces.

3. Dans le contexte FFMAS : pourquoi ce double enjeu est capital ?

Les assistant·es de direction et professionnel·les des métiers supports doivent être acteurs de la transformation numérique. Cela implique :

Une veille stratégique pour repérer les outils d’IA utiles et sûrs, tout en identifiant les risques pour l’entreprise ou les données.

Une montée en compétence sur ces deux sujets, ne serait-ce qu’à un niveau de culture générale professionnelle.

La capacité à accompagner les dirigeants et les équipes sur la mise en œuvre responsable de l’IA dans les processus de travail.

Qui est l’intervenant

Gilbert Berthelot est un expert de Cybermalveillance.gouv.fr.

Rendez-vous

Webinaire Jeudi 20 mai 2025 à 18 h 30
animé par Gilbert BERTHELOT, Cybermalveillance.gouv.fr

Assistant·e, office manager… vous souhaitez renforcer votre réseau professionnel, rejoignez-nous pour cette année civile : Adhérez ICI