
Un webinaire dédié à la sécurité numérique et à l’intelligence artificielle a été organisé récemment autour du thème : « Réinventer la sécurité à l’ère de l’intelligence artificielle : enjeux majeurs et pistes de solution ». Ce thème offre un panorama riche sur l’évolution des technologies de l’IA, leur application croissante dans le domaine de la cybersécurité et les enjeux éthiques et réglementaires qu’elles soulèvent. S’appuyant sur les données de l’INS et les interventions d’experts, cet événement a mis en lumière la vitesse fulgurante de transformation du paysage technologique et les réponses à y apporter.
La Presse — À l’heure de la transformation numérique, l’intelligence artificielle s’impose comme une révolution incontournable. Dans ce contexte, le webinaire intitulé « Réinventer la sécurité à l’ère de l’intelligence artificielle : enjeux majeurs et pistes de solution », organisé par Pecb, en partenariat avec les experts de Smart Skills, visait à offrir une analyse concrète des évolutions récentes de l’IA, de ses impacts sur la cybersécurité et des perspectives qui s’ouvrent à court et moyen terme. Cet événement s’inscrivait dans une démarche de sensibilisation, d’information et de proposition d’actions adaptées aux professionnels et aux organisations désireux d’anticiper les risques, tout en exploitant les opportunités de l’intelligence artificielle.
Une révolution technologique aux implications sécuritaires profondes
Lors de ce webinaire tenu récemment à Tunis, Abdelmonam Kouka, expert en cybersécurité et en IA, est revenu sur les origines de cette transformation. Une des diapositives projetées retraçait l’évolution des sous-domaines de l’intelligence artificielle entre 1998 et 2023. En 1998, les domaines phares étaient la reconnaissance optique de caractères et la reconnaissance vocale. Cette progression s’est faite lentement, et il a fallu près de deux décennies pour que ces technologies atteignent un niveau comparable à celui des capacités humaines.
Le graphique présenté reposait sur une échelle particulière : le niveau 0 représentait les capacités humaines, tandis que le niveau -100 symbolisait le point de départ d’une technologie. Ainsi, chaque innovation débutait à -100 avant de progresser graduellement. En comparaison, d’autres domaines comme la vision par ordinateur, la compréhension de texte ou le raisonnement complexe ont connu une ascension beaucoup plus rapide : lancés en 2021, ils atteignaient déjà un niveau humain dès 2023. Cette dynamique témoigne de l’accélération spectaculaire des avancées en IA. Kouka a ensuite dressé un état des lieux de l’intelligence artificielle en 2025. Il distingue trois grandes familles d’IA, toutes appartenant encore à la catégorie dite « faible », l’intelligence artificielle dite « forte » demeurant théorique à ce jour. L’IA faible, ou « Narrow AI », est spécialisée dans des tâches précises et ciblées. Elle est déjà largement exploitée, notamment dans le domaine de la cybersécurité: détection des anomalies réseaux dans les pare-feux de nouvelle génération, chatbots de réponse aux incidents, ou encore analyse automatisée des logiciels malveillants. Ces applications démontrent une efficacité concrète et opérationnelle.
L’évolution fulgurante des sous-domaines de l’IA
L’IA générative, qui a connu une forte médiatisation ces dernières années à travers des outils comme ChatGPT, DeepSea ou Manus, a, elle aussi été évoquée. Spécialisée dans la création de contenus — qu’il s’agisse de texte, d’image ou de code —, cette IA doit son succès à l’accumulation de percées technologiques successives. Kouka a rappelé qu’en 1986, les «systèmes experts » destinés à assister la prise de décision représentaient déjà une révolution. De la même manière, l’IA générative pourrait bientôt devenir l’équivalent contemporain de ces systèmes.
En cybersécurité, l’IA générative peut permettre de simuler des attaques de phishing, de générer automatiquement des pages malveillantes ou encore de modéliser des scénarios de menaces. Parmi les tendances marquantes de 2025 figurent aussi les agents IA : bien qu’ils relèvent encore de l’IA faible, leur capacité à enchaîner plusieurs tâches complexes avec une certaine autonomie les rapproche de l’IA forte. On voit émerger, par exemple, des agents de centres opérationnels de sécurité capables de gérer une alerte dans sa globalité, ou encore des agents autonomes spécialisés dans la gestion de crises cyber.
Vers une IA forte : perspectives et interrogations
Quant à l’intelligence artificielle forte — l’Artificial General Intelligence —, elle n’existe encore qu’à l’état de concept. Elle correspondrait à une IA autonome et consciente, apte à accomplir l’ensemble des tâches humaines : défense adaptative, création de protocoles de sécurité, simulation avancée d’attaques. Selon les projections, les premières formes d’IA forte pourraient émerger vers 2030.
L’expert a également présenté un panorama structuré des technologies de l’IA. À la base, on retrouve le domaine global de l’intelligence artificielle, qui comprend le machine learning, ou apprentissage automatique, soit la capacité des machines à apprendre avec une intervention humaine limitée. Vient ensuite le deep learning, sous-domaine du machine learning, reposant sur les réseaux de neurones. Les modèles de type LLM (Large Language Models), à l’origine de l’IA générative, en sont un exemple emblématique.
Concernant les usages techniques, plusieurs catégories se distinguent : la vision par ordinateur (reconnaissance d’objets, inspection visuelle automatisée), le traitement du langage naturel (analyse de sentiments, assistants virtuels, traduction automatique), le deep learning appliqué à la prédiction (prévisions de marché ou de consommation), la RPA (Robotic Process Automation) pour automatiser les tâches administratives, ou encore les systèmes autonomes et l’apprentissage par renforcement, utilisés notamment dans les drones ou les véhicules autonomes.
Depuis deux ans, les cadres réglementaires accompagnent cette dynamique technologique. Aux Etats-Unis, le NIST Framework a marqué les premiers pas. En Europe, l’AI Act, adopté en 2023-2024, s’appuie sur une classification des risques et commencera à s’appliquer en août 2025 pour certains secteurs, avant une généralisation prévue en 2026. Par ailleurs, la norme ISO 42001 établit un système de management de l’IA. Tous ces dispositifs — AI Act, NIST Framework, ISO 42001 — reposent sur trois piliers : transparence, auditabilité et proportionnalité des risques. « L’intelligence artificielle n’est pas seulement une innovation technologique, c’est un changement de paradigme », a conclu Abdelmonam Kouka, soulignant la nécessité d’un usage encadré, responsable et stratégique de cette technologie en pleine expansion.