L'intelligence artificielle au service de la cybersécurité en Afrique : À quoi faut-il s’attendre ?
L'intelligence artificielle (IA) et la cybersécurité ont été présentées comme révolutionnaires et bien plus liées que l'on ne pensait. Dans la détection des menaces, l'IA excelle en analysant des volumes massifs de données pour identifier des modèles de comportement anormaux. Ces modèles peuvent indiquer des activités malveillantes telles que des tentatives d'intrusion, des attaques par phishing ou des comportements suspects sur les réseaux. L'utilisation de l'IA en cybersécurité réside dans la prévention proactive des attaques. L'automatisation de la réponse aux incidents est un autre avantage crucial.
Dans le paysage numérique actuel, l'Afrique se distingue comme un hub technologique émergent, où la cybersécurité et l'Intelligence Artificielle occupent une place prépondérante dans la révolution en cours. La croissance de l'adoption de l'IA en Afrique est un facteur clé qui contribue à l'amélioration de la cybersécurité sur le continent. L'Afrique fait face à d'importants défis dans l'adoption de l'Intelligence Artificielle, le principal obstacle étant le coût initial de déploiement. Malgré la diminution des coûts des infrastructures informatiques grâce à l'avènement du cloud computing. L'autre défi à relever est celui des infrastructures technologiques insuffisantes, amplifiée par une couverture Internet encore insuffisante. L'accès au haut-débit, essentiel pour les applications basées sur l'IA, demeure marginale, accentuant l'écart entre la demande croissante et la capacité d'infrastructure.
D'après un rapport de 2017 de PwC, l'IA a le potentiel de contribuer à 15,7 % du PIB africain, d'ajouter une valeur de 1,2 milliard de dollars et de créer jusqu'à 20 millions d'emplois en Afrique d'ici 2030. Ces chiffres mettent en lumière le potentiel considérable de l'Intelligence Artificielle en tant que catalyseur d'innovation et de croissance en Afrique et incitant à en tirer judicieusement du profit.
En effet, l'intégration croissante de l'intelligence artificielle dans le domaine de la cybersécurité a révolutionné la manière dont les organisations et les entreprises abordent la protection de leurs systèmes informatiques. L'IA offre des dispositions avancées de détection, de prévention et de réponse aux menaces élevées ainsi que le niveau de sécurité face à un paysage cybernétique en constante évolution. Mais elle n'en reste pas pour autant dangereuse, car les cybercriminels exploitent également l'IA pour concevoir des attaques plus sophistiquées. Néanmoins, si l'IA peut être conçue comme une menace, elle peut aussi devenir un allié grâce à la mise en place de mesures de détection d'anomalie ou encore des réponses automatiques face aux incidents. Ainsi, l'évolution de l'IA en matière de cybersécurité sera un enjeu central à surveiller en 2024.
Les risques liés à l'utilisation de l'IA
Le constat est évident. L'Intelligence Artificielle est en train de révolutionner notre quotidien : voiture autonome, biométrie comportementale, médecine prédictive, chatbot intelligent, suggestion de contenu. Selon Verified Market Research, Cabinet Mondial de Recherche et de Conseil, la taille du marché de l'IA dans le domaine de la cybersécurité était de 17 milliards de dollars en 2022 et devrait dépasser les 100 milliards de dollars d'ici 2032. De nouveaux usages apparaissent chaque jour, mais le sujet de la gestion des risques de cybersécurité apportés par cette nouvelle technologie reste encore plus ou moins en suspens.
En réalité, les cybercriminels n'ont plus forcément besoin d'avoir des compétences avancées en matière de codage pour entreprendre des cyberattaques, l'accès à ChatGPT suffit. L'IA générative décuple les possibilités, renforce les menaces existantes et fait émerger de nouveaux risques. Parmi les fraudes en ligne les plus recensées, il y a celle dite « d'influence » où les robots sont utilisés pour générer de faux commentaires sur différents canaux.
En 2023, des chercheurs en sécurité ont fait la découverte de FraudGPT, un nouvel outil dopé à l'intelligence artificielle et spécialisé dans la sécurité offensive, notamment pour aider les cybercriminels à mener des attaques. C'est-à-dire un ChatGPT orienté cybercriminalité. FraudGPT peut être utilisé pour écrire du code malveillant, créer un malware indétectable, créer des pages de phishing et même rechercher des vulnérabilités et des fuites de données. Pour profiter de FraudGPT, il faut payer un abonnement aux auteurs : 200 dollars pour un mois, 1 000 dollars pour six mois et 1 700 dollars pour une année complète. Les cybercriminels précisent qu'il y a déjà eu plus de 3 000 ventes et évaluations confirmées de FraudGPT. Des chiffres qui restent allarmant. « Une telle technologie, sans le contrôle humain, représente une porte dérobée, car si les entreprises peuvent l’utiliser pour créer et/ou modifier des programmes, les hackeurs peuvent en faire autant », a expliqué d’ailleurs Mme MAME DIOP-BA, Directrice Adjointe Système d'Information et Sécurité lors de la 13ᵉ édition d'Orange Business Live (OBL 13) tenue le 22 juin 2023, sur le thème : Intelligence artificielle et cyberSécurité : leviers de croissance ou menaces pour les Entreprises.
Face à tout ceci, que faut-il concrètement faire ?
Les perspectives à mettre en place pour réguler l'utilisation de l'IA
Tout aussi serviable que dangereuse, l'utilisation de l'intelligence artificielle doit impérativement être encadrée par des lois réglementaires. Cela vise à établir des fondements éthiques et juridiques, indispensables pour guider le développement technologique tout en préservant les valeurs sociétales. La création d'organismes chargés de surveiller sur l'utilisation de l'IA, d'auditer les systèmes existants et de conseiller sur les meilleures pratiques serait un atout. Les gouvernements africains et les organismes de réglementation devraient définir des lois spécifiques encadrant l'utilisation de l'IA, définissant les droits et responsabilités des parties. Ces réglementations pourraient couvrir des domaines tels que la protection des consommateurs, la responsabilité civile et l'utilisation éthique des données.
En dépit de tout ceci, la formation et la sensibilisation sont et resteront toujours d'actualité. Les programmes de formation doivent être régulièrement lancés dans chaque pays, c'est-à-dire des ateliers, des conférences, des cours en ligne, des certifications… Et d'ailleurs, l'initiative du Cyber Africa Forum de cette année 2024 abordera les enjeux de l’intelligence artificielle (IA) et de la cybersécurité en Afrique. Comme l'a souligné Franck Kié dans son Livre Blanc intitulé : "Le cyberespace africain à l'épreuve de l'Intelligence Artificielle (IA)", l'édification d'un avenir durable en matière d'IA et de cybersécurité en Afrique requiert donc une approche holistique, intégrant des normes réglementaires, un renforcement des infrastructures et une formation ciblée du capital humain.
En résumé, l'intelligence artificielle n'est ni exclusivement une menace ni exclusivement une solution dans le domaine de la cybersécurité. Son utilisation dépend de la manière dont elle est mise en œuvre par les entreprises et les gouvernements. En intégrant des systèmes et des solutions basées sur l'IA, cela peut consolider la sécurité des données et des systèmes face aux menaces cybernétiques. Ainsi, la collaboration entre l'expertise humaine et l'IA demeure cruciale pour créer une approche équilibrée et adaptative à la cybersécurité, garantissant que la technologie est utilisée de manière éthique et efficace dans la protection des systèmes informatiques contre les menaces émergentes.
Sources:
Le Livre Blanc de Franck Kié: Le cyberespace africain à l'épreuve de l'Intelligence Artificielle (IA)