Microsoft corrige une faille de contrebande ASCII qui permettait le vol de données depuis Microsoft 365 Copilot
Des détails ont émergé concernant une vulnérabilité désormais corrigée dans Microsoft 365 Copilot qui pourrait permettre le vol d'informations utilisateur sensibles à l'aide d'une technique appelée ASCII Smuggling .
« L'ASCII Smuggling est une nouvelle technique qui utilise des caractères Unicode spéciaux qui reflètent l'ASCII mais qui ne sont en réalité pas visibles dans l'interface utilisateur », a déclaré Johann REHBERGER, Chercheur en sécurité informatique.
« Cela signifie qu'un attaquant peut faire en sorte que le [grand modèle de langage] restitue à l'utilisateur des données invisibles et les intégrer dans des hyperliens cliquables. Cette technique met en scène les données en vue de leur exfiltration ! »
L'attaque dans son ensemble combine un certain nombre de méthodes d'attaque pour les transformer en une chaîne d'exploitation fiable. Cela comprend les étapes suivantes :
- Déclencher une injection rapide via un contenu malveillant dissimulé dans un document partagé sur le chat
- Utilisation d'une charge utile d'injection rapide pour demander à Copilot de rechercher davantage d'e-mails et de documents
- Exploiter ASCII Smuggling pour inciter l'utilisateur à cliquer sur un lien pour exfiltrer des données précieuses vers un serveur tiers
Le résultat net de l’attaque est que les données sensibles présentes dans les e-mails, y compris les codes d’authentification multifacteur (MFA), pourraient être transmises à un serveur contrôlé par un adversaire. Microsoft a depuis résolu le problème à la suite d’une divulgation responsable en janvier 2024.
Cette évolution intervient alors que des attaques de preuve de concept (PoC) ont été démontrées contre le système Copilot de Microsoft pour manipuler les réponses, exfiltrer des données privées et esquiver les protections de sécurité, soulignant une fois de plus la nécessité de surveiller les risques dans les outils d'intelligence artificielle (IA).
Les méthodes, détaillées par Zenity , permettent aux acteurs malveillants d'effectuer des empoisonnements par génération augmentée de récupération (RAG) et des injections d'invites indirectes conduisant à des attaques d'exécution de code à distance qui peuvent contrôler entièrement Microsoft Copilot et d'autres applications d'IA. Dans un scénario d'attaque hypothétique, un pirate externe doté de capacités d'exécution de code pourrait tromper Copilot en fournissant aux utilisateurs des pages de phishing.
L'une des attaques les plus innovantes est peut-être la possibilité de transformer l'IA en une machine de spear-phishing. La technique du red-teaming, baptisée LOLCopilot , permet à un attaquant ayant accès au compte de messagerie d'une victime d'envoyer des messages de phishing imitant le style de l'utilisateur compromis.
Microsoft a également reconnu que les robots Copilot exposés publiquement créés à l'aide de Microsoft Copilot Studio et dépourvus de toute protection d'authentification, pourraient être un moyen pour les acteurs malveillants d'extraire des informations sensibles, en supposant qu'ils aient une connaissance préalable du nom ou de l'URL de Copilot.
« Les entreprises doivent évaluer leur tolérance au risque et leur exposition pour éviter les fuites de données des Copilots (anciennement Power Virtual Agents) et activer la prévention des pertes de données et d'autres contrôles de sécurité en conséquence pour contrôler la création et la publication des Copilots », a déclaré Johann REHBERGER.
Source : The Hacker News