IA Piratée: Mistral et xAI utilisées par des Cybercriminels! 🚨

Urgence Cybersécurité: L'IA de Mistral et xAI Détournée par des Criminels!

Des chercheurs en sécurité ont découvert que des cybercriminels exploitent des versions piratées (jailbreakées) de modèles de langage (LLM) populaires, notamment ceux de Mistral AI et xAI, pour des activités malveillantes. Ces outils d'IA, normalement conçus pour des tâches positives, sont désormais utilisés pour créer des e-mails de phishing sophistiqués, générer du code malveillant et fournir des tutoriels de piratage.

Selon un rapport de Cato Networks, les cybercriminels utilisent des invites système pour contourner les garde-fous intégrés de ces LLM. Un de ces outils piratés, propulsé par Grok (l'IA de xAI d'Elon Musk), a été découvert sur le dark web en février sur le site BreachForums. Un autre, utilisant Mixtral de Mistral AI, a été découvert en octobre sur le même forum.

Ces versions "non censurées" des LLM étaient proposées à la vente sur BreachForums. Les cybercriminels ont réussi à maintenir ce site en activité malgré les efforts répétés des forces de l'ordre pour le fermer.

Mistral AI et xAI n'ont pas répondu aux demandes de commentaires concernant l'utilisation malveillante de leurs produits.

WormGPT Ressuscite : De Nouvelles Variantes Malveillantes Basées sur Grok et Mixtral

Ces nouvelles versions de WormGPT, un LLM malveillant qui avait fait surface en juillet 2023, exploitent les API des LLM comme Grok et Mixtral grâce à des invites de jailbreak. WormGPT était connu pour sa capacité à générer des e-mails de phishing et des scripts malwares sans aucune restriction.

Les chercheurs de Cato Networks ont analysé ces nouvelles variantes, découvertes sur BreachForums entre octobre 2024 et février 2025, et les ont identifiées comme étant nouvelles et non signalées auparavant. L'accès à WormGPT se fait via un chatbot Telegram, sur la base d'un modèle d'abonnement et de paiement unique.

L'incident met en lumière les défis croissants liés à la sécurisation des technologies d'IA et à la nécessité pour les développeurs de LLM de mettre en place des mesures de protection plus robustes pour empêcher leur utilisation abusive.

  • Leçon à retenir: Soyez extrêmement prudents avec les courriels et les liens suspects.
  • Recommandation: Activez l'authentification à deux facteurs sur tous vos comptes importants.

Compartir artículo