Rapport d’incident : Utilisation malveillante de ChatGPT par des acteurs étatiques

Résumé exécutif

OpenAI a annoncé avoir neutralisé plusieurs réseaux d’acteurs malveillants exploitant son outil d’intelligence artificielle ChatGPT pour faciliter des opérations cybercriminelles et d’influence. Cette action de disruption concerne trois groupes principaux affiliés à la Russie, la Corée du Nord et la Chine, qui ont détourné les capacités de l’IA pour développer des logiciels malveillants, orchestrer des campagnes de phishing et mener des opérations d’influence.

Classification des menaces identifiées

Cluster 1 : Acteur russophone – Développement de malware

Profil de l’acteur

Un acteur de menace russophone, présumé affilié à des groupes criminels organisés, a utilisé ChatGPT pour concevoir et perfectionner des outils malveillants sophistiqués. L’acteur a publié des preuves de ses activités sur un canal Telegram dédié à ces groupes criminels.

Capacités développées

L’acteur a exploité ChatGPT pour créer plusieurs composants malveillants :

  • Trojan d’accès à distance (RAT) : Développement d’un outil d’accès distant avec mécanismes d’évasion
  • Voleur d’identifiants : Création de malware ciblant les informations d’authentification
  • Composants post-exploitation : Prototypage d’outils permettant des actions après compromission initiale

Méthodologie de contournement

Les modèles de langage d’OpenAI ont refusé les demandes directes de production de contenu malveillant. L’acteur a donc adopté une stratégie de fragmentation :

  1. Approche modulaire : Demande de composants de code apparemment légitimes
  2. Assemblage manuel : Combinaison des fragments pour créer des flux de travail malveillants
  3. Code généré :
    • Obfuscation de code
    • Surveillance du presse-papiers
    • Utilitaires d’exfiltration via bot Telegram
    • Générateurs de mots de passe en masse
    • Scripts d’automatisation de candidatures

Analyse comportementale

L’analyse des patterns d’utilisation révèle :

  • Sophistication variable : Alternance entre requêtes nécessitant une expertise Windows approfondie et tâches automatisées basiques
  • Développement itératif : Utilisation d’un nombre restreint de comptes ChatGPT avec itérations successives sur le même code
  • Débogage intensif : Processus de développement continu plutôt que tests occasionnels

Cluster 2 : Acteur nord-coréen – Campagne de spear-phishing

Attribution et contexte

Ce cluster présente des recoupements avec une campagne documentée par Trellix en août 2025, ciblant des missions diplomatiques en Corée du Sud via des emails de spear-phishing délivrant le malware Xeno RAT.

Utilisation de ChatGPT

Les acteurs nord-coréens ont exploité l’IA pour plusieurs activités techniques :

Développement de malware et C2 :

  • Création d’extensions Finder pour macOS
  • Configuration de VPN sous Windows Server
  • Conversion d’extensions Chrome vers Safari
  • Développement de techniques de chargement DLL
  • Exécution en mémoire
  • Hooking d’API Windows
  • Vol d’identifiants

Ingénierie sociale et infrastructure :

  • Rédaction d’emails de phishing ciblés
  • Expérimentation avec services cloud et fonctions GitHub
  • Exploration de techniques d’exécution furtive

Cluster 3 : Acteur chinois UNK_DropPitch (UTA0388)

Identification de l’acteur

Ce groupe, suivi par Proofpoint sous l’identifiant UNK_DropPitch (alias UTA0388), est un acteur de menace chinois spécialisé dans le ciblage de l’industrie des semi-conducteurs taïwanaise et des grandes firmes d’investissement.

Campagnes attribuées

L’acteur est associé au déploiement du backdoor HealthKick (également connu sous le nom GOVERSHELL) via des campagnes de phishing sophistiquées.

Exploitation de ChatGPT

Génération de contenu multilingue :

  • Création de matériel de phishing en anglais, chinois et japonais
  • Adaptation culturelle et linguistique des messages d’hameçonnage

Développement d’outils :

  • Automatisation de tâches d’exécution à distance
  • Protection du trafic via HTTPS
  • Recherche d’informations sur l’installation d’outils open-source (nuclei, fscan)

Évaluation de la sophistication : OpenAI qualifie cet acteur de “techniquement compétent mais peu sophistiqué”, suggérant une capacité opérationnelle efficace mais une méthodologie moins avancée.

Opérations d’escroquerie et d’influence

Au-delà des activités de cyberespionnage, OpenAI a identifié et neutralisé plusieurs opérations d’influence et d’escroquerie.

Réseaux d’escroquerie en Asie du Sud-Est et en Afrique

Origines géographiques

  • Cambodge
  • Myanmar
  • Nigéria

Méthodologie d’escroquerie

Ces réseaux ont exploité ChatGPT pour :

  • Services de traduction : Adaptation des messages à différentes langues cibles
  • Rédaction de messages : Création de communications persuasives
  • Contenu pour réseaux sociaux : Production de matériel promotionnel pour des arnaques d’investissement

Adaptation anti-détection

Un cas particulièrement notable révèle la conscience des acteurs concernant les indicateurs d’utilisation de l’IA :

“Un des réseaux d’escroquerie cambodgiens a demandé au modèle de retirer les tirets longs (em-dashes, –) de la sortie, ou semble avoir retiré les tirets manuellement avant publication. Pendant des mois, les tirets longs ont fait l’objet de discussions en ligne comme indicateur possible d’utilisation d’IA : ce cas suggère que les acteurs de menace étaient conscients de ces discussions.”

Cette observation démontre une adaptation tactique sophistiquée visant à masquer l’origine automatisée du contenu.

Opérations de surveillance liées au gouvernement chinois

Cibles identifiées

Des individus apparemment liés à des entités gouvernementales chinoises ont utilisé ChatGPT pour :

  • Surveillance de minorités ethniques : Ciblage spécifique des Ouïghours
  • Analyse de réseaux sociaux : Traitement de données provenant de plateformes occidentales et chinoises
  • Génération de matériel promotionnel : Création de contenu marketing pour ces outils de surveillance

Note importante : Les utilisateurs n’ont pas employé l’IA pour implémenter ces outils, mais uniquement pour la génération de matériel promotionnel.

Opération d’influence russe : Stop News

Attribution et infrastructure

Acteur d’origine russe probablement géré par une agence de marketing, utilisant les modèles d’OpenAI et d’autres fournisseurs d’IA.

Narratifs diffusés

Contenu anti-occidental :

  • Critique du rôle de la France en Afrique
  • Critique du rôle des États-Unis sur le continent africain
  • Promotion du rôle de la Russie en Afrique

Contenu anti-ukrainien :

  • Production de contenu en anglais véhiculant des narratifs anti-Ukraine
  • Génération de vidéos pour diffusion sur réseaux sociaux

Opération d’influence chinoise : “Nine Line”

Cibles géopolitiques

Cette opération d’influence clandestine a généré du contenu visant plusieurs objectifs stratégiques :

Ciblage des Philippines :

  • Contenu critique envers le Président Ferdinand Marcos
  • Contestation des positions philippines en mer de Chine méridionale

Narratifs environnementaux :

  • Publications sur l’impact environnemental présumé du Vietnam en mer de Chine méridionale

Ciblage pro-démocratie :

  • Contenu concernant des personnalités politiques et militants du mouvement pro-démocratie de Hong Kong

Tentatives de surveillance et identification

Dans deux cas distincts, des comptes chinois présumés ont sollicité ChatGPT pour :

  • Identifier les organisateurs d’une pétition en Mongolie
  • Déterminer les sources de financement d’un compte X critiquant le gouvernement chinois

Réponse du système : Les modèles d’OpenAI ont uniquement fourni des informations publiquement disponibles, sans divulguer de données sensibles.

Stratégies de croissance sur réseaux sociaux

Une utilisation novatrice impliquait des demandes de conseil sur :

  • Stratégies de croissance sur réseaux sociaux
  • Lancement de défis TikTok
  • Exploitation du hashtag #MyImmigrantStory (hashtag populaire préexistant)
  • Génération de transcriptions pour publications TikTok
  • Recommandations de musiques de fond et visuels d’accompagnement

Évaluation de l’impact et des capacités

Analyse des capacités apportées

OpenAI a souligné que ses outils n’ont pas fourni de capacités entièrement nouvelles que les acteurs de menace n’auraient pu obtenir autrement via des ressources publiques. Le principal apport se situe dans :

  • Gains d’efficacité incrémentaux : Accélération des flux de travail existants
  • Automatisation de tâches répétitives : Réduction du temps de développement
  • Assistance linguistique : Facilitation de la production de contenu multilingue

Limitations des systèmes de protection

Les mécanismes de refus des modèles de langage, bien que présents, se sont révélés contournables via :

  • Fragmentation des requêtes malveillantes
  • Demande de composants apparemment légitimes
  • Assemblage manuel post-génération

Innovations technologiques en réponse

Outil d’audit Petri d’Anthropic

En parallèle de ces révélations, Anthropic a publié Petri (Parallel Exploration Tool for Risky Interactions), un outil d’audit open-source conçu pour accélérer la recherche en sécurité de l’IA.

Fonctionnalités principales

Détection de comportements à risque :

  • Tromperie
  • Sycophantisme
  • Encouragement de l’illusion utilisateur
  • Coopération avec demandes nuisibles
  • Auto-préservation

Méthodologie d’audit :

  • Déploiement d’agents automatisés pour tester les systèmes d’IA cibles
  • Conversations multi-tours diversifiées impliquant utilisateurs et outils simulés
  • Traitement parallèle d’instructions semences ciblant des scénarios spécifiques
  • Planification et interaction via boucle d’utilisation d’outils
  • Notation des transcriptions selon multiples dimensions pour filtrage et analyse

Implications stratégiques

Pour l’industrie de l’IA

  1. Nécessité de surveillance continue : Détection proactive des abus de systèmes d’IA
  2. Amélioration des mécanismes de refus : Renforcement des protections contre la fragmentation de requêtes malveillantes
  3. Collaboration intersectorielle : Partage d’indicateurs de compromission et de tactiques adverses

Pour la communauté de cybersécurité

  1. Nouveaux vecteurs d’attaque : Intégration de l’IA générative dans les modèles de menace
  2. Détection de contenu généré par IA : Développement d’indicateurs techniques et linguistiques
  3. Adaptation des acteurs de menace : Reconnaissance de la conscience accrue des adversaires concernant les signatures d’IA

Pour les décideurs politiques

  1. Régulation de l’IA : Nécessité de cadres réglementaires pour prévenir l’utilisation malveillante
  2. Attribution et responsabilité : Établissement de mécanismes de traçabilité des abus
  3. Coopération internationale : Coordination face aux menaces transnationales exploitant l’IA

Recommandations

Pour les fournisseurs d’IA

  1. Renforcer les systèmes de détection d’utilisation abusive
  2. Implémenter des mécanismes de watermarking robustes
  3. Développer des capacités d’attribution et de traçabilité
  4. Établir des protocoles de réponse aux incidents standardisés

Pour les organisations

  1. Sensibiliser le personnel aux techniques de phishing assistées par IA
  2. Déployer des solutions de détection de contenu généré artificiellement
  3. Intégrer l’IA générative dans les évaluations de menaces
  4. Surveiller les indicateurs comportementaux inhabituels dans les communications

Pour les chercheurs en sécurité

  1. Développer des méthodologies de détection de contenu généré par IA
  2. Explorer les vulnérabilités des systèmes de protection actuels
  3. Collaborer sur le développement d’outils d’audit comme Petri
  4. Documenter et partager les tactiques adverses émergentes

Conclusion

Cette série de disruptions par OpenAI illustre la dualité inhérente aux technologies d’intelligence artificielle générative : leur potentiel pour améliorer l’efficacité et la créativité s’accompagne de risques d’exploitation malveillante. L’adaptation rapide des acteurs de menace, notamment leur conscience des indicateurs révélateurs d’utilisation d’IA, souligne la nécessité d’une évolution constante des mécanismes de défense.

La sophistication variable des acteurs identifiés — allant de groupes criminels russophones techniquement compétents aux opérations d’influence étatiques chinoises — démontre que l’IA générative démocratise certaines capacités offensives tout en abaissant les barrières d’entrée pour des acteurs moins sophistiqués.

L’émergence d’outils d’audit comme Petri d’Anthropic représente une réponse encourageante de l’industrie, mais la course entre défenseurs et attaquants dans le domaine de l’IA ne fait que commencer.

cybersecurite.com
Résumé de la politique de confidentialité

Ce site utilise des cookies afin que nous puissions vous fournir la meilleure expérience utilisateur possible. Les informations sur les cookies sont stockées dans votre navigateur et remplissent des fonctions telles que vous reconnaître lorsque vous revenez sur notre site Web et aider notre équipe à comprendre les sections du site que vous trouvez les plus intéressantes et utiles.