Cybercriminalité et IA : quand votre assistant virtuel se retourne contre vous

L'essor fulgurant des assistants d'intelligence artificielle a ouvert une brèche inquiétante dans nos systèmes numériques. Les cybercriminels ont trouvé un moyen détourné de prendre le contrôle de ces outils : en injectant discrètement leurs propres commandes dans votre chatbot, ils peuvent accéder à vos données sensibles, les supprimer ou les altérer à leur guise.
Titelbild
Un panneau annonce la conférence de haut niveau de la Convention des Nations Unies contre la cybercriminalité au Centre national des congrès de Hanoï, le 24 octobre 2025. (NHAC NGUYEN/AFP via Getty Images)
Von 11 novembre 2025

Meta qualifie cette menace émergente d’« injection de requête » et la considère comme une véritable vulnérabilité. Du côté d’OpenAI, le chef de la sécurité Dane Stuckey va plus loin en y voyant « un problème de sécurité non résolu ».

Des origines anciennes, des risques nouveaux

Bien que ce concept existe depuis trois ans – avant même l’avènement de ChatGPT – son impact restait limité. À l’époque, les assistants IA se contentaient de générer du contenu nécessitant une validation humaine avant toute utilisation.

La donne a radicalement changé avec l’apparition des agents IA autonomes. Ces programmes capables d’agir seuls transforment la menace en véritable cheval de Troie au cœur même de vos systèmes informatiques personnels ou professionnels.

L’intégration de ces agents dans les navigateurs web de nouvelle génération expose désormais les utilisateurs à un flot massif de données en ligne dont la fiabilité et la provenance sont souvent douteuses.

L’invisibilité, arme fatale des pirates

Les méthodes d’attaque se révèlent particulièrement insidieuses. Un cybercriminel peut dissimuler ses instructions malveillantes dans une page web, un email, une image ou un document. Ces commandes peuvent être rendues totalement invisibles à l’œil nu, ou même intégrées dans un faux lien, comme l’a récemment démontré l’entreprise spécialisée NeuralTrust.

Le scénario d’attaque est simple mais redoutable : l’agent lit ce contenu piégé et exécute l’ordre reçu sans que l’utilisateur ne s’en aperçoive.

Disposant d’un accès étendu aux données personnelles, l’agent compromis peut exfiltrer des informations vers le pirate, les modifier, les supprimer, ou même manipuler le fonctionnement d’un site web ou du modèle d’IA lui-même.

Une démocratisation dangereuse des cyberattaques

« Pour la première fois depuis des décennies, nous observons de nouveaux vecteurs d’attaques pouvant provenir de n’importe quelle source », alerte Perplexity, nouveau venu dans le secteur de la recherche en ligne. La plateforme souligne un point crucial : l’IA générative et l’utilisation du langage naturel éliminent les barrières techniques, permettant même aux pirates les moins expérimentés de mener des attaques sophistiquées.

Pour Eli Smadja, expert chez Check Point, spécialiste israélien de cybersécurité, l’injection de requête représente « le problème de sécurité numéro un pour les grands modèles de langage », ces programmes qui animent assistants et agents IA.

Les géants de la tech ripostent

Face à cette menace grandissante, tous les acteurs majeurs de l’IA grand public ont déployé des contre-mesures et publié des recommandations pour contrer ces attaques.

Microsoft a développé un détecteur d’instructions malveillantes qui analyse notamment l’emplacement des commandes pour identifier les anomalies. OpenAI a opté pour une approche différente : le système alerte l’utilisateur lorsque l’agent accède à un site potentiellement dangereux et ne poursuit l’opération que sous surveillance directe et en temps réel.

D’autres solutions préconisent une validation explicite de l’utilisateur avant toute action importante.

La course aux armements numériques

« Mais le véritable défi réside dans le perfectionnement constant des attaques », observe Johann Rehberger, chercheur en cybersécurité connu sous le pseudonyme wunderwuzzi. « Certaines menaces n’ont même pas encore été identifiées. »

Eli Smadja met en garde contre une erreur fondamentale : « Confier au même agent le contrôle total de tous vos systèmes. Il peut fouiller vos emails, naviguer sur internet et intervenir dans vos fichiers personnels. »

Le défi consiste à trouver « le délicat équilibre » entre sécurité et praticité, explique Johann Rehberger. « Les utilisateurs souhaitent légitimement que l’IA accomplisse des tâches à leur place, sans supervision constante. »

Une responsabilité partagée

Marti Jorda Roca, ingénieur chez NeuralTrust en Espagne, insiste sur la nécessité d’une approche globale face à ces risques.

« Les utilisateurs doivent prendre conscience des dangers spécifiques liés à l’utilisation de l’IA », affirme-t-il. Les entreprises, quant à elles, « doivent mettre en place des garde-fous solides pour encadrer ces risques. »

Cette prudence nécessaire pourrait toutefois freiner l’adoption des agents IA, particulièrement dans les secteurs sensibles comme la banque.

Une technologie encore immature

Pour Johann Rehberger, l’intelligence artificielle n’a pas atteint le niveau de maturité requis.

« Nous ne sommes pas encore en mesure de laisser un agent IA opérer de manière autonome sur de longues périodes », constate-t-il. « Invariablement, il finit par dysfonctionner. »

Avec AFP



Kommentare
Liebe Leser,

vielen Dank, dass Sie unseren Kommentar-Bereich nutzen.

Bitte verzichten Sie auf Unterstellungen, Schimpfworte, aggressive Formulierungen und Werbe-Links. Solche Kommentare werden wir nicht veröffentlichen. Dies umfasst ebenso abschweifende Kommentare, die keinen konkreten Bezug zum jeweiligen Artikel haben. Viele Kommentare waren bisher schon anregend und auf die Themen bezogen. Wir bitten Sie um eine Qualität, die den Artikeln entspricht, so haben wir alle etwas davon.

Da wir die Verantwortung für jeden veröffentlichten Kommentar tragen, geben wir Kommentare erst nach einer Prüfung frei. Je nach Aufkommen kann es deswegen zu zeitlichen Verzögerungen kommen.


Ihre Epoch Times - Redaktion