Depuis que j’ai rapporté plus tôt cette année sur la facilité avec laquelle il est possible de tromper un navigateur agentif, je suis les intersections entre l’IA moderne et les arnaques à l’ancienne. Désormais, une nouvelle convergence se profile à l’horizon : des pirates utilisent apparemment des invites d’IA pour alimenter les résultats de recherche Google avec des commandes dangereuses. Lorsqu’elles sont exécutées par des utilisateurs non avertis, ces commandes incitent les ordinateurs à donner aux pirates l’accès dont ils ont besoin pour installer des logiciels malveillants.
L’avertissement provient d’un rapport récent de la société Huntress, spécialisée dans la détection et la réponse. Voici comment cela fonctionne. Tout d’abord, l’acteur de la menace engage une conversation avec un assistant IA au sujet d’un terme de recherche courant, pendant laquelle il pousse l’IA à proposer de coller une certaine commande dans le terminal d’un ordinateur. Il rend le chat publiquement visible et paie pour le faire remonter sur Google. À partir de là, chaque fois que quelqu’un recherche ce terme, les instructions malveillantes apparaissent en haut de la première page des résultats.
Huntress a mené des tests sur ChatGPT et Grok après avoir découvert qu’une attaque d’exfiltration de données visait les Mac, nommée AMOS, avait émergé d’une simple recherche Google. L’utilisateur de l’appareil infecté avait recherché « libérer l’espace disque sur Mac », avait cliqué sur un lien sponsorisé vers ChatGPT et — faute de formation pour voir que le conseil était hostile — avait exécuté la commande. Cela a permis aux attaquants d’installer le logiciel malveillant AMOS. Les testeurs ont découvert que les deux chatbots reproduisaient le vecteur d’attaque.
Comme Huntress le souligne, le génie maléfique de cette attaque est qu’elle contourne presque tous les signaux d’alerte traditionnels que nous avons appris à repérer. La victime n’a pas à télécharger un fichier, installer un exécutable douteux ou même cliquer sur un lien douteux. Les seules choses en lesquelles elle peut avoir confiance sont Google et ChatGPT, qu’elle a soit déjà utilisés auparavant ou dont elle a entendu parler sans cesse au cours des dernières années. Elles sont prêtes à faire confiance à ce que ces sources leur disent. Pire encore, bien que le lien vers la conversation ChatGPT ait depuis été retiré de Google, il était en ligne pendant au moins une demi-journée après que Huntress ait publié son billet de blog.
Cette information arrive à un moment déjà difficile pour les deux IA. Grok est largement critiqué pour avoir flatté Elon Musk de manière détestable, tandis que le créateur de ChatGPT, OpenAI, accuse du retard face à la concurrence. On n’est pas encore sûrs si l’attaque peut être reproduite avec d’autres chatbots, mais pour l’instant, je recommande vivement de faire preuve de prudence. Parallèlement à vos autres mesures de cybersécurité basées sur le bon sens, assurez-vous de ne jamais coller quoi que ce soit dans votre terminal de commande ou dans la barre d’adresse de votre navigateur si vous n’êtes pas certain de ce que cela fera.