Des chercheurs en sécurité ont récemment révélé que des attaquants exploitent des outils d’intelligence artificielle comme ChatGPT pour tromper les utilisateurs de Mac. Leur méthode consiste à inciter les utilisateurs à coller des commandes dans le Terminal, ce qui conduit à l’installation de logiciels malveillants, notamment MacStealer, permettant aux cybercriminels de récupérer des mots de passe iCloud, des fichiers et des informations de carte de crédit.
Cette attaque cible particulièrement les personnes en quête de solutions pour libérer de l’espace disque sur leur Mac. En recherchant des conseils sur Google, elles tombent facilement dans le piège tendu par ces hackers.
Une nouvelle menace à considérer
Selon Sam Chapman d’Engadget, le phénomène de l’utilisation d’IA pour perpétrer d’anciens arnaques est en pleine progression. Les chercheurs de Huntress, une entreprise spécialisée dans la cybersécurité, ont mis en évidence comment les pirates utilisent des invites d’IA pour manipuler les résultats de recherche Google avec des commandes dangereuses. Ces dernières, exécutées par des utilisateurs non avertis, donnent aux hackers l’accès nécessaire pour installer des logiciels indésirables.
Les hackers ont engagé une conversation avec ChatGPT, introduisant une commande Terminal, rendant la discussion publique et par la suite, ayant payé pour faire apparaître le lien dans les résultats sponsorisés de Google. Cela leur a permis de se hisser en tête des résultats de recherche concernant la libération d’espace disque sur un Mac.
Des utilisateurs, en quête d’instructions fiables comme « Libérer de l’espace disque sur macOS » ou « Comment effacer des données sur iMac », sont tombés sur ces pièges déguisés en conseils amicaux. Convaincus d’être aidés par un assistant AI digne de confiance, ils ont fait exécuter une commande compromettante, entraînant le téléchargement d’une variante de voleur d’identité, se plaçant sous les radars tout en collectant leurs informations sensibles.
Le lien vers ChatGPT proposait une assistance polie et des étapes de dépannage, intégrant des instructions et des commandes Terminal apparemment inoffensives. En réalité, ces commandes n’étaient rien d’autre qu’un leurre.
Pratiques de sécurité à suivre
La méthode astucieuse des attaquants contourne les protections intégrées de macOS, permettant à l’utilisateur d’installer le malware sans aucun avertissement. Ce phénomène expose une vulnérabilité dangereuse, exploitant la confiance que les utilisateurs portent à des marques bien établies comme Google et ChatGPT.
Il est crucial de rappeler que coller des commandes dans le Terminal sans en comprendre les implications est risqué. S’assurer de la fiabilité de la source est impératif. Les résultats sponsorisés sur Google, même s’ils semblent attrayants, ne garantissent en rien leur sécurité.
Cette forme d’attaque est particulièrement insidieuse et peut facilement tromper une personne non initiée à la technologie. Il serait sage de sensibiliser son entourage à ce type de menace, afin d’éviter que d’autres victimes ne se laissent prendre au piège.
