crédule et peu sécurisé, le moteur de recherche inquiète
Lancé le mois dernier, ChatGPT Search se fait étriller par une enquête du quotidien britannique The Guardian, qui pointe en particulier sa sécurité faillible.
Censé révolutionner la recherche sur le Web, le moteur ChatGPT Search, ou SearchGPT, ne serait pas la panacée. En plus de sa piètre fiabilité pour résumer l’actualité, l’outil serait surtout très facile à mener à la baguette par des acteurs malveillants, qui peuvent l’utiliser pour détourner l’ordinateur des utilisateurs.
En stock
Acheter sur Fnac.com
Un moteur facile à manipuler avec du texte caché
ChatGPT Search agit en quelque sorte comme un concierge. On lui expose notre question et il part en quête de réponses en explorant les sites web les plus recommandables. Il revient ensuite vers nous en exposant ses trouvailles sous la forme d’une liste à puces qui contient des liens permettant d’explorer les sources afin d’approfondir ses connaissances ou vérifier ses dires.
Le problème, rapporte The Guardian, c’est que SearchGPT ne dispose pas encore de filtres assez efficaces pour lui éviter des erreurs fatales. Le quotidien a, en effet, créé de toutes pièces un site web présentant un appareil photo. D’apparence tout à fait fiable, ce site contenait du texte caché, invisible à l’œil des internautes, mais destiné à ChatGPT. Des instructions masquées, censées orienter l’analyse de l’intelligence artificielle.
L’outil tombe inévitablement dans le panneau. Malgré la présence de commentaires négatifs sur l’appareil photo, la simple présence d’un texte caché élogieux, agissant comme un prompt invisible, a suffi à les gommer et à présenter un résultat extrêmement positif aux utilisateurs de ChatGPT Search.
Des risques pour les internautes
L’exemple donné par le quotidien britannique semble anecdotique et s’inscrit pleinement dans la lignée des faux avis que l’on trouve de plus en plus sur les sites d’e-commerce. Toujours est-il que l’utilisation de moteurs de recherche par IA n’encourage pas les internautes à vérifier leurs sources et les invite forcément à aller au plus vite, en prenant les réponses du robot pour argent comptant. Aussi, Jacob Larsen, chercheur en cybersécurité interrogé par The Guardian, craint l’émergence de sites conçus spécifiquement pour tromper les intelligences artificielles avec du texte caché, et ainsi polluer les résultats de recherche.
Mais ce qui est vrai pour de faux avis positifs peut également l’être pour des sujets bien plus graves. On peut imaginer qu’un site web invite les IA à rediriger les utilisateurs vers le téléchargement d’un programme vérolé. Le journal donne ainsi l’exemple d’un développeur qui a utilisé, sans le vérifier, du code fourni par ChatGPT afin d’accéder à la blockchain Solana (une cryptomonnaie). Le code lui a en réalité dérobé ses identifiants, et 2 500 $ de tokens au passage.
Si la prudence est de mise, Jacob Larsen tempère l’alarmisme qui peut ressortir d’une telle enquête. Les moteurs de recherche par IA sont encore jeunes et veulent aller vite afin de rattraper leur inévitable retard sur le géant Google. Le chercheur reste optimiste quant aux garde-fous que sauront mettre en place OpenAI et les autres architectes de l’intelligence artificielle pour que le Web demeure un endroit aussi sûr que possible pour les internautes.