Récemment, une enquête menée par The Guardian a révélé des risques de sécurité potentiels dans l’outil de recherche ChatGPT d’OpenAI. Des enquêtes ont montré que ChatGPT est sensible aux codes malveillants ou aux instructions de manipulation cachées dans les pages Web, donnant des réponses inexactes, voire nuisibles, par exemple en étant manipulé pour donner des avis trop positifs sur un produit même s'il existe des avis négatifs sur le produit. L’enquête a soulevé des inquiétudes quant à la sécurité des grands modèles de langage et a souligné l’importance cruciale de la sécurité dans le développement de la technologie de l’IA.
Récemment, une enquête menée par le « Guardian » britannique a révélé d'éventuels risques de sécurité dans l'outil de recherche ChatGPT d'OpenAI. L'enquête a révélé que ChatGPT peut être manipulé ou même renvoyer du code malveillant lors du traitement d'extraits de pages Web contenant du contenu caché. Ce contenu caché peut inclure des instructions tierces conçues pour interférer avec la réponse de ChatGPT, ou une grande quantité de texte caché faisant la promotion d'un certain produit ou service.
Au cours du test, ChatGPT a reçu un lien vers une fausse page de produit d'appareil photo et a été invité à juger si l'appareil photo valait la peine d'être acheté. Sur une page normale, ChatGPT peut souligner les avantages et les inconvénients d'un produit de manière équilibrée. Cependant, lorsque le texte masqué sur la page contenait des instructions demandant un avis positif, les réponses de ChatGPT devenaient entièrement positives, même s'il y avait des avis négatifs sur la page. De plus, même sans instructions explicites, un simple texte masqué peut influencer les résultats récapitulatifs de ChatGPT, ce qui lui donne tendance à donner des avis positifs.
Jacob Larsen, expert en cybersécurité chez CyberCX, a averti que si le système de recherche de ChatGPT était entièrement publié dans son état actuel, il pourrait être confronté à un « risque élevé » que quelqu'un conçoive un site Web spécifiquement pour tromper les utilisateurs. Cependant, il a également souligné qu'OpenAI dispose d'une solide équipe de sécurité de l'IA, et on s'attend à ce qu'elle ait rigoureusement testé et résolu ces problèmes au moment où la fonctionnalité sera ouverte à tous les utilisateurs.
Les moteurs de recherche tels que Google ont pénalisé les sites Web qui utilisent du texte masqué, ce qui a entraîné une baisse, voire une suppression totale, de leur classement. Karsten Nohl, scientifique en chef de SR Labs, a souligné que l'empoisonnement du référencement est un défi pour tout moteur de recherche, et ChatGPT ne fait pas exception. Néanmoins, il ne s’agit pas d’un problème lié au grand modèle de langage lui-même, mais d’un défi auquel sont confrontés les nouveaux entrants dans le domaine de la recherche.
Souligner:
ChatGPT peut être manipulé par du contenu caché et renvoyer de faux avis.
Le texte masqué peut affecter l'évaluation de ChatGPT, même si la page contient des avis négatifs.
OpenAI résout activement les problèmes potentiels pour améliorer la sécurité de l'outil de recherche.
Bien que ChatGPT soit confronté à de nouveaux défis tels que l’empoisonnement du référencement, cela ne signifie pas que la technologie de modèle linguistique à grande échelle elle-même est défectueuse. OpenAI est conscient de ces problèmes et prend activement des mesures pour les résoudre. À l'avenir, à mesure que la technologie continue de se développer et de s'améliorer, la sécurité des grands modèles de langage devrait être encore améliorée, offrant ainsi aux utilisateurs des services plus fiables.