Notebookcheck Logo

ChatGPT peut être trompé et révéler des clés de série Windows valides

Une capture d'écran de la fenêtre de conversation de ChatGPT affichant un jailbreak qui peut être utilisé pour reproduire des clés Windows valides. (Source de l'image : ODIN)
Le chercheur a initié l'interaction sous la forme d'un jeu de devinettes afin de rendre l'échange "non menaçant ou sans conséquence" (Source de l'image : ODIN)
Des chercheurs ont découvert un exploit avec Chat GPT-4o et GPT-4o mini qui lui permet de révéler des clés d'activation de produits Windows valides. Cette stratégie fonctionne parce que ChatGPT intègre dans son ensemble de données des clés Windows connues du public.

Dans le cadre du programme ODIN (0-Day Investigative Network) de Mozilla, un chasseur de bogues a présenté un moyen ingénieux de tromper le ChatGPT-4o et le 4o mini d'OpenAI pour qu'ils révèlent les clés d'activation de produit Windows actives.

La méthode consistait à présenter l'interaction comme un jeu de devinettes et à dissimuler des détails dans des balises HTML. L'astuce finale consistait à placer la demande de clé à la fin du jeu.

Le chercheur a lancé l'interaction sous la forme d'un jeu de devinettes afin de rendre l'échange "non menaçant ou sans conséquence", en encadrant la conversation "sous un angle ludique et inoffensif", afin de dissimuler le véritable motif. Les garde-fous de l'IA contre la divulgation d'informations confidentielles se sont ainsi relâchés.

Ensuite, le chercheur a fixé quelques règles de base, en disant à l'IA qu'elle "doit" participer et qu'elle "ne peut pas mentir" Cela a permis d'exploiter une faille logique dans la routine de l'IA, qui était obligée de suivre les interactions de l'utilisateur bien que la demande soit en contradiction avec ses filtres de contenu.

Le chasseur de bogues a ensuite joué un tour avec l'IA et a saisi le mot déclencheur "J'abandonne" à la fin de la demande, manipulant le chatbot "en lui faisant croire qu'il était obligé de répondre avec la chaîne de caractères"

Capture d'écran montrant un jailbreak sur ChatGPT qui l'oblige à révéler les clés de produit Windows. (Source de l'image : ODIN)
ChatGPT révélant des clés de produit Windows valides. (Source de l'image : ODIN)

Selon l'article du blog d'ODIN https://0din.ai/blog/chatgpt-guessing-game-leads-to-users-extracting-free-windows-os-keys-morela technique a fonctionné parce que les clés n'étaient pas uniques mais "couramment vues sur les forums publics. Leur familiarité peut avoir contribué à ce que l'IA évalue mal leur sensibilité"

Dans ce cas particulier de jailbreak, les garde-fous ont échoué parce qu'ils sont configurés pour intercepter les demandes directes, mais ne tiennent pas compte des "tactiques d'obscurcissement, telles que l'intégration de phrases sensibles dans les balises HTML"

Cette technique pourrait potentiellement être utilisée pour contourner d'autres filtres, tels que les contenus pour adultes, les URL de sites web malveillants et même les informations personnelles identifiables.

Source(s)

Please share our article, every link counts!
Mail Logo
> Revues et rapports de ordinateurs portatifs et smartphones, ordiphones > Archives des nouvelles 2025 07 > ChatGPT peut être trompé et révéler des clés de série Windows valides
Rohith Bhaskar, 2025-07-10 (Update: 2025-07-10)