Notebookcheck Logo

Gemini 3 Pro explique comment fabriquer des armes biologiques et des explosifs - une expérience révèle une faille de sécurité

Aim Intelligence a déclaré qu'elle avait pu inciter Gemini 3 Pro à générer des instructions pour des armes biologiques et des explosifs. (Source de l'image : Google)
Aim Intelligence a déclaré qu'elle avait pu inciter Gemini 3 Pro à générer des instructions pour des armes biologiques et des explosifs. (Source de l'image : Google)
Gemini 3 Pro est l'un des modèles d'IA les plus performants de sa génération, mais un rapport de la start-up sud-coréenne Aim Intelligence soulève des questions quant à sa sécurité. Lors d'un test interne, le modèle aurait généré des conseils sur la production d'armes biologiques et d'explosifs, ce qui a suscité de vives inquiétudes.

Google a commencé à déployer la troisième génération de son modèle d'IA Gemini en novembre, dans le but d'inaugurer une "nouvelle ère de l'IA" avec son mode Deep Thin. Gemini 3 Pro est déjà considéré comme l'un des modèles les plus avancés disponibles, surpassant même GPT-5 dans certains benchmarks. Cependant, sa sécurité reste un sujet de préoccupation. Un rapport de la start-up sud-coréenne Aim Intelligence, spécialisée dans la sécurité de l'IA, suggère qu'il y a encore une marge d'amélioration significative.

Dans le cadre d'une expérience interne, Aim Intelligence a tenté de "jailbreaker" le modèle, en contournant ses règles de sécurité et d'éthique. Selon lejournal sud-coréen Maeil Business Newspaperde Corée du Sud, les résultats sont très inquiétants. Le rapport indique que Gemini 3 Pro a généré des instructions précises et pratiques pour produire le virus de la variole, une arme biologique potentielle, ainsi que des conseils détaillés sur la fabrication d'explosifs artisanaux. Lors d'autres tests, l'IA a généré une présentation satirique intitulée Excused Stupid Gemini 3, mettant involontairement en évidence ses propres vulnérabilités en matière de sécurité.

Il est important de noter qu'aucun ensemble de données complet ni aucune documentation détaillée n'ont été publiés. Aim Intelligence n'a pas publié d'article scientifique ou de rapport technique, et il n'y a pas d'informations transparentes sur les messages-guides utilisés, la structure de l'expérience ou la reproductibilité des résultats. Jusqu'à présent, tous les rapports s'appuient uniquement sur l'article du média coréen mentionné plus haut. Sur la base de ces informations limitées, il est impossible de tirer des conclusions définitives sur le degré de sécurité de Gemini 3 Pro.

Les performances de l'IA progressent rapidement, mais les mesures de sécurité ont souvent du mal à suivre. Une étude récente a même montré que les modèles d'IA peuvent être manipulés en utilisant des poèmes. Dans un autre cas, un ours en peluche pour les tout-petits alimenté par l'IA - construit sur la base du GPT-4o d'OpenAI - a répondu à des questions sexuelles inappropriées. Même dans les jeux vidéo, l'IA du jeu peut encore être facilement trompée. Ces exemples mettent en évidence un point essentiel : Les systèmes d'IA ne doivent pas seulement devenir plus intelligents, ils doivent aussi devenir plus sûrs avant qu'on puisse leur faire confiance et les déployer à grande échelle.

Source(s)

Journal Maeil Business

Source de l'image : Google

Please share our article, every link counts!
Mail Logo
> Revues et rapports de ordinateurs portatifs et smartphones, ordiphones > Nouvelles > Archives des nouvelles > Archives des nouvelles 2025 12 > Gemini 3 Pro explique comment fabriquer des armes biologiques et des explosifs - une expérience révèle une faille de sécurité
Marius Müller, 2025-12- 3 (Update: 2025-12- 3)