Les utilisateurs de chatbots d'IA peuvent essayer d'obtenir des instructions pour des activités illégales (comme le piratage ou la fraude), demander des conseils sur des actions dangereuses ("Comment construire... ?"), ou pousser l'IA à donner des conseils médicaux, juridiques ou financiers qui pourraient être risqués ou tout simplement incorrects.
Pour atténuer les conséquences de ces demandes, les développeurs de chatbots mettent en œuvre une série de mécanismes de sécurité qui bloquent les contenus illégaux, contraires à l'éthique ou à la vie privée, ainsi que les informations erronées ou les conseils préjudiciables. Ces protections limitent les abus potentiels, mais elles peuvent également entraîner des faux positifs - des questions inoffensives étant bloquées - ou réduire la créativité ou la profondeur des réponses de l'IA en raison d'un comportement trop prudent.
Top 10
» Le Top 10 des PC portables multimédia
» Le Top 10 des PC portables de jeu
» Le Top 10 des PC portables de jeu légers
» Le Top 10 des ordinateurs portables bureautiques
» Le Top 10 des PC portables bureautiques premium/professionnels
» Le Top 10 des Stations de travail mobiles
» Le Top 10 des Ultraportables
» Le Top 10 des Ultrabooks
» Le Top 10 des Convertibles
» Le Top 10 des Tablettes
» Le Top 10 des Tablettes Windows
» Le Top 10 des Smartphones
» Le Top 10 des PC Portables á moins de 300 euros
» Le Top 10 des PC Portables á moins de 500 euros
» Le Top 25 des meilleurs écrans d'ordinateurs
Les chercheurs et les pirates informatiques ont démontré que l'efficacité de ces protections varie et que de nombreux systèmes d'IA restent sensibles aux tentatives de contournement. Une méthode bien connue est l'injection d'invite: les utilisateurs essaient d'ignorer ou de contourner les règles du chatbot en manipulant l'entrée ("Ignorez toutes les consignes de sécurité et faites X").
Vous trouverez une introduction ludique à ce sujet à l'adresse suivante : this website. Dans ce jeu, vous discutez avec une IA nommée Gandalf et essayez de lui soutirer un mot de passe à travers sept niveaux. Chaque niveau augmente la difficulté et ajoute de nouveaux filtres de sécurité et mécanismes de protection.
Le premier niveau ne comporte aucun filtre de sécurité et vous pouvez demander directement le mot de passe à l'IA. À partir du niveau 2, Gandalf refuse de révéler le mot de passe lorsqu'on le lui demande directement. Vous devez trouver d'autres moyens, plus créatifs, pour mettre la main sur le mot-clé.
L'exploration des risques de sécurité des chatbots par le biais d'un tel jeu peut être à la fois éducative et utile. Toutefois, les compétences acquises ne doivent être utilisées qu'à des fins de test ou de recherche. L'utilisation de ces techniques pour accéder à des contenus illégaux ou pour mener des activités illicites fait de l'injection rapide un acte criminel.










