Notebookcheck Logo

Des chercheurs mettent en garde contre les essaims d'IA qui créent une fausse opinion publique

Image décorative représentant une puce sur laquelle est inscrit l'acronyme
ⓘ Igor Omilaev via Unsplash
Image décorative représentant une puce sur laquelle est inscrit l'acronyme "AI"
Une équipe internationale de chercheurs a lancé un avertissement sur les dangers des essaims d'IA en ce qui concerne la fabrication de faux consensus publics, notant que cela pourrait déjà s'être produit.

Imaginez un monde où un grand groupe de personnes peut parler d'un sujet particulier et en faire une tendance en ligne. Ou encore un monde où ces personnes peuvent forcer la main à des personnalités publiques ou même diffuser des informations erronées. Imaginez maintenant un monde où les "personnes" sont en fait des profils alimentés par l'IA qui agissent à l'unisson tout en imitant des voix humaines uniques.

C'est contre ce danger que des scientifiques issus d'une multitude d'institutions du monde entier nous mettent aujourd'hui en garde dans une publication récente parue dans la revue Science.

Une équipe de recherche internationale a expliqué comment la fusion de grands modèles de langage (LLM) avec des systèmes multi-agents permet la création d'essaims d'IA malveillants. Contrairement aux robots copier-coller traditionnels, facilement identifiables, ces essaims avancés sont constitués de personas contrôlés par l'IA qui conservent des identités persistantes, une mémoire et des objectifs coordonnés. Ils peuvent adapter dynamiquement leur ton et leur contenu en fonction de l'engagement humain, en opérant avec une supervision minimale sur de multiples plateformes.

La principale menace posée par ces réseaux est la fabrication d'un "consensus synthétique" En inondant les espaces numériques de bavardages fabriqués de toutes pièces mais très convaincants, ces essaims créent la fausse illusion qu'un point de vue spécifique est universellement accepté. Les chercheurs notent que ce phénomène met en péril les fondements du discours démocratique, car un seul acteur malveillant peut se faire passer pour des milliers de voix indépendantes.

Cette influence persistante va au-delà de la modification d'opinions temporaires ; elle peut modifier fondamentalement le langage, les symboles et l'identité culturelle d'une communauté. En outre, cette production coordonnée menace de contaminer les données d'entraînement des modèles d'intelligence artificielle habituels, étendant la manipulation aux plateformes d'intelligence artificielle établies.

Pour contrer cette menace en constante évolution, les experts affirment que la modération traditionnelle du contenu, poste par poste, n'est plus efficace. Les mécanismes de défense doivent s'orienter vers l'identification d'une coordination statistiquement improbable et le suivi de l'origine du contenu. Les chercheurs soulignent également la nécessité d'appliquer les sciences du comportement pour étudier les actions collectives des agents d'IA lorsqu'ils interagissent au sein de grands groupes. Les solutions proposées comprennent le déploiement de méthodes de vérification préservant la vie privée, le partage de preuves par l'intermédiaire d'un observatoire distribué de l'influence de l'IA et la limitation des incitations financières qui conduisent à un engagement inauthentique.

Source(s)

Please share our article, every link counts!
Mail Logo
> Revues et rapports de ordinateurs portatifs et smartphones, ordiphones > Nouvelles > Archives des nouvelles > Archives des nouvelles 2026 02 > Des chercheurs mettent en garde contre les essaims d'IA qui créent une fausse opinion publique
Chibuike Okpara, 2026-02-16 (Update: 2026-02-16)