Des chercheurs mettent en garde contre les essaims d'IA qui créent une fausse opinion publique

Imaginez un monde où un grand groupe de personnes peut parler d'un sujet particulier et en faire une tendance en ligne. Ou encore un monde où ces personnes peuvent forcer la main à des personnalités publiques ou même diffuser des informations erronées. Imaginez maintenant un monde où les "personnes" sont en fait des profils alimentés par l'IA qui agissent à l'unisson tout en imitant des voix humaines uniques.
C'est contre ce danger que des scientifiques issus d'une multitude d'institutions du monde entier nous mettent aujourd'hui en garde dans une publication récente parue dans la revue Science.
Une équipe de recherche internationale a expliqué comment la fusion de grands modèles de langage (LLM) avec des systèmes multi-agents permet la création d'essaims d'IA malveillants. Contrairement aux robots copier-coller traditionnels, facilement identifiables, ces essaims avancés sont constitués de personas contrôlés par l'IA qui conservent des identités persistantes, une mémoire et des objectifs coordonnés. Ils peuvent adapter dynamiquement leur ton et leur contenu en fonction de l'engagement humain, en opérant avec une supervision minimale sur de multiples plateformes.
La principale menace posée par ces réseaux est la fabrication d'un "consensus synthétique" En inondant les espaces numériques de bavardages fabriqués de toutes pièces mais très convaincants, ces essaims créent la fausse illusion qu'un point de vue spécifique est universellement accepté. Les chercheurs notent que ce phénomène met en péril les fondements du discours démocratique, car un seul acteur malveillant peut se faire passer pour des milliers de voix indépendantes.
Cette influence persistante va au-delà de la modification d'opinions temporaires ; elle peut modifier fondamentalement le langage, les symboles et l'identité culturelle d'une communauté. En outre, cette production coordonnée menace de contaminer les données d'entraînement des modèles d'intelligence artificielle habituels, étendant la manipulation aux plateformes d'intelligence artificielle établies.
Pour contrer cette menace en constante évolution, les experts affirment que la modération traditionnelle du contenu, poste par poste, n'est plus efficace. Les mécanismes de défense doivent s'orienter vers l'identification d'une coordination statistiquement improbable et le suivi de l'origine du contenu. Les chercheurs soulignent également la nécessité d'appliquer les sciences du comportement pour étudier les actions collectives des agents d'IA lorsqu'ils interagissent au sein de grands groupes. Les solutions proposées comprennent le déploiement de méthodes de vérification préservant la vie privée, le partage de preuves par l'intermédiaire d'un observatoire distribué de l'influence de l'IA et la limitation des incitations financières qui conduisent à un engagement inauthentique.
Source(s)
Science via Tech Xplore
Top 10
» Le Top 10 des PC portables multimédia
» Le Top 10 des PC portables de jeu
» Le Top 10 des PC portables de jeu légers
» Le Top 10 des ordinateurs portables bureautiques
» Le Top 10 des PC portables bureautiques premium/professionnels
» Le Top 10 des Stations de travail mobiles
» Le Top 10 des Ultraportables
» Le Top 10 des Ultrabooks
» Le Top 10 des Convertibles
» Le Top 10 des Tablettes
» Le Top 10 des Tablettes Windows
» Le Top 10 des Smartphones
» Le Top 10 des PC Portables á moins de 300 euros
» Le Top 10 des PC Portables á moins de 500 euros
» Le Top 25 des meilleurs écrans d'ordinateurs

