Notebookcheck Logo

Une étude révèle que les utilisateurs sont la véritable cause des hallucinations de l'IA : Les utilisateurs sont la véritable cause des hallucinations de l'IA

Selon une nouvelle étude, les hallucinations de l'IA sont influencées par la façon dont les utilisateurs communiquent. (Source de l'image : Pexels/Ketut Subiyanto)
Selon une nouvelle étude, les hallucinations de l'IA sont influencées par la façon dont les utilisateurs communiquent. (Source de l'image : Pexels/Ketut Subiyanto)
Une étude récemment publiée montre que les instructions données aux assistants d'intelligence artificielle jouent un rôle majeur dans l'apparition de ce que l'on appelle les hallucinations de l'intelligence artificielle. C'est une bonne nouvelle pour les utilisateurs, car cela suggère qu'ils peuvent activement réduire les réponses fausses ou fabriquées grâce à une conception plus efficace des messages-guides.

Des faits fictifs, des citations inventées ou des sources qui semblent entièrement fabriquées : l'IA peut être incroyablement utile, mais elle comporte toujours un risque d'hallucinations. Selon les chercheurs de l'OpenAI, l'un des facteurs clés est un simple mécanisme de récompense qui encourage l'IA à faire des suppositions. Une étude réalisée à l'adresse https://www.arxiv.org/pdf/2510.02645 publiée le 3 octobre sur arXiv.org suggère également que les utilisateurs eux-mêmes peuvent jouer un rôle dans le déclenchement de ces réponses hallucinées.

L'étude intitulée "Mind the Gap : Linguistic Divergence and Adaptation Strategies in Human-LLM Assistant vs. Human-Human Interactions" suggère que de nombreuses hallucinations de l'IA pourraient provenir de la manière dont les utilisateurs communiquent. Les chercheurs ont analysé plus de 13 000 conversations entre humains et 1 357 interactions réelles entre des personnes et des chatbots d'IA. Les résultats montrent que les utilisateurs ont tendance à écrire très différemment lorsqu'ils s'adressent à des IA : les messages sont plus courts, moins grammaticaux, moins polis et utilisent un vocabulaire plus limité. Ces différences peuvent influencer la clarté et la confiance avec lesquelles les modèles linguistiques répondent.

L'analyse a porté sur six dimensions linguistiques, dont la grammaire, la politesse, l'étendue du vocabulaire et le contenu des informations. Alors que la grammaire et la politesse étaient supérieures de plus de 5 % et 14 % dans les conversations interhumaines, les informations réellement transmises sont restées pratiquement identiques. En d'autres termes, les utilisateurs partagent le même contenu avec les IA, mais sur un ton nettement plus sévère.

Les chercheurs parlent d'un "changement de style" Étant donné que les grands modèles linguistiques tels que ChatGPT ou Claude sont formés sur un langage bien structuré et poli, un changement soudain de ton ou de style peut entraîner des interprétations erronées ou des détails inventés. En d'autres termes, les IA sont plus susceptibles d'avoir des hallucinations lorsqu'elles reçoivent des informations peu claires, impolies ou mal écrites.

Solutions possibles du côté de l'IA et de l'utilisateur

Si les modèles d'IA sont entraînés à gérer un plus large éventail de styles linguistiques, leur capacité à comprendre les intentions des utilisateurs s'améliore - d'au moins 3 %, selon l'étude. Les chercheurs ont également testé une deuxième approche : la paraphrase automatique des données de l'utilisateur en temps réel. Cependant, cette approche a légèrement réduit les performances, car les nuances émotionnelles et contextuelles étaient souvent perdues. En conséquence, les auteurs recommandent de faire de la formation à la prise en compte du style une nouvelle norme en matière de perfectionnement de l'IA.

Si vous souhaitez que votre assistant IA produise moins de réponses inventées, l'étude suggère de le traiter davantage comme un humain - en écrivant des phrases complètes, en utilisant une grammaire correcte, en conservant un style clair et en adoptant un ton poli.

Source(s)

Arxiv.org (Study / PDF)

Source de l'image : Pexels / Ketut Subiyanto

Please share our article, every link counts!
Mail Logo
> Revues et rapports de ordinateurs portatifs et smartphones, ordiphones > Archives des nouvelles 2025 10 > Une étude révèle que les utilisateurs sont la véritable cause des hallucinations de l'IA : Les utilisateurs sont la véritable cause des hallucinations de l'IA
Marius Müller, 2025-10-18 (Update: 2025-10-18)