Une étude révèle que les utilisateurs sont la véritable cause des hallucinations de l'IA : Les utilisateurs sont la véritable cause des hallucinations de l'IA

Des faits fictifs, des citations inventées ou des sources qui semblent entièrement fabriquées : l'IA peut être incroyablement utile, mais elle comporte toujours un risque d'hallucinations. Selon les chercheurs de l'OpenAI, l'un des facteurs clés est un simple mécanisme de récompense qui encourage l'IA à faire des suppositions. Une étude réalisée à l'adresse https://www.arxiv.org/pdf/2510.02645 publiée le 3 octobre sur arXiv.org suggère également que les utilisateurs eux-mêmes peuvent jouer un rôle dans le déclenchement de ces réponses hallucinées.
L'étude intitulée "Mind the Gap : Linguistic Divergence and Adaptation Strategies in Human-LLM Assistant vs. Human-Human Interactions" suggère que de nombreuses hallucinations de l'IA pourraient provenir de la manière dont les utilisateurs communiquent. Les chercheurs ont analysé plus de 13 000 conversations entre humains et 1 357 interactions réelles entre des personnes et des chatbots d'IA. Les résultats montrent que les utilisateurs ont tendance à écrire très différemment lorsqu'ils s'adressent à des IA : les messages sont plus courts, moins grammaticaux, moins polis et utilisent un vocabulaire plus limité. Ces différences peuvent influencer la clarté et la confiance avec lesquelles les modèles linguistiques répondent.
L'analyse a porté sur six dimensions linguistiques, dont la grammaire, la politesse, l'étendue du vocabulaire et le contenu des informations. Alors que la grammaire et la politesse étaient supérieures de plus de 5 % et 14 % dans les conversations interhumaines, les informations réellement transmises sont restées pratiquement identiques. En d'autres termes, les utilisateurs partagent le même contenu avec les IA, mais sur un ton nettement plus sévère.
Les chercheurs parlent d'un "changement de style" Étant donné que les grands modèles linguistiques tels que ChatGPT ou Claude sont formés sur un langage bien structuré et poli, un changement soudain de ton ou de style peut entraîner des interprétations erronées ou des détails inventés. En d'autres termes, les IA sont plus susceptibles d'avoir des hallucinations lorsqu'elles reçoivent des informations peu claires, impolies ou mal écrites.
Solutions possibles du côté de l'IA et de l'utilisateur
Si les modèles d'IA sont entraînés à gérer un plus large éventail de styles linguistiques, leur capacité à comprendre les intentions des utilisateurs s'améliore - d'au moins 3 %, selon l'étude. Les chercheurs ont également testé une deuxième approche : la paraphrase automatique des données de l'utilisateur en temps réel. Cependant, cette approche a légèrement réduit les performances, car les nuances émotionnelles et contextuelles étaient souvent perdues. En conséquence, les auteurs recommandent de faire de la formation à la prise en compte du style une nouvelle norme en matière de perfectionnement de l'IA.
Si vous souhaitez que votre assistant IA produise moins de réponses inventées, l'étude suggère de le traiter davantage comme un humain - en écrivant des phrases complètes, en utilisant une grammaire correcte, en conservant un style clair et en adoptant un ton poli.
Source(s)
Source de l'image : Pexels / Ketut Subiyanto
Top 10
» Le Top 10 des PC portables multimédia
» Le Top 10 des PC portables de jeu
» Le Top 10 des PC portables de jeu légers
» Le Top 10 des ordinateurs portables bureautiques
» Le Top 10 des PC portables bureautiques premium/professionnels
» Le Top 10 des Stations de travail mobiles
» Le Top 10 des Ultraportables
» Le Top 10 des Ultrabooks
» Le Top 10 des Convertibles
» Le Top 10 des Tablettes
» Le Top 10 des Tablettes Windows
» Le Top 10 des Smartphones
» Le Top 10 des PC Portables á moins de 300 euros
» Le Top 10 des PC Portables á moins de 500 euros
» Le Top 25 des meilleurs écrans d'ordinateurs