Notebookcheck Logo

Reconnaître les "deepfakes" : Difficile, mais pas désespéré

Faux, vrai ou à moitié vrai ? Qui en est sûr ? (Source : pixabay/Elf-Moondance)
Faux, vrai ou à moitié vrai ? Qui en est sûr ? (Source : pixabay/Elf-Moondance)
Fausses affirmations, rapports trompeurs, absence de contexte : rien de nouveau. Mais accompagnées de photos, de vidéos et de sons générés par l'intelligence artificielle, elles acquièrent une crédibilité inattendue. Mais au moins, il y a quelques idées qui peuvent aider à démystifier.

De nombreuses études actuelles portant sur le problème des "deepfakes" donnent à réfléchir. Les faux créés à l'aide de l'intelligence artificielle peuvent mettre des messages publicitaires dans la bouche de célébrités ou montrer des hommes politiques sur des photos qui n'ont jamais eu lieu.

Si vous placez ce matériel devant des personnes, les résultats sont toujours similaires, comme l'a compilé le magazine "Science". Vous pouvez également jouer à pile ou face pour déterminer ce qui est réel et ce qui ne l'est pas.

Après tout, l'une des raisons de ces piètres résultats serait que le phénomène des "deepfakes" est relativement nouveau et que personne ou presque n'est confronté au quotidien à la question de savoir ce qui est vrai ou faux.

Et malheureusement, il y a aussi un manque de sensibilisation aux moyens simples par lesquels les lèvres d'une personne, par exemple, peuvent être synchronisées avec une nouvelle déclaration.

Une recette qui n'est pas simple

Néanmoins, certaines études passionnantes offrent un peu d'espoir. Par exemple, il a été constaté que le cortex visuel réagit complètement différemment aux visages générés par l'IA qu'aux photographies réelles. Malheureusement, d'autres processus cérébraux se superposent à ce signal, de sorte que, comme auparavant, les sujets testés ne sont ni meilleurs ni pires pour reconnaître les faux.

Cependant, il existe quelques signes et il est possible d'apprendre à reconnaître les fausses images. Parfois, les mains ont l'air complètement fausses et semblent avoir six ou seulement quatre doigts. Parfois, des jambes apparaissent, qui n'appartiennent à personne. Très souvent, les ombres tombent de manière incorrecte - sur le col de la chemise à gauche et sur les lunettes de soleil à droite.

Mais bien sûr, l'IA s'améliore et les points faibles aussi évidents deviennent de plus en plus rares. Mais un autre phénomène entre en jeu. En s'entraînant sur un nombre croissant de matériaux, les visages deviennent plus uniformes, plus réguliers et plus parfaits. Il n'y a plus de défauts ni d'imperfections. Les formes du corps sont également idéalisées plutôt que naturelles. Le résultat est moins beau et plus inquiétant.

D'ailleurs, cela s'applique également aux fausses voix. L'IA n'a pas tendance à générer des lapsus typiques, un bref bégaiement ou un manque de qualité d'enregistrement.

Plus le faux est complexe, plus il est facile à détecter. Si, par exemple, l'authenticité d'un enregistrement sonore doit être vérifiée, la plupart échouent. S'il y a également une vidéo, de préférence sous-titrée, un nombre nettement plus important de sujets reconnaît le faux contenu.

Et après tout, quiconque sait que les images et les vidéos peuvent être manipulées et créées de cette manière et que la technologie présente quelques faiblesses peut reconnaître les deepfakes de manière plus fiable. Par ailleurs, ce qui a toujours été vrai s'applique : il n'y a jamais de mal à être critique et à poser des questions.

Source(s)

Please share our article, every link counts!
> Revues et rapports de ordinateurs portatifs et smartphones, ordiphones > Archives des nouvelles 2024 02 > Reconnaître les "deepfakes" : Difficile, mais pas désespéré
Mario Petzold, 2024-02- 6 (Update: 2024-02- 6)