Notebookcheck Logo

Les chercheurs d'Adobe démontrent les progrès de l'IA VideoGigaGAN pour améliorer les vidéos de faible qualité tout en conservant un niveau de détail élevé

Des chercheurs d'Adobe travaillent sur l'upscaling de vidéos de faible qualité à l'aide de l'IA VideoGigaGAN. (Source : Adobe Research)
Des chercheurs d'Adobe travaillent sur l'upscaling de vidéos de faible qualité à l'aide de l'IA VideoGigaGAN. (Source : Adobe Research)
Des chercheurs d'Adobe ont démontré les progrès de leur IA VideoGigaGAN qui permet de mettre à l'échelle des vidéos de faible qualité. La qualité visuelle des vidéos générées est meilleure que celle des autres IA testées, mais des recherches supplémentaires sont nécessaires pour surmonter les limitations notables.

Les chercheurs d'Adobe ont démontré les progrès actuels de leur IA VideoGigaGAN pour améliorer les vidéos de faible qualité. Une fois entièrement développée, l'IA peut générer des vidéos de haute qualité sans avoir recours à des prises de vue coûteuses. Adobe améliore les travaux antérieurs en réduisant les artefacts et le scintillement tout en conservant les détails fins des vidéos traitées.

La technologie de mise à l'échelle et de super-résolution des images est utilisée depuis de nombreuses années pour améliorer la qualité et la résolution des images de mauvaise qualité. Certains appareils photo Sony Cybershot utilisent la technologie By Pixel Super Resolution pour mettre à l'échelle des images à faible résolution en utilisant une base de données d'images de référence, mais elle est limitée par les informations discrètes sur les pixels à une mise à l'échelle des images de deux à trois fois la taille d'origine. Plus récemment, Generative Adversarial Networks (GAN) entraînés sur des milliards d'images permettent de multiplier les images par 8 et plus.

L'application de ces techniques aux vidéos est difficile en raison de l'introduction d'aliasing et de stutter. Le lissage des détails de l'image peut éliminer ces problèmes en contrepartie d'une qualité moindre. VideoGigaGAN utilise plusieurs techniques pour contourner ces limitations, notamment le suivi du mouvement des objets, le flou de l'image, l'apprentissage des détails et le repeignage. Cependant, l'IA ne parvient pas à mettre à l'échelle des textes de petite taille ou des clips vidéo de longue durée, et des recherches supplémentaires sont donc nécessaires. En attendant, les lecteurs peuvent capturer des vidéos de haute qualité à l'aide d'un reflex numérique de premier ordre(comme celui-ci sur Amazon) afin d'éviter toute conversion inutile.

Détails techniques

Pour maintenir un flux vidéo fluide entre les images au fil du temps, un module d'IA de propagation guidée par le flux est ajouté avant le GAN principal. Il "apprend" le mouvement des objets dans le temps dans l'entrée d'origine afin que le même mouvement fluide soit appliqué dans la vidéo mise à l'échelle. En outre, les couches de suréchantillonnage du GAN intègrent des couches d'attention temporelle qui contribuent à assurer la fluidité des transitions entre les images.

Pour résoudre le problème de l'aliasing, les images passent par un bloc anticrénelage au milieu du GAN, ce qui réduit malheureusement la qualité de l'image en raison de l'estompement des détails. Il en résulte une vidéo upscalée avec des mouvements fluides, sans aliasing, mais avec des détails d'image flous. VideoGigaGAN contourne ce problème en introduisant une navette à haute fréquence qui extrait les détails fins des couches initiales de sous-échantillonnage du GAN et les applique ultérieurement aux couches suréchantillonnées. Le résultat de plusieurs couches de traitement d'image est une vidéo de super-résolution qui contient un niveau de détail élevé sans aliasing ni scintillement.

VideoGigaGAN - schéma général du système. (Source : Adobe Research)
VideoGigaGAN - schéma général du système. (Source : Adobe Research)
(Gauche - VideoGigaGan, Droite - réalité) VideoGigaGAN n'est pas un upscaling parfait car les différences de câblage et d'antennes des caméras sont visibles. (Source : Adobe Research)
(Gauche - VideoGigaGan, Droite - réalité) VideoGigaGAN n'est pas un upscaling parfait car les différences de câblage et d'antennes des caméras sont visibles. (Source : Adobe Research)
Exemple de qualité d'upscaling de VideoGigaGAN. (Source : Adobe Research)
Exemple de qualité d'upscaling de VideoGigaGAN. (Source : Adobe Research)
Exemple de qualité d'upscaling de VideoGigaGAN. (Source : Adobe Research)
Exemple de qualité d'upscaling de VideoGigaGAN. (Source : Adobe Research)
Please share our article, every link counts!
> Revues et rapports de ordinateurs portatifs et smartphones, ordiphones > Archives des nouvelles 2024 04 > Les chercheurs d'Adobe démontrent les progrès de l'IA VideoGigaGAN pour améliorer les vidéos de faible qualité tout en conservant un niveau de détail élevé
David Chien, 2024-04-27 (Update: 2024-04-27)