Maison > Périphériques technologiques > IA > Produit par l'Université de Pékin : le dernier SOTA avec une qualité de texture et une cohérence multi-vues, permettant la conversion 3D d'une image en 2 minutes

Produit par l'Université de Pékin : le dernier SOTA avec une qualité de texture et une cohérence multi-vues, permettant la conversion 3D d'une image en 2 minutes

WBOY
Libérer: 2024-01-10 23:09:51
avant
1222 Les gens l'ont consulté

Cela ne prend que deux minutes pour convertir des images en 3D !

C'est aussi le genre avec une qualité de texture élevée, un affichage multiple et une consistance élevée.

Produit par lUniversité de Pékin : le dernier SOTA avec une qualité de texture et une cohérence multi-vues, permettant la conversion 3D dune image en 2 minutes

Peu importe de quelle espèce il s'agit, l'image à vue unique lors de la saisie est toujours comme ceci :

Produit par lUniversité de Pékin : le dernier SOTA avec une qualité de texture et une cohérence multi-vues, permettant la conversion 3D dune image en 2 minutes

Après deux minutes, la version 3D est terminée :

Produit par lUniversité de Pékin : le dernier SOTA avec une qualité de texture et une cohérence multi-vues, permettant la conversion 3D dune image en 2 minutes

△, Repaint123 (NeRF ); Ensuite, Repaint123 (GS)

La nouvelle méthode s'appelle Repaint123 L'idée principale est de combiner les puissantes capacités de génération d'images du modèle de diffusion 2D avec les capacités d'alignement de texture de la stratégie de repeinture pour générer des valeurs élevées. -images multi-vues cohérentes et de qualité.

De plus, cette recherche introduit également une méthode d'intensité de repeinture adaptative sensible à la visibilité pour les zones qui se chevauchent.

Repaint123 résout les problèmes des méthodes précédentes tels que la grande déviation multi-vues, la dégradation de la texture et la génération lente d'un seul coup.

Produit par lUniversité de Pékin : le dernier SOTA avec une qualité de texture et une cohérence multi-vues, permettant la conversion 3D dune image en 2 minutes

Actuellement, le code du projet n'a pas été publié sur GitHub, mais plus de 100 personnes sont venues le marquer :

Produit par lUniversité de Pékin : le dernier SOTA avec une qualité de texture et une cohérence multi-vues, permettant la conversion 3D dune image en 2 minutes

À quoi ressemble Repaint123 ?

Auparavant, la méthode de conversion d'images en 3D utilisait généralement le Score Distillation Sampling (SDS). Bien que les résultats de cette méthode soient impressionnants, il existe certains problèmes tels qu'une incohérence multi-vue, une sursaturation, des textures trop lissées et une vitesse de génération lente.

Produit par lUniversité de Pékin : le dernier SOTA avec une qualité de texture et une cohérence multi-vues, permettant la conversion 3D dune image en 2 minutes

△De haut en bas : entrée, Zero123-XL, Magic123, Dream gaussian

Afin de résoudre ces problèmes, des chercheurs de l'Université de Pékin, du Laboratoire Pengcheng, de l'Université nationale de Singapour et de l'Université de Wuhan ont proposé Repaint123.

Produit par lUniversité de Pékin : le dernier SOTA avec une qualité de texture et une cohérence multi-vues, permettant la conversion 3D dune image en 2 minutes

En général, Repaint123 a les contributions suivantes :

(1) Repaint123 peut générer des séquences d'images de haute qualité en considérant de manière exhaustive le processus de redessin contrôlable depuis les images jusqu'à la génération 3D, et garantir que ces images sont cohérentes sur plusieurs points de vue.

(2)Repaint123 propose une méthode de base simple pour la génération 3D à vue unique.

Au stade du modèle approximatif, il utilise Zero123 comme préalable 3D, combiné à la fonction de perte SDS, pour générer rapidement un modèle 3D approximatif (seulement 1 minute) en optimisant la géométrie du Splatting gaussien.

Dans la phase de modélisation fine, il utilise la diffusion stable comme préalable 2D, combinée à la fonction de perte d'erreur quadratique moyenne (MSE), pour générer un modèle 3D de haute qualité en affinant rapidement la texture du maillage (cela ne prend également qu'une minute) .

(3) Un grand nombre d'expérimentations ont prouvé l'efficacité de la méthode Repaint123. Il est capable de générer du contenu 3D de haute qualité correspondant à la qualité de génération 2D à partir d’une seule image en seulement 2 minutes.

Produit par lUniversité de Pékin : le dernier SOTA avec une qualité de texture et une cohérence multi-vues, permettant la conversion 3D dune image en 2 minutes

△Obtenez une génération rapide 3D à vue unique cohérente et de haute qualité

Jetons un coup d'œil aux méthodes spécifiques.

Repaint123 se concentre sur l'optimisation de l'étape de raffinement du maillage et ses principales orientations d'amélioration couvrent deux aspects : générer des séquences d'images de haute qualité avec une cohérence multi-vues et réaliser une reconstruction 3D rapide et de haute qualité.

1. Génération de séquences d'images de haute qualité avec une cohérence multi-vues

La génération de séquences d'images de haute qualité avec une cohérence multi-vues est divisée en trois parties suivantes :

Produit par lUniversité de Pékin : le dernier SOTA avec une qualité de texture et une cohérence multi-vues, permettant la conversion 3D dune image en 2 minutes

△Génération d'images cohérentes multi-vues processus

Inversion DDIM

Afin de conserver les informations de texture basse fréquence cohérentes en 3D générées au stade du modèle grossier, l'auteur utilise l'inversion DDIM pour inverser l'image dans un espace latent déterminé, jetant ainsi les bases du débruitage ultérieur. processus, générant des images fidèles et cohérentes.

Débruitage contrôlable

Afin de contrôler la cohérence géométrique et la cohérence de la texture à longue portée lors de l'étape de débruitage, l'auteur a introduit ControlNet, en utilisant la carte de profondeur rendue par le modèle grossier comme a priori géométrique, et en injectant en même temps la fonction Attention de la référence image pour la migration de texture.

De plus, afin d'effectuer un guidage sans classificateur pour améliorer la qualité de l'image, l'article utilise CLIP pour coder les images de référence en repères d'image afin de guider le réseau de débruitage.

Redessiner

Redessin progressif de l'occlusion et des parties superposées Afin de garantir que les zones superposées des images adjacentes dans la séquence d'images sont alignées au niveau des pixels, l'auteur adopte une stratégie de redessinage local progressif.

Générez des zones adjacentes harmonieuses tout en gardant inchangées les zones qui se chevauchent, et étendez-les progressivement jusqu'à 360° depuis la perspective de référence.

Cependant, comme le montre la figure ci-dessous, l'auteur a constaté que la zone de chevauchement doit également être affinée, car la résolution visuelle de la zone précédemment strabique devient plus grande pendant l'emmétropie et davantage d'informations à haute fréquence doivent être ajoutées.

De plus, l'intensité de l'amincissement est égale à 1-cosθ*, où θ* est la valeur maximale de l'angle θ entre tous les angles de caméra précédents et le vecteur normal de la surface vue, redessinant ainsi de manière adaptative le chevauchement. zone.

Produit par lUniversité de Pékin : le dernier SOTA avec une qualité de texture et une cohérence multi-vues, permettant la conversion 3D dune image en 2 minutes

△La relation entre l'angle de la caméra et l'intensité de l'amincissement

Afin de choisir l'intensité d'amincissement appropriée pour assurer la fidélité tout en améliorant la qualité, l'auteur s'est inspiré du théorème de projection et de l'idée de super-résolution d'image et a proposé une stratégie de redessinage simple et directe, tenant compte de la visibilité, pour affiner les régions qui se chevauchent.

2. Reconstruction 3D rapide et de haute qualité

Comme le montre la figure ci-dessous, l'auteur adopte une méthode en deux étapes dans le processus de reconstruction 3D rapide et de haute qualité.

Produit par lUniversité de Pékin : le dernier SOTA avec une qualité de texture et une cohérence multi-vues, permettant la conversion 3D dune image en 2 minutes

△Repaint123, cadre de génération 3D à vue unique en deux étapes

Tout d'abord, ils utilisent la représentation Gaussian Splatting pour générer rapidement des structures géométriques raisonnables et des textures rugueuses.

Dans le même temps, à l'aide de la séquence d'images de haute qualité cohérente multi-vues générée précédemment, l'auteur est capable d'effectuer une reconstruction rapide de texture 3D en utilisant une simple erreur quadratique moyenne (MSE) perte.

Cohérence, qualité et rapidité optimales

Les chercheurs ont comparé les méthodes sur plusieurs tâches de génération à vue unique.

Produit par lUniversité de Pékin : le dernier SOTA avec une qualité de texture et une cohérence multi-vues, permettant la conversion 3D dune image en 2 minutes

△Comparaison de visualisation de génération 3D à vue unique

Sur les ensembles de données RealFusion15 et Test-alpha, Repaint123 a obtenu les meilleurs résultats sous trois aspects : cohérence, qualité et rapidité.

Produit par lUniversité de Pékin : le dernier SOTA avec une qualité de texture et une cohérence multi-vues, permettant la conversion 3D dune image en 2 minutes

Dans le même temps, l'auteur a également mené des expériences d'ablation sur l'efficacité de chaque module utilisé dans l'article et l'incrément de rotation de l'angle de vision :

Produit par lUniversité de Pékin : le dernier SOTA avec une qualité de texture et une cohérence multi-vues, permettant la conversion 3D dune image en 2 minutes
Produit par lUniversité de Pékin : le dernier SOTA avec une qualité de texture et une cohérence multi-vues, permettant la conversion 3D dune image en 2 minutes

et a constaté que lorsque l'intervalle d'angle de vision est de 60 Degrés, les performances atteignent leur apogée. Cependant, un intervalle d'angle de vision excessif réduira la zone de chevauchement et augmentera la possibilité de problèmes à multiples facettes, de sorte que 40 degrés peuvent être utilisés comme intervalle d'angle de vision optimal.

Produit par lUniversité de Pékin : le dernier SOTA avec une qualité de texture et une cohérence multi-vues, permettant la conversion 3D dune image en 2 minutes

Adresse papier : https://arxiv.org/pdf/2312.13271.pdf
Adresse code : https://pku-yuangroup.github.io/repaint123/
Adresse du projet : https : //pku-yuangroup.github.io/repaint123/

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Étiquettes associées:
source:51cto.com
Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn
Tutoriels populaires
Plus>
Derniers téléchargements
Plus>
effets Web
Code source du site Web
Matériel du site Web
Modèle frontal