Maison > Périphériques technologiques > IA > CVPR 2024 | Cadre d'estimation de pose d'objet 6D à échantillon zéro SAM-6D, un pas de plus vers l'intelligence incarnée

CVPR 2024 | Cadre d'estimation de pose d'objet 6D à échantillon zéro SAM-6D, un pas de plus vers l'intelligence incarnée

王林
Libérer: 2024-03-25 18:56:18
avant
592 Les gens l'ont consulté

L'estimation de la pose d'un objet joue un rôle clé dans de nombreuses applications pratiques, notamment dans des domaines tels que l'intelligence incorporée, le fonctionnement des robots et la réalité augmentée.

Dans ce domaine, la première tâche à retenir est l'Estimation de pose 6D au niveau de l'instance, qui nécessite des données annotées sur l'objet cible pour la formation du modèle, rendant le modèle profond spécifique à l'objet et incapable d'être transféré à de nouveaux objets. supérieur. Plus tard, l'accent de la recherche s'est progressivement tourné vers l'estimation de pose 6D au niveau de la catégorie, qui est utilisée pour traiter des objets invisibles, mais nécessite que l'objet appartienne à une catégorie d'intérêt connue. Et

estimation de pose 6D zéro tir

est un paramètre de tâche plus général, étant donné un modèle CAO de n'importe quel objet, visant à détecter l'objet cible dans la scène et à estimer sa pose 6D. Malgré son importance, ce paramètre de tâche sans tir est confronté à des défis importants en matière de détection d'objets et d'estimation de pose.

CVPR 2024 | 零样本6D物体姿态估计框架SAM-6D,向具身智能更进一步

                                                                                                                                                                                                 Figure 1. Tâche d'estimation de la pose d'un objet 6D à échantillon nul Récemment, la segmentation de tous les modèles SAM [1] a attiré beaucoup d'attention, et son excellente capacité de segmentation sans échantillon est accrocheuse. SAM réalise une segmentation de haute précision grâce à divers indices, tels que des pixels, des cadres de délimitation, du texte et des masques, etc., qui fournissent également un support fiable pour la tâche d'estimation de la pose d'objet 6D à échantillon nul, démontrant ainsi son potentiel prometteur.

Par conséquent, un nouveau cadre d'estimation de pose d'objet 6D à échantillon nul, SAM-6D, a été proposé par des chercheurs de Cross-Dimensional Intelligence, de l'Université chinoise de Hong Kong (Shenzhen) et de l'Université de technologie de Chine du Sud. Cette recherche a été reconnue par CVPR 2024.

CVPR 2024 | 零样本6D物体姿态估计框架SAM-6D,向具身智能更进一步

    Lien papier : https://arxiv.org/pdf/2311.15707.pdf
  • Lien code : https://github.com/JiehongLin/SAM-6D
  • SAM-6D L'estimation de la pose d'un objet 6D à échantillon nul est réalisée en deux étapes, notamment la segmentation des instances et l'estimation de la pose. De manière correspondante, pour tout objet cible, SAM-6D utilise deux sous-réseaux dédiés, à savoir le modèle de segmentation d'instance (ISM) et le modèle d'estimation de pose (PEM)
, pour atteindre l'objectif à partir d'images de scène RVB-D où, ISM utilisant SAM ; En tant qu'excellent point de départ, combiné à des scores de correspondance d'objets soigneusement conçus pour réaliser une segmentation d'instance d'objets arbitraires, PEM résout le problème de pose d'objet grâce à un processus de correspondance d'ensembles de points local à local en deux étapes. Un aperçu du SAM-6D est présenté dans la figure 2.

CVPR 2024 | 零样本6D物体姿态估计框架SAM-6D,向具身智能更进一步

                                                                                                                                                                                                                                                                           autres L'AM-6D est un cadre innovant d'estimation de pose 6D à échantillon nul. En fonction du modèle CAO de n'importe quel objet, il réalise la segmentation des instances et l'estimation de la pose des objets cibles à partir d'images RVB-D, et fonctionne parfaitement. sur les sept ensembles de données de base de BOP [2].

SAM-6D exploite la capacité de segmentation sans tir du modèle Segment Everything pour générer tous les candidats possibles et conçoit un nouveau score de correspondance d'objets pour identifier les candidats correspondant aux objets cibles.

SAM-6D traite l'estimation de pose comme un problème de correspondance d'ensembles de points local à local, adopte une conception de jeton d'arrière-plan simple mais efficace et propose d'abord un modèle de correspondance d'ensembles de points en deux étapes pour les objets arbitraires. une correspondance d'ensemble de points grossière pour obtenir la pose initiale de l'objet, et la deuxième étape utilise un nouveau transformateur d'ensemble de points clairsemé à dense pour effectuer une correspondance d'ensemble de points fine afin d'optimiser davantage la pose.
  • Modèle de segmentation d'instance (ISM)
  • SAM-6D utilise le modèle de segmentation d'instance (ISM) pour détecter et segmenter des masques d'objets arbitraires.
  • Étant donné une scène encombrée représentée par des images RVB, ISM exploite la capacité de transfert zéro-shot du Segmentation Everything Model (SAM) pour générer tous les candidats possibles. Pour chaque objet candidat, ISM calcule un score de correspondance d'objet pour estimer dans quelle mesure il correspond à l'objet cible en termes de sémantique, d'apparence et de géométrie. Enfin, en définissant simplement un seuil de correspondance, les instances correspondant à l'objet cible peuvent être identifiées.

    Le score de correspondance d'objet est calculé par la somme pondérée de trois termes de correspondance :

Terme de correspondance sémantique - Pour l'objet cible, ISM restitue les modèles d'objet sous plusieurs perspectives et utilise DINOv2 [3] pour la pré-formation. Le modèle ViT extrait les caractéristiques sémantiques des objets candidats et des modèles d'objets, et calcule les scores de corrélation entre eux. Le score de correspondance sémantique est obtenu en faisant la moyenne des K scores les plus élevés, et le modèle d'objet correspondant au score de corrélation le plus élevé est considéré comme le meilleur modèle de correspondance.

Correspondance d'apparence - Pour le meilleur modèle de correspondance, le modèle ViT est utilisé pour extraire les caractéristiques du bloc d'image et calculer la corrélation entre elles et les caractéristiques du bloc de l'objet candidat pour obtenir le score de correspondance d'apparence, qui est utilisé pour distinguer sémantiquement similaire mais des objets correspondant à l'apparence.

Correspondances géométriques - En tenant compte de facteurs tels que les différences de forme et de taille des différents objets, ISM a également conçu un score de correspondance géométrique. La moyenne de la rotation correspondant au modèle le mieux adapté et au nuage de points de l'objet candidat peut donner une pose d'objet approximative, et le cadre de délimitation peut être obtenu en transformant et en projetant de manière rigide le modèle CAO d'objet à l'aide de cette pose. Le calcul du rapport d'intersection sur union (IoU) entre le cadre englobant et le cadre englobant candidat peut obtenir le score de correspondance géométrique.

Modèle d'estimation de pose (PEM)

Pour chaque objet candidat qui correspond à un objet cible, SAM-6D utilise un modèle d'estimation de pose (PEM) pour prédire sa pose 6D par rapport au modèle CAO de l'objet.

Désignons les ensembles de points d'échantillonnage des objets candidats segmentés et des modèles CAO d'objets respectivement par CVPR 2024 | 零样本6D物体姿态估计框架SAM-6D,向具身智能更进一步 et CVPR 2024 | 零样本6D物体姿态估计框架SAM-6D,向具身智能更进一步, où N_m et N_o représentent le nombre de leurs points en même temps, représentent les caractéristiques de ces deux ensembles de points par CVPR 2024 | 零样本6D物体姿态估计框架SAM-6D,向具身智能更进一步 et CVPR 2024 | 零样本6D物体姿态估计框架SAM-6D,向具身智能更进一步, C représente le nombre de canaux de la fonctionnalité. L'objectif de PEM est d'obtenir une matrice d'affectation qui représente la correspondance locale à locale de P_m à P_o ; en raison de l'occlusion, P_o ne correspond que partiellement à P_m, et en raison de l'imprécision de la segmentation et du bruit du capteur, P_m ne correspond que partiellement aux correspondances ET partielles. P_o.

Afin de résoudre le problème de l'attribution de points qui ne se chevauchent pas dans deux ensembles de points, ISM les équipe de jetons d'arrière-plan, notés CVPR 2024 | 零样本6D物体姿态估计框架SAM-6D,向具身智能更进一步 et CVPR 2024 | 零样本6D物体姿态估计框架SAM-6D,向具身智能更进一步, qui peuvent établir efficacement une correspondance locale à locale basée sur la similarité des caractéristiques. Plus précisément, la matrice d'attention peut d'abord être calculée comme suit :

CVPR 2024 | 零样本6D物体姿态估计框架SAM-6D,向具身智能更进一步

Ensuite, la matrice de distribution

CVPR 2024 | 零样本6D物体姿态估计框架SAM-6D,向具身智能更进一步

CVPR 2024 | 零样本6D物体姿态估计框架SAM-6D,向具身智能更进一步 et CVPR 2024 | 零样本6D物体姿态估计框架SAM-6D,向具身智能更进一步 représentent l'opération softmax le long des lignes et des colonnes respectivement, et CVPR 2024 | 零样本6D物体姿态估计框架SAM-6D,向具身智能更进一步 représente une constante. La valeur de chaque ligne de CVPR 2024 | 零样本6D物体姿态估计框架SAM-6D,向具身智能更进一步 (sauf la première ligne) représente la probabilité de correspondance de chaque point P_m dans l'ensemble de points P_m avec l'arrière-plan et le point médian de P_o. En localisant l'indice du score maximum, le point correspondant à P_m (y compris. l'arrière-plan) peut être trouvé ).

Une fois CVPR 2024 | Cadre destimation de pose dobjet 6D à échantillon zéro SAM-6D, un pas de plus vers lintelligence incarnée calculé, toutes les paires de points correspondantes {(P_m,P_o)} et leurs scores correspondants peuvent être rassemblés, et enfin le SVD pondéré est utilisé pour calculer la pose de l'objet.

CVPR 2024 | 零样本6D物体姿态估计框架SAM-6D,向具身智能更进一步

                                                                                                                                                                                                   

En utilisant la stratégie ci-dessus basée sur le jeton d'arrière-plan, deux étapes de correspondance d'ensembles de points sont conçues dans PEM. La structure du modèle est illustrée dans la figure 3, qui comprend l'extraction de caractéristiques, la correspondance d'ensembles de points grossiers et la correspondance d'ensembles de points finstrois modules.

Le module de correspondance d'ensemble de points approximatifs implémente une correspondance clairsemée pour calculer la pose initiale de l'objet, puis utilise cette pose pour transformer l'ensemble de points de l'objet candidat afin d'obtenir un apprentissage du codage de position.

Le module de correspondance d'ensembles de points fins combine le codage de position des ensembles de points d'échantillonnage de l'objet candidat et de l'objet cible, injectant ainsi la correspondance approximative dans la première étape et établissant davantage une correspondance dense pour obtenir une pose d'objet plus précise. Afin d'apprendre efficacement les interactions denses à ce stade, PEM introduit un nouveau transformateur d'ensemble de points clairsemé à dense, qui implémente des interactions sur des versions clairsemées de caractéristiques denses, et utilise le transformateur linéaire [5] pour transformer les caractéristiques clairsemées améliorées en diffusion en dense. caractéristiques.

Résultats expérimentaux

Pour les deux sous-modèles de SAM-6D, le modèle de segmentation d'instance (ISM) est construit sur la base de SAM sans nécessiter de recyclage et de réglage du réseau, tandis que le modèle d'estimation de pose (PEM) utilise MegaPose. [4] fournit des ensembles de données synthétiques ShapeNet-Objects et Google-Scanned-Objects à grande échelle pour la formation.

Pour vérifier sa capacité à échantillon zéro, SAM-6D a été testé sur sept ensembles de données de base de BOP [2], notamment LM-O, T-LESS, TUD-L, IC-BIN, ITODD, HB et YCB-V. . Les tableaux 1 et 2 montrent respectivement la comparaison de la segmentation des instances et les résultats de l'estimation de pose de différentes méthodes sur ces sept ensembles de données. Comparé à d’autres méthodes, SAM-6D fonctionne très bien sur les deux méthodes, démontrant pleinement sa forte capacité de généralisation. B Tableau 1. Le résultat de stérilisation de différentes méthodes sur les sept ensembles de données de base sur BOP

CVPR 2024 | 零样本6D物体姿态估计框架SAM-6D,向具身智能更进一步

Tableaux 2. Différentes méthodes sur l'attitude des différentes méthodes sur les sept ensembles de données de base de BOP Comparaison des résultats

CVPR 2024 | 零样本6D物体姿态估计框架SAM-6D,向具身智能更进一步

La figure 4 montre les résultats visuels de la segmentation de détection et de l'estimation de la pose 6D de SAM-6D sur sept ensembles de données BOP, où (a) et (b) sont respectivement les images RVB et les cartes de profondeur testées, (c) est une cible donnée. objet, tandis que (d) et (e) sont respectivement les résultats de visualisation de la segmentation de détection et de la pose 6D. Figure 4. Résultats de visualisation de SAM-6D sur les sept ensembles de données de base de BOP.

Pour plus de détails sur la mise en œuvre de SAM-6D, n'hésitez pas à lire l'article original.

Références :

CVPR 2024 | 零样本6D物体姿态估计框架SAM-6D,向具身智能更进一步

[1] Alexander Kirillov et al., "Segment any."

[2] Martin Sundermeyer et. al., "Bop challenge 2022 sur la détection, la segmentation et l'estimation de pose d'objets rigides spécifiques."

[3] Maxime Oquab et al., "Dinov2 : Learning Fonctionnalités visuelles robustes sans supervision. . . al., "Les transformateurs sont des RNN : des transformateurs autorégressifs rapides

avec une attention linéaire."

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Étiquettes associées:
source:jiqizhixin.com
Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn
Tutoriels populaires
Plus>
Derniers téléchargements
Plus>
effets Web
Code source du site Web
Matériel du site Web
Modèle frontal