Maison > Périphériques technologiques > IA > CLIP est sélectionné comme CVPR lorsqu'il est utilisé comme RNN : il peut segmenter d'innombrables concepts sans formation | Université d'Oxford et recherche Google |

CLIP est sélectionné comme CVPR lorsqu'il est utilisé comme RNN : il peut segmenter d'innombrables concepts sans formation | Université d'Oxford et recherche Google |

PHPz
Libérer: 2024-06-09 12:53:28
original
416 Les gens l'ont consulté

Appelez CLIP en boucle pour segmenter efficacement d'innombrables concepts sans formation supplémentaire.

Toute phrase comprenant des personnages de films, des monuments, des marques et des catégories générales.

CLIP est sélectionné comme CVPR lorsquil est utilisé comme RNN : il peut segmenter dinnombrables concepts sans formation | Université dOxford et recherche Google |

Ce nouveau résultat de l'équipe conjointe de l'Université d'Oxford et de Google Research a été accepté par le CVPR 2024 et le code est open source.

CLIP est sélectionné comme CVPR lorsquil est utilisé comme RNN : il peut segmenter dinnombrables concepts sans formation | Université dOxford et recherche Google |

L'équipe a proposé une nouvelle technologie appelée CLIP as RNN (CaR en abrégé), qui résout plusieurs problèmes clés dans le domaine de la segmentation d'images de vocabulaire ouvert :

  • Aucune donnée de formation requise : les méthodes traditionnelles nécessitent une grande quantité de masquer des annotations ou des ensembles de données image-texte pour un réglage fin, la technologie CaR fonctionne sans aucune donnée de formation supplémentaire.
  • Limitations du vocabulaire ouvert : les modèles de langage visuel (VLM) pré-entraînés sont limités dans leur capacité à gérer les vocabulaires ouverts après un réglage fin. La technologie CaR préserve le large espace de vocabulaire des VLM.
  • Traitement des requêtes textuelles pour les concepts non présents dans les images : sans ajustement fin, il est difficile pour les VLM de segmenter avec précision les concepts qui n'existent pas dans les images. CaR est progressivement optimisé grâce à un processus itératif pour améliorer la qualité de la segmentation.

Inspiré de RNN, appelant cycliquement CLIP

Pour comprendre le principe de CaR, vous devez d'abord revoir le réseau neuronal récurrent RNN ​​​​.

RNN introduit le concept d'état caché, qui est comme une « mémoire » qui stocke les informations des pas de temps passés. Et chaque pas de temps partage le même ensemble de poids, ce qui permet de bien modéliser les données de séquence.

Inspiré de RNN, CaR est également conçu comme un framework cyclique, composé de deux parties :

  • Générateur de proposition de masque : génère un masque pour chaque requête textuelle à l'aide de CLIP.
  • Classificateur de masques : utilisez ensuite un modèle CLIP pour évaluer le degré de correspondance de chaque masque généré et la requête de texte correspondante. Si le degré de correspondance est faible, la requête textuelle est éliminée.

En continuant à itérer ainsi, la requête textuelle deviendra de plus en plus précise et la qualité du masque deviendra de plus en plus élevée.

Enfin, lorsque l'ensemble de requêtes ne change plus, le résultat final de la segmentation peut être généré.

CLIP est sélectionné comme CVPR lorsquil est utilisé comme RNN : il peut segmenter dinnombrables concepts sans formation | Université dOxford et recherche Google |

La raison pour laquelle ce framework récursif est conçu est de conserver au maximum les "connaissances" de la pré-formation CLIP.

De nombreux concepts sont abordés dans la pré-formation CLIP, couvrant tout, des célébrités aux monuments en passant par les personnages d'anime. Si vous affinez un ensemble de données fractionné, le vocabulaire est voué à diminuer considérablement.

Par exemple, le modèle SAM « diviser tout » ne peut reconnaître qu'une bouteille de Coca-Cola, mais pas même une bouteille de Pepsi-Cola.

CLIP est sélectionné comme CVPR lorsquil est utilisé comme RNN : il peut segmenter dinnombrables concepts sans formation | Université dOxford et recherche Google |

Mais en utilisant CLIP directement pour la segmentation, l'effet n'est pas satisfaisant.

C'est parce que l'objectif de pré-entraînement de CLIP n'a pas été conçu à l'origine pour une prédiction dense. Surtout lorsque certaines requêtes de texte n'existent pas dans l'image, CLIP peut facilement générer des masques erronés.

CaR résout intelligemment ce problème grâce à une itération de style RNN. En évaluant et en filtrant à plusieurs reprises les requêtes tout en améliorant le masque, une segmentation de vocabulaire ouvert de haute qualité est enfin obtenue.

Enfin, suivons l’interprétation de l’équipe et découvrons les détails du cadre CaR.

Détails techniques du CaR

CLIP est sélectionné comme CVPR lorsquil est utilisé comme RNN : il peut segmenter dinnombrables concepts sans formation | Université dOxford et recherche Google |

  • Cadre de réseau neuronal récurrent : CaR adopte un nouveau cadre cyclique pour optimiser en permanence la correspondance entre les requêtes de texte et les images via un processus itératif.
  • Segmenteur en deux étapes : il se compose d'un générateur de propositions de masques et d'un classificateur de masques, tous deux construits sur le modèle CLIP pré-entraîné, et les poids restent inchangés pendant le processus d'itération.
  • Génération de propositions de masques : grâce à la technologie gradCAM, des propositions de masques sont générées en fonction des scores de similarité des caractéristiques de l'image et du texte.
  • Repères visuels : appliquez des repères visuels tels que des cercles rouges, un flou d'arrière-plan, etc. pour améliorer la concentration du modèle sur des zones spécifiques de l'image.
  • Fonction de seuil : en définissant un seuil de similarité, les propositions de masques hautement alignées avec la requête de texte sont filtrées.
  • Post-traitement : raffinement du masque à l'aide de champs aléatoires conditionnels (CRF) denses et de modèles SAM facultatifs.

Grâce à ces moyens techniques, la technologie CaR a obtenu des améliorations significatives des performances sur plusieurs ensembles de données standard, surpassant les méthodes traditionnelles d'apprentissage sans tir, et a également démontré des performances supérieures par rapport aux modèles qui ont fait l'objet d'un ajustement approfondi des données et d'une compétitivité accrue. Comme le montre le tableau ci-dessous, bien qu'aucune formation ni ajustement supplémentaire ne soit requis, CaR affiche de meilleures performances sur huit indicateurs différents de segmentation sémantique sans tir que les méthodes précédentes affinées sur des données supplémentaires.

CLIP est sélectionné comme CVPR lorsquil est utilisé comme RNN : il peut segmenter dinnombrables concepts sans formation | Université dOxford et recherche Google |

L'auteur a également testé l'effet de CaR sur la segmentation de référence à échantillon nul. CaR a également montré de meilleures performances que la méthode précédente à échantillon nul.

CLIP est sélectionné comme CVPR lorsquil est utilisé comme RNN : il peut segmenter dinnombrables concepts sans formation | Université dOxford et recherche Google |

En résumé, CaR (CLIP as RNN) est un cadre de réseau neuronal récurrent innovant qui peut effectuer efficacement des tâches de segmentation d'images sémantiques et référentielles sans données de formation supplémentaires. Il améliore considérablement la qualité de la segmentation en préservant le large espace de vocabulaire des modèles de langage visuel pré-entraînés et en tirant parti d'un processus itératif pour optimiser en permanence l'alignement des requêtes de texte avec les propositions de masques.

Les avantages de CaR sont sa capacité à gérer des requêtes de texte complexes sans réglage fin et son évolutivité dans le domaine vidéo, apportant des progrès révolutionnaires dans le domaine de la segmentation d'images à vocabulaire ouvert.

Lien papier : https://arxiv.org/abs/2312.07661.
Page d'accueil du projet : https://torrvision.com/clip_as_rnn/.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Étiquettes associées:
source:51cto.com
Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn
Tutoriels populaires
Plus>
Derniers téléchargements
Plus>
effets Web
Code source du site Web
Matériel du site Web
Modèle frontal