localisation actuelle:Maison>Articles techniques>Périphériques technologiques>IA
- Direction:
- tous web3.0 développement back-end interface Web base de données Opération et maintenance outils de développement cadre php programmation quotidienne Applet WeChat Problème commun autre technologie Tutoriel CMS Java Tutoriel système tutoriels informatiques Tutoriel matériel Tutoriel mobile Tutoriel logiciel Tutoriel de jeu mobile
- Classer:
-
- Intégrez l'IA dans DevOps pour améliorer l'automatisation des flux de travail
- Traducteur | Révisé par Chen Jun | Chonglou Si quelqu'un vous dit que les équipes de développement de logiciels et d'exploitation peuvent travailler ensemble sans effort, rationaliser les processus et améliorer l'efficacité du travail, vous penserez certainement à DevOps. Aujourd’hui, les gens s’attendent à ce qu’il exploite la puissance de l’intelligence artificielle (IA) pour révolutionner chaque décision et aider plus facilement à former de nouveaux professionnels DevOps. D'un point de vue plus approfondi, qu'il s'agisse d'automatiser les tâches quotidiennes, d'optimiser l'allocation d'actifs ou de prédire des problèmes potentiels, l'intelligence artificielle peut avoir un impact révolutionnaire sur les flux de travail DevOps. apprendre. Pour exploiter les opportunités illimitées de l’intelligence artificielle dans DevOps, vous devez envisager d’améliorer l’efficacité de la communication des équipes, de réduire le temps de récupération après panne et d’améliorer la résilience. Comment intégrer l'intelligence artificielle dans
- IA 499 2024-04-15 11:34:16
-
- CVPR 2024 | Le nouveau framework CustomNeRF édite avec précision les scènes 3D avec uniquement des invites de texte ou d'image
- Le Meitu Imaging Research Institute (MTLab), en collaboration avec l'Institut d'ingénierie de l'information de l'Académie chinoise des sciences, l'Université d'aéronautique et d'astronautique de Pékin et l'Université Sun Yat-sen, ont proposé conjointement une méthode d'édition de scène 3D - CustomNeRF. Les résultats de la recherche ont été acceptés par CVPR2024. CustomNeRF prend non seulement en charge les descriptions textuelles et les images de référence comme conseils d'édition pour les scènes 3D, mais génère également des scènes 3D de haute qualité basées sur les informations fournies par les utilisateurs. Depuis que le Neural Radiance Field (NeRF) a été proposé en 2020, le Neural Radiance Field (NeRF) a poussé l’expression implicite à un nouveau niveau. En tant que l'une des technologies les plus avancées, NeRF est rapidement généralisée et appliquée en informatique.
- IA 586 2024-04-15 10:13:19
-
- RNN modifié par magie défie Transformer, RWKV est nouveau : lancement de deux nouveaux modèles d'architecture
- Au lieu d'emprunter le chemin habituel de Transformer, la nouvelle architecture domestique RWKV de RNN a été modifiée et a fait de nouveaux progrès : deux nouvelles architectures RWKV sont proposées, à savoir Eagle (RWKV-5) et Finch (RWKV-6). Ces deux modèles de séquence sont basés sur l'architecture RWKV-4 puis améliorés. Les avancées de conception dans la nouvelle architecture incluent des états à valeur matricielle multi-têtes et un mécanisme de récurrence dynamique. Ces améliorations améliorent les capacités d'expression du modèle RWKV tout en conservant les caractéristiques d'efficacité d'inférence de RNN. Dans le même temps, la nouvelle architecture introduit un nouveau corpus multilingue, comprenant
- IA 1075 2024-04-15 09:10:06
-
- Al Agent--Une orientation de mise en œuvre importante à l'ère des grands modèles
- 1. Architecture globale de l'Agent basé sur LLM La composition du grand modèle de langage Agent est principalement divisée en quatre modules suivants : 1. Module Portrait : décrit principalement les informations de base de l'Agent. Ce qui suit présente le contenu principal et la stratégie de génération du portrait. module. Le contenu des portraits repose principalement sur trois types d’informations : les informations démographiques, les informations de personnalité et les informations sociales. Stratégie de génération : trois stratégies sont principalement utilisées pour générer le contenu du portrait : Méthode de conception manuelle : écrire le contenu du portrait de l'utilisateur dans l'invite du grand modèle d'une manière spécifiée adaptée aux situations où le nombre d'agents est relativement petit ; méthode de génération : spécifiez d'abord un petit nombre de portraits et utilisez-les comme exemples, puis utilisez un grand modèle de langage pour générer plus de portraits adaptés aux situations avec un grand nombre de données d'agents ;
- IA 855 2024-04-15 09:10:01
-
- Les risques et les avantages de la technologie de reconnaissance faciale dans les immeubles de bureaux
- Au cours des dernières années, les bureaux ont intégré davantage de technologies, notamment pour faire revenir les gens après la pandémie. L’une des technologies les plus avancées actuellement déployées est la reconnaissance faciale. La reconnaissance faciale est utilisée comme clé biométrique pour accorder l’accès et distribuer l’énergie appropriée. Au bureau, de nombreuses entreprises utilisent la technologie pour suivre les présences, filtrer les candidats et surveiller la productivité des employés, entre autres. Les créateurs de la technologie vantent son efficacité et sa facilité d'utilisation dans les tâches quotidiennes, telles que l'entrée et la sortie des bâtiments et la surveillance de l'activité et de la présence des employés. Mais tout le monde n’est pas d’accord. La reconnaissance faciale a suscité des critiques quant à l'éthique de l'utilisation de la biométrie sur le lieu de travail, ainsi que des inquiétudes concernant la confidentialité et l'exactitude. L’utilisation de la reconnaissance faciale suscite des inquiétudes
- IA 452 2024-04-15 09:04:01
-
- Soudain! OpenAI licencie un allié d'Ilya pour fuite d'informations présumée
- Soudain! OpenAI a licencié des gens, la raison : une fuite d'informations suspectée. L’un d’eux est Léopold Aschenbrenner, un allié du scientifique en chef disparu Ilya et un membre principal de l’équipe Superalignment. L'autre personne n'est pas simple non plus : il s'agit de Pavel Izmailov, chercheur au sein de l'équipe d'inférence du LLM, qui a également travaillé dans l'équipe de super alignement. On ne sait pas exactement quelles informations les deux hommes ont divulguées. Après que la nouvelle ait été révélée, de nombreux internautes se sont dits « assez choqués » : j'ai vu le message d'Aschenbrenner il n'y a pas longtemps et j'ai senti qu'il était en pleine ascension dans sa carrière. Certains internautes sur la photo pensent : OpenAI a perdu Aschenbrenner, je
- IA 470 2024-04-15 09:01:18
-
- Le marché des chatbots de santé atteindra 1 milliard de dollars d'ici 2028
- Ce qui est intéressant dans le domaine des soins de santé, c’est qu’ils sont à l’aube d’une révolution technologique, et l’une des nouvelles technologies les plus puissantes est l’intégration des chatbots dans les systèmes de santé. Le marché des chatbots de santé devrait passer de 4 239,6 millions de dollars en 2023 à 11,7 milliards de dollars en 2028, enregistrant un TCAC de 21,36 % au cours de la période de prévision. Avec des prévisions montrant qu’il connaîtra une croissance presque exponentielle, il est nécessaire d’aborder les causes, les défis et les tendances du marché des chatbots médicaux. Améliorer la fréquentation des services de santé Ceci est logique à une époque où la disponibilité et l'accessibilité des services de santé sont devenues critiques en raison de la montée en puissance de l'assistance médicale virtuelle. Les robots médicaux Sapio sont connus pour connecter les patients aux prestataires de soins de santé
- IA 692 2024-04-15 09:01:07
-
- Les performances d'exécution locale du service Embedding dépassent celles d'OpenAI Text-Embedding-Ada-002, ce qui est très pratique !
- Ollama est un outil super pratique qui vous permet d'exécuter facilement des modèles open source tels que Llama2, Mistral et Gemma localement. Dans cet article, je vais vous présenter comment utiliser Ollama pour vectoriser du texte. Si vous n'avez pas installé Ollama localement, vous pouvez lire cet article. Dans cet article, nous utiliserons le modèle nomic-embed-text[2]. Il s'agit d'un encodeur de texte qui surpasse OpenAI text-embedding-ada-002 et text-embedding-3-small sur les tâches à contexte court et à contexte long. Démarrez le service nomic-embed-text lorsque vous avez installé avec succès o
- IA 952 2024-04-15 09:01:01
-
- Le premier grand modèle multimodal de Musk est là, et le GPT-4V a encore été dépassé
- Depuis les débuts de Grok en novembre 2023, la xAI de Musk n’a cessé de progresser dans le domaine des grands modèles, lançant des attaques contre des pionniers comme OpenAI. Moins d’un mois après que Grok-1 soit devenu open source, le premier modèle multimodal de xAI a été publié. Hier, xAI a lancé Grok-1.5V, un modèle qui non seulement comprend le texte, mais traite également le contenu des documents, des diagrammes, des captures d'écran et des photos. Grok-1.5V est un modèle multimodal capable de démontrer des performances élégantes dans de nombreux domaines, du raisonnement multidisciplinaire à la compréhension de documents, de diagrammes scientifiques, de captures d'écran et de photos. xAI a également indiqué qu'au cours des prochains mois, il devrait démontrer des capacités de modèle plus élevées sur diverses modalités telles que l'image, l'audio et la vidéo. Nous avons vu G
- IA 467 2024-04-14 21:04:14
-
- OpenAI a licencié deux membres de l'équipe Ilya, est-ce lié à la fuite « Gong Dou » ?
- OpenAI, une entreprise qui a connu des hauts et des bas en raison de conflits internes au cours des six derniers mois, a de nouveau entendu parler de changements de personnel. The Information a rapporté qu'OpenAI avait licencié deux employés soupçonnés d'avoir divulgué des informations, selon des personnes proches du dossier. L’un d’eux est Leopold Aschenbrenner, chercheur au sein de l’équipe OpenAI Super Alignment. Il est un allié du scientifique en chef d'OpenAI, Ilya Sutskever, qui a participé à l'échec des efforts visant à évincer le PDG d'OpenAI, Sam Altman, l'automne dernier. Un autre employé licencié, Pavel Izmailov, était engagé dans des recherches liées à l'inférence chez OpenAI et a également travaillé dans l'équipe Super Alignment pendant un certain temps.
- IA 479 2024-04-13 08:13:20
-
- En modifiant la méthode d'initialisation de LoRA, la nouvelle méthode PiSSA de l'Université de Pékin améliore considérablement l'effet de réglage fin
- À mesure que le nombre de paramètres dans les grands modèles augmente, le coût de réglage fin de l’ensemble du modèle devient progressivement inacceptable. Par conséquent, l’équipe de recherche de l’Université de Pékin a proposé une méthode efficace de réglage fin des paramètres appelée PiSSA, qui dépasse l’effet de réglage fin de la LoRA actuellement largement utilisée sur les ensembles de données grand public. Article : PiSSA : PrincipalSingularValuesandSingularVectorsAdaptationofLargeLanguageModels Lien vers l'article : https://arxiv.org/pdf/2404.02948.pdf Lien vers le code : https://github.com/GraphPKU/P
- IA 1032 2024-04-13 08:07:05
-
- S'étendant directement à l'infini, Google Infini-Transformer met fin au débat sur la longueur du contexte
- Je ne sais pas si Gemini1.5Pro utilise cette technologie. Google a fait un autre grand pas en avant et a lancé le modèle Transformer de nouvelle génération, Infini-Transformer. Infini-Transformer introduit un moyen efficace de mettre à l'échelle des modèles de langage étendu (LLM) basés sur Transformer vers des entrées infiniment longues sans augmenter les besoins en mémoire et en calcul. Grâce à cette technologie, les chercheurs ont réussi à augmenter la longueur du contexte d'un modèle 1B à 1 million ; appliqué au modèle 8B, le modèle peut gérer la tâche de résumé de livre de 500 000 octets. Depuis la publication du document de recherche révolutionnaire « Attention is All You Need » en 2017, Tran
- IA 687 2024-04-13 08:00:24
-
- Comment les agents d'IA au niveau de l'entreprise peuvent être mis en œuvre dans l'industrie automobile, il s'agit du premier livre blanc national à expliquer systématiquement
- Ces dernières années, avec le développement rapide de la technologie des grands modèles, la limite supérieure des capacités des modèles a été continuellement remise en question. Cependant, du point de vue de l’évolution industrielle, la mise en œuvre de grands modèles n’en est peut-être qu’à ses balbutiements. Comment libérer l’énorme potentiel des grands modèles et promouvoir des changements de productivité plus rapides et plus efficaces reste un sujet qui reste à explorer. Chaque secteur est préoccupé par une question : quelle est la méthodologie optimale pour appliquer les grands modèles au niveau commercial ? Lorsque nous parlons de cette problématique, nous ne pouvons pas éviter « AIAgent » (agent intelligent). Alors que l’IA passe de la recherche universitaire aux applications pratiques, les grands agents pilotés par des modèles deviennent la principale force motrice de l’innovation. Même Bill Gates a prédit qu’AIAgent serait l’avenir de l’intelligence artificielle. D'ici là, AIAgent aura les capacités nécessaires pour planifier, exécuter,
- IA 608 2024-04-13 08:00:08
-
- Evernote lance un grand modèle auto-développé, un nouvel outil de productivité arrive-t-il ?
- (Pékin, 12 avril 2024) Aujourd'hui, Evernote a annoncé que son grand modèle de langage auto-développé a été nommé « Impression Large Model » et a finalisé l'enregistrement du modèle conformément aux « Mesures provisoires pour la gestion des services d'intelligence artificielle générative ». et les lois et réglementations pertinentes. Fournir des services de gestion des connaissances intelligents à un plus grand nombre d’utilisateurs. En tant que fabricant leader d'outils de productivité, Evernote adhère toujours à l'innovation technologique pour offrir aux utilisateurs une meilleure expérience de gestion des connaissances. L'institut de recherche d'Evernote se concentrant sur le domaine de l'intelligence artificielle - Evernote Research Institute a été créé en 2018. Il continue de travailler dans les domaines du traitement du langage naturel, des algorithmes de réseaux neuronaux et d'autres domaines. Depuis 2018, il a lancé successivement des recommandations intelligentes et des balises intelligentes. , des résumés intelligents et des graphiques de connaissances ainsi qu'une série de fonctions de base du produit pilotées par l'intelligence artificielle. En mars 2023, Impression Research
- IA 1065 2024-04-12 21:31:16
-
- Ouvrant l'ère de l'IA du cockpit intelligent, le grand modèle multimodal de périphérique-cloud NOMI GPT de NIO est officiellement lancé
- Le 12 avril, NIO a annoncé que NOMIGPT avait officiellement lancé son service push. La mise à jour proposée cette fois est basée sur une nouvelle architecture technique, y compris NOMI créant intelligemment un grand modèle multimodal de cloud final NOMIGPT. NOMIGPT comprend une perception multimodale auto-développée, un centre cognitif auto-développé, un moteur d'émotion et un agent multi-expert pour atteindre une connectivité mondiale des produits, services et communautés NIO et fournir des services d'IA plus efficaces et plus agréables. Une fois NOMIGPT mis à niveau, les utilisateurs peuvent découvrir un certain nombre de nouvelles expériences interactives, notamment une encyclopédie de grands modèles, des discussions amusantes illimitées, une atmosphère magique, des émoticônes amusantes, des questions et réponses sur les voitures et la génération de scènes d'IA, et profiter de nouveaux voyages grâce à l'IA de Zhisheng. Ce lancement NOMIGPT sera disponible simultanément pour les modèles équipés du système intelligent Banyan·Rong.
- IA 388 2024-04-12 21:19:01