iFlytek organisera une conférence de mise à niveau V3.5 pour le Spark Cognitive Large Model le 30 janvier. Liu Qingfeng, président d'iFlytek, et Liu Cong, doyen de l'institut de recherche, ont officiellement lancé iFlytek Spark V3.5, basé sur la première formation nationale en matière de puissance de calcul industrielle.
iFlytek a annoncé que le 24 octobre 2023, elle lancerait la première plate-forme de puissance de calcul nationale Wanka « Feixing No. 1 » qui prend en charge la formation de grands modèles avec des milliards de paramètres, et qu'elle sera officiellement lancée. Dans les plus de 90 jours qui ont suivi son lancement, iFlytek Spark a lancé une formation de modèles à grande échelle avec des paramètres plus larges pour comparer GPT-4 basé sur "Flying Star One", ce qui a abouti à la sortie de la mise à niveau iFlytek Spark V3 le 30 janvier 5.
Basé sur la formation National Open Large Model, le National Open Large Model Fire V3.5 a réalisé des mises à niveau complètes dans sept aspects : compréhension de la langue, génération de texte, questions et réponses de connaissances, raisonnement logique, capacité mathématique, capacité de codage et multi- capacité modale. Parmi eux, la compréhension du langage et la capacité en mathématiques dépassent GPT-4+Turbo, le code atteint GPT-4+Turbo+96 % et la compréhension multimodale atteint GPT-4V+91 %.
Actuellement, iFlytek Spark a habilité des entreprises de premier plan dans les domaines de l'assurance, de la banque, de l'énergie, de l'automobile, des communications, etc., grâce à une coopération avec China Pacific Insurance, grâce à une coopération avec Spark Pacific Insurance et grâce au plan Spark Pacific pour autonomiser les entreprises internes. services de connaissances, bureau et audit, industrie des expositions, etc., pour créer une référence pour l'application du travail numérique dans le domaine de l'assurance ; unir ses forces avec la Banque des communications pour responsabiliser le service client, l'industrie des expositions, les bureaux, la recherche et le développement, etc., en se concentrant sur la création d'une référence pour l'application des capacités du code dans le domaine bancaire ; unir ses forces avec le National Energy Group pour permettre au charbon et à l'énergie électrique, aux transports, à l'industrie chimique, etc., de créer une vaste référence d'application de modèle pour le liaison intégrée des groupes d'entreprises centrales ; conjointement avec le Groupe national de l'énergie pour permettre au charbon, à l'électricité, aux transports, à l'industrie chimique, etc., de créer un grand modèle de référence d'application pour la liaison intégrée des groupes d'entreprises centrales.
De plus, le « iFlytek Spark Open Source Large Model », profondément adapté à la puissance de calcul domestique, a été lancé pour la première fois, avec des effets d'application de scène de premier plan, et la communauté Open Source de Shengsi l'a lancé conjointement pour la première fois.
Cet open source compte 130 millions de paramètres (13B), dont le modèle de base iFlytekSpark-13B-base, le modèle de réglage fin iFlytekSpark-13B-chat, l'outil de réglage fin iFlytekSpark-13B-Lora et le outil de personnalisation iFlytekSpark -13B-Charater. Les chercheurs universitaires en entreprise peuvent former plus facilement leurs propres grands modèles dédiés, basés sur la suite d'optimisation Spark complète, autonome et contrôlable.
Liu Qingfeng a révélé que le grand modèle open source Spark a constitué un avantage technologique différencié. Spark Open Source-13B se classe parmi les meilleurs dans un certain nombre de tâches d'évaluation publiques bien connues dans des scénarios d'entreprise typiques tels que la génération de texte, la compréhension du langage, la réécriture de texte, les questions et réponses de l'industrie, la traduction automatique, etc., grâce à des recherches approfondies et. optimisation dans des domaines tels que l'aide à l'apprentissage et la compréhension du langage. Les performances ont été grandement améliorées et il est plus confortable lors du traitement de tâches complexes en langage naturel.
Basée sur la formation "Flying Star One", l'adaptation et l'optimisation nationales full-stack du grand modèle open source de Spark sont simples et faciles à utiliser, avec des effets d'application de scène de premier plan. La stratégie de formation est extrêmement optimisée pour la puissance de calcul d'Ascend, et l'efficacité de la formation atteint 90 % de A100. Il s'agit non seulement d'une optimisation plus approfondie du matériel Ascend AI, mais démontre également la détermination et la capacité de la puissance informatique nationale à rattraper les niveaux avancés internationaux.
L’Open Source ne peut améliorer la coopération écologique que lorsque davantage de scénarios sont mis en œuvre. À l'heure actuelle, la communauté Open Source de Huawei Shengsi a officiellement lancé la version 13B Open Source Spark Large Model, qui est entièrement gratuite pour la recherche universitaire et d'entreprise, améliorant en même temps la coopération universitaire et l'exploration industrielle.
Dans l'attente du développement du grand modèle iFlytek Spark en 2024, Liu Qingfeng a souligné trois points : « Premièrement, nous devons continuer à comparer les capacités sous-jacentes du grand modèle général aux niveaux internationaux les plus avancés et progresser dans ce domaine. recherche d'algorithmes incluant une puissance de calcul plus petite. "Des résultats relativement meilleurs." Nous devons être lucides et voir l'écart entre le meilleur niveau de GPT-4 dans des domaines tels que la formation rapide de petits échantillons, multi-. la formation d'apprentissage profond modal et la compréhension approfondie ultra-complexe d'iFlytek Spark ont rattrapé la confiance du meilleur niveau actuel de GPT-4 au premier semestre de cette année. « Les grands modèles généraux d'aujourd'hui ne représentent pas nécessairement tout l'avenir de l'intelligence artificielle. Il reste encore beaucoup d'innovation à faire, comme l'interaction scientifique du cerveau, la connexion profonde des réseaux adverses, etc., qui nécessitent l'ensemble de l'écosystème innovant, mais nous devons avoir le courage et les attentes pour aller de l'avant. " a souligné Liu Qingfeng.
"Deuxièmement, en 2024, nous devons véritablement faire décoller la qualité et la qualité des grands modèles, non seulement dans les applications industrielles, mais aussi en reliant les grands modèles dans de nombreuses innovations technologiques clés. La communauté des affaires chinoise et la communauté scientifique sont confiantes. pour atteindre la transcendance. "
" Troisièmement, les immeubles de grande hauteur doivent être construits sur des plates-formes sûres et contrôlables, et nous devons atteindre la prospérité écologique sur des plates-formes indépendantes et contrôlables. " Liu Qingfeng a déclaré qu'il était confiant dans sa capacité à réaliser la construction de algorithmes, données, scénarios d’application et puissance de calcul. Un écosystème d’intelligence artificielle prospère, totalement autonome et contrôlable.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!