Maison > Périphériques technologiques > IA > Google StyleDrop surpasse MidJourney en termes de contrôlabilité, et l'ancien CTO de GitHub utilise l'IA pour renverser la programmation

Google StyleDrop surpasse MidJourney en termes de contrôlabilité, et l'ancien CTO de GitHub utilise l'IA pour renverser la programmation

PHPz
Libérer: 2023-06-10 21:51:43
avant
941 Les gens l'ont consulté

谷歌StyleDrop在可控性上卷翻MidJourney,前GitHub CTO用AI颠覆编程

Le rapport hebdomadaire AI Venture Capital publié par Alpha Commune se concentre sur les nouvelles tendances en matière d'intelligence artificielle représentées par les grands modèles de langage et l'IA générative. Alpha Commune espère découvrir et investir dans des entrepreneurs extraordinaires (AlphaFounders), convaincue que les entrepreneurs extraordinaires sont une énorme force motrice dans la technologie, les affaires et la société, et qu'ils guident l'orientation de l'écosystème du capital-risque.

Cette semaine, nous avons observé les nouvelles tendances et tendances suivantes dans le domaine de l'IA :

1. La génération visuelle d'IA et la multimodalité progressent rapidement : Google StyleDrop est devenu un nouveau "modèle SOTA" en termes de cohérence de style et de contrôlabilité, et PandaGPT lancé par Cambridge et Tencent unifie 6 modalités.

2. Les capacités de programmation de l'IA sont devenues le centre d'avancées : Google a lancé le nouveau cadre de programmation DIDACT, l'assistant de programmation Baidu Comate a fait ses débuts et l'ancien CTO de Github a lancé une entreprise pour construire un grand modèle de mille milliards de paramètres dans le domaine de programmation.

3. Diverses nouvelles méthodes d'alignement veulent renverser le RLHF : L'optimisation directe des préférences (DPO) simplifie le pipeline d'apprentissage des préférences, et Stanford et Google DeepMind ont développé des méthodes d'alignement des valeurs plus simples et plus efficaces.

4. Une nouvelle recherche sur l'intelligence artificielle rend les algorithmes de tri 70 % plus rapides : AlphaDev de Google DeepMind a amélioré la vitesse des algorithmes de tri C++ de 70 % en les exécutant des milliards de fois.

5. De nombreuses startups tentent de résoudre le problème de la puissance de calcul de l'IA : Deux décrocheurs de Harvard ont construit une puce dédiée à l'inférence de modèles de langage volumineux, qui a augmenté les performances de 140 fois par dollar, qui fournit des capacités de cloud computing pour la génération. AI, en un mois Le financement cumulé dépasse 400 millions de dollars.

谷歌StyleDrop在可控性上卷翻MidJourney,前GitHub CTO用AI颠覆编程

Nouvelles avancées dans les produits et technologies d'intelligence artificielle

1. Le rival de Midjourney est là ! L'as StyleDrop de Google « Customization Master » fait exploser le cercle de l'art de l'IA

Le dernier StyleDrop de Google peut être qualifié de rival de Midjourney. Il peut déconstruire et reproduire n'importe quel style artistique complexe à travers une image de référence, y compris des œuvres abstraites, différents styles de LOGO, etc. Par rapport au « modèle pré-SOTA », StyleDrop excelle dans la cohérence du style. et l'alignement du texte. Il offre un processus de peinture plus contrôlable et permet un travail de précision qui était auparavant inimaginable.

谷歌StyleDrop在可控性上卷翻MidJourney,前GitHub CTO用AI颠覆编程

StyleDrop est construit sur Muse, un modèle de synthèse texte-image de pointe basé sur le transformateur d'image généré par masque. Il contient deux modules de synthèse pour la génération d'images de base et la super-résolution, chaque module se compose d'un. un encodeur de texte T, un transformateur G, un échantillonneur S, un encodeur d'image E et un décodeur D.

Le processus de formation de

StyleDrop comprend deux aspects clés. Le premier est un réglage fin efficace des paramètres. En ajustant avec précision les paramètres du transformateur visuel généré, il peut générer des images de style similaire sur une image de référence donnée. Suivies d'une formation itérative avec feedback, grâce au processus de formation itérative, les images générées sont progressivement optimisées pour améliorer la cohérence du style et l'alignement du texte.

2.AI réécrit l'algorithme de tri, 70 % plus rapidement : AlphaDev de Google DeepMind révolutionne les bases de l'informatique

Les deux phrases de Google DeepMind Hassabis ont fait exploser le domaine informatique : « AlphaDev a découvert un nouvel algorithme de tri plus rapide, et nous l'avons open source dans la bibliothèque principale C++ pour que les développeurs puissent l'utiliser. »

AlphaDev est basé sur le modèle AlphaZero et transforme le problème de tri en un « jeu d'assemblage » solo. En recherchant un grand nombre de combinaisons d'instructions possibles, il trouve un algorithme de tri plus rapide que les algorithmes existants, améliorant ainsi les algorithmes de tri C++ exécutant des milliards. de fois. 70% de vitesse. Des articles de recherche pertinents ont été publiés dans la revue scientifique faisant autorité Nature. Ce résultat a maintenant été inclus dans la bibliothèque C++ standard LLVM Abseil et est open source.

Daniel J. Mankowitz, l'un des principaux auteurs d'AlphaDev, a déclaré : Cette technologie a un impact important sur la programmation et la société numérique, permettra à des milliards de personnes d'économiser du temps et de l'énergie et devrait optimiser l'ensemble de l'écosystème informatique.

3. Soumettez n'importe quelle vidéo et obtenez directement un modèle 3D. La première œuvre chinoise sera incluse dans le CVPR 2023

.

Une technologie appelée Neuralangelo de NVIDIA et de l'Université Johns Hopkins peut générer automatiquement des modèles 3D détaillés à partir de vidéos ordinaires. Il utilise une reconstruction de rendu neuronal basée sur SDF et une architecture d'encodage de hachage multi-résolution pour générer des structures 3D sans données de profondeur. Actuellement, des articles connexes ont été sélectionnés pour le CVPR 2023.

谷歌StyleDrop在可控性上卷翻MidJourney,前GitHub CTO用AI颠覆编程

Dans l'article, Neuralangelo a été testé à l'aide d'ensembles de données DTU et Tanks and Temples, et les résultats ont montré qu'il fonctionnait avec précision dans la génération de détails 3D et la restauration d'images. Comparé aux « modèles pré-SOTA » tels que NeuS et NeuralWarp, Neuralangelo montre d'excellents résultats à la fois sur l'ensemble de données DTU et sur l'ensemble de données Tanks and Temples.

4. Ajoutez des fonctionnalités audiovisuelles complètes aux grands modèles de langage, DAMO Academy open source Video-LLaMA

Afin de permettre à de grands modèles linguistiques de comprendre et d'interagir avec le contenu vidéo, des chercheurs de la DAMO Academy ont proposé Video-LLaMA, un modèle à grande échelle doté de capacités audiovisuelles. Ce modèle peut percevoir et comprendre les signaux vidéo et audio, comprendre les instructions de l'utilisateur et effectuer des tâches complexes telles que la description audio et vidéo et les questions et réponses.

谷歌StyleDrop在可控性上卷翻MidJourney,前GitHub CTO用AI颠覆编程

Cependant, ce modèle présente encore des limites telles que des capacités de perception limitées, des difficultés de traitement de longues vidéos et des hallucinations inhérentes aux modèles de langage. DAMO Academy a déclaré qu'elle construisait des ensembles de données audio-vidéo-texte de haute qualité pour améliorer les capacités de perception.

5. Cambridge, Tencent AI Lab et d'autres ont proposé le modèle PandaGPT : un modèle unifie six modalités

Récemment, des chercheurs de Cambridge, du NAIST et de Tencent AI Lab ont lancé un modèle de langage multimodal appelé PandaGPT. PandaGPT combine la capacité d'alignement modal d'ImageBind et la capacité de génération de Vicuna pour parvenir à des capacités de compréhension et de suivi des commandes dans six modalités. Le modèle démontre la capacité à comprendre différentes modalités, notamment les questions et réponses basées sur des images/vidéos, l'écriture créative et le raisonnement visuel-auditif. Le modèle peut traiter des données d'image, de vidéo, de texte, d'audio, de carte thermique, de carte de profondeur et d'IMU et combiner naturellement leur sémantique.

6. L'Université nationale de Singapour publie Goat, qui tue mathématiquement GPT-4 avec seulement 7 milliards de paramètres

Des chercheurs de l'Université nationale de Singapour ont développé Goat, un modèle dédié à l'arithmétique en affinant le modèle LLaMA, avec une taille de paramètre de 7 milliards. Il est nettement meilleur que GPT-4 en termes de capacités arithmétiques. Goat fonctionne parfaitement sur la sous-tâche arithmétique du BIG-bench, avec une précision dépassant Bloom, OPT, GPT-NeoX, etc. Parmi eux, la précision obtenue par le Goat-7B à échantillon nul dépasse même celle du PaLM-540 après un apprentissage sur quelques échantillons.

Goat atteint une précision presque parfaite sur les opérations d'addition et de soustraction de grands nombres en affinant un ensemble de données arithmétiques synthétiques, surpassant ainsi les autres modèles de langage pré-entraînés. Pour les tâches de multiplication et de division plus difficiles, les chercheurs ont proposé une méthode de classification et de décomposition des tâches pour améliorer les performances arithmétiques en les décomposant en sous-tâches apprenables. Cette recherche fournit une exploration et une inspiration utiles pour la progression des modèles de langage sur les tâches arithmétiques.

7. Sortie d'iFlytek Spark Cognitive Large Model V1.5, le dialogue à plusieurs tours et les capacités mathématiques ont été améliorés

Le 9 juin, iFlytek Spark Cognitive Large Model V1.5 est sorti. Cette version a fait des percées dans les questions et réponses ouvertes, avec plusieurs séries de dialogues et des capacités mathématiques améliorées, ainsi que la génération de texte, la compréhension du langage et les capacités de raisonnement logique. De plus, iFlytek apportera également le « modèle cognitif Spark » au terminal mobile et lancera son application Spark.

Selon le plan, iFlytek effectuera trois séries de mises à niveau itératives cette année, dans le but d'évaluer ChatGPT le 24 octobre. En plus du 9 juin, le prochain nœud de mise à niveau aura lieu le 15 août, principalement pour mettre à niveau les capacités de code et l'interaction multimodale.

8. Le framework public d'ingénierie logicielle AI+ de Google DIDACT : tests internes par des milliers de développeurs

Google a récemment annoncé un framework appelé DIDACT, qui utilise la technologie de l'IA pour améliorer l'ingénierie logicielle et aider les développeurs à écrire et modifier du code en temps réel.

Le modèle du framework DIDACT est de nature multimodale et peut prédire la prochaine opération d'édition en fonction des opérations historiques du développeur. Cette fonctionnalité permet au modèle de mieux comprendre l'intention du développeur et de fournir des recommandations précises. Le modèle peut également effectuer des tâches plus complexes, telles que partir d'un fichier vierge et prédire en continu les opérations d'édition ultérieures jusqu'à ce qu'un fichier de code complet soit généré.

Les outils DIDACT incluent l'analyse des annotations, la correction des builds et la prédiction d'indices, chacun étant intégré à différentes étapes du flux de travail de développement. Les enregistrements des interactions de ces outils avec les développeurs sont utilisés comme données de formation pour aider les modèles à prédire les actions des développeurs lors des tâches d'ingénierie logicielle.

9. Baidu lance Comate, un assistant d'écriture de code basé sur de grands modèles, qui améliore de 50 fois la capacité de raisonnement de modèles haute performance de Wen Xinyiyan

.

Récemment, Baidu Smart Cloud a lancé l'outil de recommandation intelligent de codage Comate et a officiellement ouvert les tests sur invitation. Comate est similaire aux assistants d'écriture de code tels que GitHub Copilot, mais utilise davantage de commentaires chinois et de documents de développement comme données de formation. Pendant le processus de codage, Comate peut raisonner sur les prochains choix d'entrée possibles en fonction de ce que le développeur est en train d'écrire. Selon Baidu, les capacités de Comate ont d'abord été intégrées dans tous les secteurs d'activité de Baidu et ont obtenu de bons résultats : 50 % du code du département R&D principal peut être généré via Comate.

De plus, Baidu a déclaré que les performances de raisonnement de Wen Xinyiyan ont été améliorées de 10 fois. Dans le même temps, sur la base de la chaîne d'outils complète fournie par la grande plate-forme de modèles de Wenxin Qianfan, dans les scénarios haute fréquence et de base des applications d'entreprise, le mode haute performance « Wenxinyiyan-Turbo » de Wenxinyiyan a amélioré les performances des services d'inférence 50 fois.

10. Clonage de pensée ! Un ancien chercheur d'OpenAI permet à l'IA d'imiter la pensée humaine

Une étude dirigée par Jeff Clune, ancien membre senior de l'équipe de recherche OpenAI, a révélé que les performances et la sécurité des agents d'intelligence artificielle peuvent être améliorées en leur permettant d'imiter la pensée et les actions humaines. La recherche utilise un ensemble de données de pensées exprimées par les humains lorsqu’ils agissent, permettant à un agent d’acquérir la capacité de penser et de la combiner avec un comportement modélisé. Cette approche est appelée « clonage de pensée », dans laquelle les composants de niveau supérieur génèrent des idées et les composants de niveau inférieur exécutent des actions.

Les chercheurs ont utilisé des millions d'heures de données de réflexion collectées à partir de vidéos YouTube et d'enregistrements de texte pour la formation. Les résultats expérimentaux montrent que la méthode du « clonage de pensée » surpasse la méthode traditionnelle de clonage du comportement et est plus performante dans les tâches hors distribution. Ces recherches revêtent une grande importance pour le développement de l’intelligence artificielle, car elles améliorent le niveau d’intelligence et la sécurité des agents et les rendent plus faciles à comprendre et à contrôler.

11. Le processus d'inférence a été considérablement optimisé et la bibliothèque d'inférence Transformer hautes performances de Byte a remporté le prix du meilleur article IPDPS 2023

L'article « ByteTransformer : A High-Performance Transformer Boosted for Variable-Length » publié par ByteDance, NVIDIA et l'Université de Californie à Riverside a remporté le meilleur article à l'IPDPS 2023.

ByteTransformer est une bibliothèque d'inférence Transformer basée sur GPU développée par ByteDance. ByteTransformer est une implémentation efficace de Transformer qui atteint des performances élevées sur le transformateur BERT grâce à une série de méthodes d'optimisation. Pour la saisie de texte de longueur variable, par rapport aux autres implémentations de Transformer, ByteTransformer peut atteindre une accélération moyenne de plus de 50 % dans les expériences. Il convient pour accélérer les tâches de traitement du langage naturel et améliorer l'efficacité de la formation et de l'inférence des modèles.

12.Le « RL » dans RLHF est-il nécessaire ? Utilisez l'entropie croisée binaire pour affiner directement le LLM, l'effet est meilleur

RLHF (Reinforcement Learning with Human Feedback) est actuellement une méthode populaire pour aligner de grands modèles avec des humains. Elle confère au modèle des capacités de conversation et de codage impressionnantes, mais le pipeline RLHF est beaucoup plus complexe que l'apprentissage supervisé et implique la formation de plusieurs modèles de langues. et un échantillon de la politique du modèle de langage pendant la boucle de formation, ce qui entraîne des coûts de calcul importants.

Récemment, l'Université de Stanford et d'autres institutions ont proposé une recherche appelée Direct Preference Optimization (DPO). La recherche montre que l'objectif basé sur RL utilisé par les méthodes existantes peut être optimisé avec précision avec un simple objectif d'entropie croisée binaire, simplifiant ainsi la préférence. pipeline d’apprentissage. Autrement dit, il est tout à fait possible d’optimiser directement les modèles de langage pour adhérer aux préférences humaines sans avoir besoin de modèles de récompense explicites ou d’apprentissage par renforcement.

13. Utilisez les données des jeux sociaux pour former un modèle d'alignement social, comparable au RLHF

Une étape importante dans le développement d'un modèle de langage consiste à rendre son comportement cohérent avec les valeurs sociales humaines, également appelées alignement des valeurs. La méthode dominante actuelle est la RLHF.

Cependant, cette approche pose plusieurs problèmes. Premièrement, les récompenses générées par le modèle d’agent sont facilement piratées, conduisant à des réponses qui ne répondent pas aux attentes. Deuxièmement, le modèle d’agent et le modèle génératif doivent interagir en permanence, ce qui rend le processus de formation long et inefficace. Troisièmement, le modèle de récompense lui-même ne correspond pas exactement au modèle de pensée humaine.

Une étude récente de Dartmouth, Stanford, Google DeepMind et d'autres institutions montre que l'utilisation de jeux sociaux pour créer des données de haute qualité combinées à des algorithmes d'alignement simples et efficaces peut être la clé pour parvenir à un alignement des valeurs. Les chercheurs ont proposé une méthode de formation à l’alignement sur des données de jeu multi-agents. Ils ont développé un modèle social virtuel appelé Sandbox, dans lequel les individus sociaux font bonne impression en répondant aux normes sociales. En apprenant des données historiques du bac à sable, ils ont proposé un algorithme d'alignement stable. Les modèles formés à l’alignement, vérifiés expérimentalement, sont capables de générer plus rapidement des réponses socialement normatives. L'algorithme d'alignement stable est comparable au RLHF en termes de performances et de stabilité d'entraînement, et propose une méthode d'alignement des valeurs plus simple et plus efficace.

谷歌StyleDrop在可控性上卷翻MidJourney,前GitHub CTO用AI颠覆编程

Nouveau financement pour les startups de l'IA

1. Poolside, fondée par l'ancien CTO de GitHub, a reçu 26 millions de dollars américains en financement de démarrage

Récemment, Poolside a reçu 26 millions de dollars de financement d'amorçage dirigé par Redpoint Ventures. L'objectif de Poolside est de libérer le potentiel humain en poursuivant l'AGI (intelligence artificielle générale) créée par logiciel, et est basé sur un concept de base : la transition des humains vers. Le chemin AGI doit être atteint en développant des capacités spécifiques plutôt que des méthodes générales.

Le fondateur de Poolside, Jason Warner, était auparavant directeur général de Redpoint Ventures et était auparavant CTO de GitHub. Son équipe était responsable du développement de GitHub Copilot. Il a cofondé Poolside avec l'entrepreneur en série Eiso Kant, ciblant directement OpenAI.

Poolside construit un modèle de base et une infrastructure puissants de nouvelle génération. Il peut s'agir d'un modèle à mille milliards de paramètres axé sur les logiciels et le code. Grâce aux capacités de ce modèle, les artistes, les médecins, les scientifiques et les éducateurs peuvent avoir un seuil ultra-bas. En créant des logiciels et des produits 1 000 fois plus rapidement qu’aujourd’hui, la création de logiciels deviendra réalisable et omniprésente pour tout le monde.

2. UpdateAI, une plateforme de réussite client basée sur l'IA, a reçu 2,3 ​​millions de dollars d'investissement initial d'IdealabX, Zoom Ventures et a16z

.

UpdateAI est un fournisseur de plateforme de réussite client qui a récemment reçu un financement de 2,3 millions de dollars dirigé par IdealabX.

UpdateAI simplifie le travail fastidieux des appels clients, permettant aux responsables de la réussite client de se concentrer sur la fourniture d'informations client évolutives. La plateforme s'intègre à Zoom Meetings et exploite ChatGPT pour générer des résumés de réunion intelligents qui fournissent un aperçu concis de la réunion et automatisent les tâches post-appel comme l'envoi d'e-mails de suivi aux clients.

Josh Schachter, co-fondateur et PDG d'UpdateAI, est un fondateur en série au parcours mixte. Avant de fonder UpdateAI, il a non seulement eu deux expériences entrepreneuriales et de multiples expériences professionnelles en tant que chef de produit dans de grandes entreprises, mais a également été directeur à Boston. Groupe Conseil. Avoir une compréhension approfondie des besoins.

UpdateAI a reçu un financement de 2,3 millions de dollars américains. Cette ronde de financement a été dirigée par IdealabX, avec la participation de Zoom Ventures et d'a16z. UpdateAI a déjà reçu un financement de 1,7 million de dollars, et ce cycle porte son financement total à 4 millions de dollars.

3. CoreWeave, qui se concentre sur la fourniture de capacités de cloud computing pour l'IA générative, a reçu un financement stratégique supplémentaire de 200 millions de dollars en un mois

CoreWeave est une start-up axée sur le cloud computing IA. Son investisseur, Magnetar Capital, a dirigé son financement stratégique de 200 millions de dollars après avoir dirigé un financement de série B de 221 millions de dollars. CoreWeave est actuellement une entreprise individuelle de 2 milliards de dollars. . bête.

CoreWeave fournit des services cloud NVIDIA GPU avec plus d'une douzaine de SKU, dont H100, A100, A40 et RTX A6000, adaptés à divers cas d'utilisation tels que l'intelligence artificielle et l'apprentissage automatique, les effets visuels et le rendu, le traitement par lots et le streaming de pixels.

CoreWeave a été fondée par Intrator, Brian Venturo et Brannin McBee, qui se sont initialement concentrés sur les applications de crypto-monnaie et se sont depuis tournés vers l'informatique générale et les technologies d'IA générative, telles que les modèles d'IA de génération de texte.

Dans le précédent financement de série B de 221 millions de dollars de CoreWeave, en plus de l'investisseur principal Magnetar Capital, il y avait également des investisseurs tels que NVIDIA, l'ancien PDG de GitHub Nat Friedman et l'ancien dirigeant d'Apple Daniel Gross.

4. Le moteur d'automatisation des flux de travail 8Flow.ai a reçu 6,6 millions de dollars américains en financement de démarrage

Récemment, 8Flow.ai a reçu 6,6 millions de dollars de financement d'amorçage dirigé par des institutions telles que BoxGroup et Liquid2 et des investisseurs individuels tels que l'ancien PDG de GitHub, Nat Friedman et Howie Liu, ont également participé.

La société a lancé un moteur d'automatisation des flux de travail d'auto-apprentissage pour les entreprises, s'intégrant à des outils tels que Zendesk, ServiceNow et Salesforce Service Cloud pour aider les agents à accomplir leurs tâches quotidiennes. À l'avenir, l'entreprise prévoit d'utiliser toutes ces données pour entraîner des modèles d'apprentissage automatique afin de générer des flux de travail d'IA adaptés aux besoins de chaque utilisateur.

Le produit de

8Flow.ai existe actuellement sous la forme d'une extension de navigateur Chrome qui peut automatiquement copier et coller les données pertinentes d'un programme à un autre. L'outil apprend automatiquement les étapes courantes pour chaque agent et les transforme en actions pouvant être déclenchées d'un simple clic.

Le fondateur de

8Flow.ai, Boaz Hecht, a été co-fondateur et PDG de SkyGiraffe, puis a été vice-président de la plateforme ServiceNow, responsable des produits de robots de discussion mobiles et d'intelligence artificielle.

5. Hyro, une plateforme d'intelligence artificielle conversationnelle dans le domaine médical, a reçu 20 millions de dollars américains dans le cadre d'un financement de série B dirigé par Macquarie Capital

Récemment, Hyro, une plateforme d'intelligence artificielle conversationnelle dans le domaine médical, a reçu 20 millions de dollars américains dans le cadre d'un financement de série B dirigé par Macquarie Capital.

Hyro a été cofondée par deux anciens élèves de l'Université Cornell, Israel Krush et Rom Cohen. Israel Krush est un entrepreneur en série possédant une riche expérience dans l'industrie.

Hyro utilise une technologie unique de traitement du langage naturel et de graphe de connaissances pour créer une interface de discussion interne plug-and-play pour les systèmes médicaux afin de couvrir 85 % des tâches quotidiennes dans les services de médecine générale. Hyro peut effectuer des travaux de maintenance client sans données de formation et mettre à jour les informations internes en temps réel. L'assistant IA intégré à la plateforme peut correspondre au flux de travail d'origine du service médical, les aidant à centraliser les communications, à améliorer les services et à réduire les coûts d'exploitation.

Il est rapporté que le ARR de Hyro a augmenté de plus de 100 % d'une année sur l'autre et que les principaux clients incluent Mercy Health, Baptist Health, Intermountain Healthcare, etc.

6. Predibase, une plateforme commerciale d'apprentissage automatique low-code, a finalisé un financement de série A de 12,2 millions de dollars

Predibase est une plate-forme commerciale d'apprentissage automatique low-code destinée aux développeurs. Elle aide les utilisateurs sans compétences en apprentissage automatique à créer, itérer et déployer rapidement et facilement des applications d'IA complexes. Récemment, Predibase a reçu 12,2 millions de dollars en financement de série A dirigé par Felicis.

Grâce à la plate-forme Predibase, même les utilisateurs sans compétences en apprentissage automatique peuvent créer, itérer et déployer rapidement et facilement des applications d'IA complexes. Les utilisateurs doivent uniquement définir le contenu requis via le propre modèle d'IA de la plateforme, et le reste des opérations est automatiquement effectué par la plateforme. Les utilisateurs novices peuvent choisir l'architecture de modèle recommandée et les utilisateurs experts peuvent affiner tous les paramètres du modèle en fonction de leurs propres besoins, réduisant ainsi considérablement le temps de déploiement initial des applications d'IA.

Le fondateur et PDG de Predibase, Piero Molino, a une formation à l'intersection de l'industrie et du monde universitaire. Il a une expérience professionnelle chez IBM et Uber, et a également travaillé comme chercheur scientifique à l'Université de Stanford.

7. Beehive AI, une plateforme d'analyse d'IA pour les données clients non structurées, a reçu 5,1 millions de dollars américains en financement de démarrage

Beehive AI est la première plateforme d'IA au monde spécialement conçue pour analyser les données clients non structurées. Elle a récemment reçu 5,1 millions de dollars américains en financement de démarrage dirigé par Valley Capital Partners.

Beehive AI est une plateforme d'IA d'entreprise personnalisable de bout en bout pour les études de consommation avec une précision, une pertinence et une évolutivité sans précédent. En analysant des données ouvertes non structurées, combinées à des données quantitatives, Beehive AI aide les entreprises à extraire de nouvelles informations, les aidant ainsi à mieux comprendre et servir leurs clients.

La plateforme permet aux clients de télécharger leurs données existantes collectées sur n'importe quelle plateforme ou de lancer une enquête conçue par l'IA posant des questions ouvertes pour obtenir des commentaires riches et nuancés de la part des clients. Il effectue ensuite une analyse personnalisée des données et permet aux clients d'explorer des informations à l'aide de tableaux de bord programmables intuitifs.

8. Etched.ai, un concepteur et développeur de puces dédié à l'inférence de grands modèles de langage, a reçu 5,36 millions de dollars en financement de démarrage

Etched.ai est un concepteur et développeur de puces dédiées à l'inférence de grands modèles de langage. Récemment, elle a reçu un financement d'amorçage de 5,36 millions de dollars dirigé par Primary Venture Partners, avec la participation de l'ancien PDG d'Ebay, Devin Wenig, et d'autres. La valorisation actuelle de la société est d'environ 34 millions de dollars.

Etched.ai, fondée par Gavin Uberti et Chris Zhu, qui ont abandonné Harvard, a conçu une puce plus professionnelle et de moindre consommation pour exécuter des modèles d'IA génératifs. Ils espèrent introduire sa puce sur le marché au troisième trimestre 2024 et prévoient de la vendre. aux principaux fournisseurs de services cloud.

Les fondateurs d'Etched.ai affirment que les simulations montrent que leur puce offre une amélioration de 140 fois les performances par dollar par rapport aux GPU traditionnels.

9. En utilisant l'intelligence artificielle pour améliorer la rentabilité du cloud computing, Antimetal a reçu 4,3 millions de dollars américains en financement de démarrage

Récemment, Antimetal, qui s'engage à développer une technologie d'IA pour améliorer la rentabilité du cloud computing, a finalisé une ronde de financement de démarrage de 4,3 millions de dollars menée par Framework Ventures.

Antimetal utilise des modèles d'apprentissage automatique propriétaires pour optimiser le déploiement du cloud computing, en entrant dans le service de cloud computing AWS le plus courant, et s'étendra à l'avenir à d'autres plates-formes de cloud computing telles que Google et Microsoft.

谷歌StyleDrop在可控性上卷翻MidJourney,前GitHub CTO用AI颠覆编程

L'entreprise développe des algorithmes en ligne, utilise l'intelligence artificielle pour étudier la dynamique du marché, puis intègre, planifie et revend ces ressources de cloud computing. Il faut en moyenne 90 jours aux entreprises pour vendre ces ressources AWS inutilisées, mais avec Antimetal, la transaction est conclue environ trois fois plus rapidement.

Matthew Parkhurst, fondateur et PDG de l'entreprise, a longtemps travaillé dans des entreprises SaaS avant de démarrer sa propre entreprise et possède plus de 7 ans d'expérience dans l'industrie.

10. La startup d'imagerie médicale IA Hypervision Surgical a reçu 6,5 millions de livres sterling en financement de démarrage

Hypervision Surgical a récemment reçu un financement d'amorçage de 6,5 millions de livres sterling de la part de HERAN Partners, Redalpine et ZEISS Ventures.

Hypervision Surgical est une spin-out du King's College de Londres, fondée par une équipe de cliniciens, d'experts en imagerie médicale et en intelligence artificielle. Son objectif est de doter les cliniciens d'analyses tissulaires avancées assistées par ordinateur pour améliorer la précision chirurgicale et la sécurité des patients, réduisant ainsi la morbidité des patients et les coûts des soins de santé dans la spécialité chirurgicale.

Actuellement, l'entreprise développe l'imagerie médicale pour les interventions chirurgicales en combinant l'imagerie hyperspectrale IA et l'edge computing. Grâce à cette technologie, les chirurgiens peuvent s’appuyer sur des mesures précises et des informations sur les propriétés des tissus pour distinguer les tissus sains des tissus malsains lors d’interventions chirurgicales oncologiques complexes.

Martin Frost, un membre essentiel de l'équipe de l'entreprise, était le fondateur et ancien PDG de la société de robots chirurgicaux CMR Surgical. Le PDG de l'entreprise, Michael Ebner, est diplômé du King's College de Londres et a été élu à la Royal Academy of Engineering.

Cet article a été compilé par Alpha Commune à partir de plusieurs sources d'informations et rédigé avec l'aide de ChatGPT.

À propos d'Alpha Commune

谷歌StyleDrop在可控性上卷翻MidJourney,前GitHub CTO用AI颠覆编程

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

source:sohu.com
Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn
Tutoriels populaires
Plus>
Derniers téléchargements
Plus>
effets Web
Code source du site Web
Matériel du site Web
Modèle frontal