能不能有一种通用的图模型——它既能够根据分子结构预测毒性,又能够给出社交网络的朋友推荐?或者既能预测不同作者的论文引用,还可以发现基因网络中的人类衰老机制?你还真别说,被ICLR2024接收为Spotlight的“OneforAll(OFA)”框架就实现了这个“精髓”。该研究是由圣路易斯华盛顿大学陈一昕教授团队、北京大学张牧涵以及京东研究院陶大程等研究者共同提出的。作为图领域首个通用框架,OFA实现了训练单一GNN模型即可解决图领域内任意数据集、任意任务类型、任意场景的分类任务。具体如何实现,以
2024-02-04评论:0访问次数:601
能不能有一种通用的图模型——它既能够根据分子结构预测毒性,又能够给出社交网络的朋友推荐?或者既能预测不同作者的论文引用,还可以发现基因网络中的人类衰老机制?你还真别说,被ICLR2024接收为Spotlight的“OneforAll(OFA)”框架就实现了这个“精髓”。该研究是由圣路易斯华盛顿大学陈一昕教授团队、北京大学张牧涵以及京东研究院陶大程等研究者共同提出的。作为图领域首个通用框架,OFA实现了训练单一GNN模型即可解决图领域内任意数据集、任意任务类型、任意场景的分类任务。具体如何实现,以
2024-02-04评论:0访问次数:697
本文介绍的是达摩院魔搭社区ModelScope近期开源的中文CLIP大规模预训练图文表征模型,更加懂中文和中文互联网的图像,在图文检索、零样本图片分类等多个任务中实现最优效果,同时代码和模型已经全部开源,用户能够使用魔搭快速上手。模型使用入口:https://modelscope.cn/models/damo/multi-modal_clip-vit-base-patch16_zh/summaryGithub:https://github.com/OFA-Sys/Chinese-CLIP论文:
2023-04-25评论:0访问次数:1341