5月11日消息,谷歌在今日凌晨的I/O2023开发者大会上公布了全新的AI语言模型PaLM2,这是其PaLM语言模型的第二个版本,将用于为谷歌Bard提供动力。据介绍,PaLM2模型在针对特定领域的数据进行微调时会大放异彩。比如Med-PaLM2可以帮助回答问题并从各种密集的医学文本中总结见解。此外,谷歌最近将Bard聊天机器人转移到了PaLM2,号称凭借改进的数学、逻辑和推理技能,Bard现在可以帮助生成、解释和调试20多种编程语言的代码。谷歌表示,从下周开始,Bard聊天机器人将在代码引用方
2023-05-13评论:0访问次数:597
5月18日消息,内部文件显示,谷歌正在努力将最新的人工智能技术快速融入其核心产品和服务,公司已经批准了使用大语言模型推动生成式人工智能计划,应用于广告投放和协助YouTube创作者。上周,谷歌发布了其最新、功能最强大的大语言模型PaLM2。该公司利用大量文本数据对PaLM2进行训练,使其可以像人类一样对问题和指令做出回应。据文件显示,谷歌内部的某些团队正在计划使用PaLM2驱动的工具,允许广告商生成自己的媒体资产,并为YouTube创作者提供制作视频的建议。此外,谷歌还在测试PaLM2技术在Yo
2023-05-25评论:0访问次数:401
上周四,在2023谷歌I/O大会上,谷歌CEO皮查伊宣布推出对标GPT-4的大模型PaLM2,并正式发布预览版本,改进了数学、代码、推理、多语言翻译和自然语言生成能力。PaLM2模型提供了不同尺寸规模的四个版本,从小到大依次为Gecko、Otter、Bison和Unicorn,更易于针对各种用例进行部署。其中轻量级的Gecko模型可以在移动设备上运行,速度非常快,不联网也能在设备上运行出色的交互式应用程序。不过会上,谷歌并没有给出有关PaLM2的具体技术细节,只说明了它是构建在谷歌最新JAX和T
2023-05-21评论:0访问次数:461
5月17日消息,谷歌上周在2023年I/O开发者大会上推出最新大型语言模型PaLM2。公司内部文件显示,自2022年起训练新模型所使用的文本数据量几乎是前一代的5倍。据悉,谷歌最新发布的PaLM2能够执行更高级的编程、运算和创意写作任务。内部文件透露,用于训练PaLM2的token数量有3.6万亿个。所谓的token就是字符串,人们会将训练模型所用文本中的句子、段落进行切分,其中的每个字符串通常被称为token。这是训练大型语言模型的重要组成部分,能教会模型预测序列中接下来会出现哪个单词。谷歌于
2023-05-21评论:0访问次数:736
5月9日消息,据泄露的内部文件显示,人工智能将成为谷歌今年开发者大会GoogleI/O的中心主题,该公司计划发布一系列生成式人工智能(AIGC)功能更新,包括推出通用的大型语言模型(LLM)。这份内部文件显示,谷歌将推出其最新、最先进的LLM——PaLM2。PaLM2支持100多种语言,在内部以“统一语言模型”的代号运行。谷歌还对其进行了广泛的编码和数学测试,以及创意性的写作测试和分析。文件还显示,在这次活动上,谷歌将宣布人工智能如何“帮助人们充分发挥其潜力”的主题,包括Bard和搜索的“生成式
2023-05-11评论:0访问次数:867