图片来源 视觉中国
中青报·中青网记者 袁 野
人工智能每次和你聊天,它背后的公司都会赔钱。
美国《华盛顿邮报》报道称,以ChatGPT为代表的大型语言模型的运维成本非常高,以至于推出它们的公司不愿向公众提供最好的版本。美国马里兰大学计算机科学教授汤姆·戈尔茨坦说:“目前正在部署的模型,看起来令人印象深刻,但并不是最好的。”他认为,如果完全不考虑成本因素,那么人工智能广遭诟病的缺点,比如倾向于给出有偏见的结果甚至撒谎,都是可以避免的。
人工智能需要密集的计算能力,这就是为什么ChatGPT的开发商OpenAI公司在其免费版中只运行能力较弱的GPT-3.5模型。每3个小时,即使那些每月支付20美元使用GPT-4高级模型的用户也只能发送25条信息。背后的原因就是运营成本太高。
去年12月,ChatGPT发布后不久,OpenAI首席执行官萨姆·阿特曼估计其“每次聊天可能只需几美分”。尽管听起来价格不高,但考虑到它拥有超过1000万的日活用户,总体成本仍然非常昂贵。今年2月,有研究机构称,即使只运行GPT-3.5,ChatGPT每天在计算方面的成本依然高达70万美元。
《华盛顿邮报》称,成本问题可能也是谷歌尚未在其搜索引擎中加入人工智能聊天机器人的原因之一,该搜索引擎每天要处理数百亿次查询。美国一家行业研究公司的首席分析师迪伦·帕特尔估计,对运维者来说,客户与ChatGPT进行一次聊天的成本,可能是进行一次谷歌搜索的1000倍。
人工智能的成本甚至惊动了白宫。英国路透社称,在最近发布的一份关于人工智能的报告中,拜登政府指出,生成式人工智能的计算成本是个“全国性问题”。据白宫表示,这项技术将显著增加计算需求和相关环境影响,因此迫切需要设计更可持续的系统。
路透社称,与其他形式的机器学习相比,生成式人工智能尤其依赖令人眼花缭乱的计算能力和专用计算机芯片,只有实力雄厚的公司才负担得起。5月,萨姆·阿特曼在出席美国国会参议院听证会时表示,“事实上,我们的芯片(GPU)非常短缺,所以,使用我们产品的人越少越好。”
据埃隆·马斯克在5月23日举行的一场华尔街日报峰会上所述,现阶段GPU比药物更受欢迎。最近,马斯克的人工智能初创公司购买了约1万块GPU,用于自己的研究和项目。
令人瞩目的新技术烧钱,对科技行业而言并非新鲜事。《华盛顿邮报》称,硅谷之所以能够主导互联网经济,部分原因就是它向全世界免费提供在线搜索、电子邮件和社交媒体等服务,这些业务起初都是亏损的,但后来,这些公司通过个性化广告获得了巨额利润。尽管人工智能产业可能采用同样的策略,但分析人士指出,仅仅依靠广告收入可能无法让高端人工智能工具在短时间内实现盈利。
因此,为消费者提供人工智能模型的公司必须在赢得市场份额的渴望与令人头痛的财务损失之间取得平衡。
《华盛顿邮报》指出,即使人工智能能够挣到钱,利润可能也会流向云计算巨头,以及运行模型所需硬件的芯片制造商。目前,开发出领先的人工智能语言模型的公司要么是最大的云计算提供商(如谷歌和微软),要么与它们有密切的合作关系(如OpenAI),这并非偶然。
对消费者来说,不受限制地使用强大的人工智能模型的日子,或许已经屈指可数。
路透社称,微软已开始尝试在人工智能搜索结果中植入广告。尽管更喜欢付费订阅模式,但在听证会上,OpenAI的阿特曼表示不排除采取同样的做法。两家公司都表示,相信人工智能有朝一日能够盈利。“它的价值如此之大,我无法想象……如何在它上面敲响收银机。”今年2月,阿特曼在接受媒体采访时表示。
以上是人工智能和你聊天 成本有多高的详细内容。更多信息请关注PHP中文网其他相关文章!