成本增加数十亿美元!科技巨头上线类ChatGPT服务面临新挑战

财经
2023
02/23
16:30
亚设网
分享

Alphabet(GOOGL.US)在谷歌搜索中加入生成性人工智能(generative artificial intelligence)的尝试给行业带来了一个全新的挑战:成本问题。整个科技行业的高管都在讨论如何运营像ChatGPT这样的人工智能,并平衡其高昂的维护费用。

OpenAI的首席执行官Sam Altman表示,ChatGPT可以自主回答搜索问题,每次对话的计算成本为几美分或更多,这一高额的使用费用数据“令人瞠目”。

Alphabet的董事长John Hennessy表示,实现中,与被称为大型语言模型的AI进行交流的成本可能是标准关键字搜索的10倍,尽管代码优化将有助于快速降低成本。

分析师表示,即使有潜在的基于聊天的搜索广告收入,使用该技术也可能会增加数十亿美元的额外使用成本,从而影响Alphabet的利润。该公司2022年实现的净收入为接近600亿美元。

摩根士丹利估计,谷歌去年的3.3万亿次搜索查询每次的花费大约为五分之一美分,但这个数字在今年将会增加,具体取决于AI必须生成的文本长度。例如,分析师预测,如果像ChatGPT这样的人工智能能够以50个字以内的回复处理一半的问询量来计算,到2024年,谷歌的费用支出将增加近60亿美元。

其他企业也以不同的方式达成了类似的结论。例如,专注于芯片技术的研究和咨询公司Semi Analysis表示,将ChatGPT类似的人工智能添加到搜索引擎中可能会令Alphabet的支出增加30亿美元,具体数额受到谷歌内部芯片Tensor处理单元(TPU)以及其他优化的限制。

成本增加数十亿美元!科技巨头上线类ChatGPT服务面临新挑战

令这种人工智能比传统搜索方式更昂贵的是其所涉及的计算能力。分析人士表示,这种人工智能的运行是基于数十亿美元的芯片,其成本必须在芯片几年的使用寿命内得到消化。同样,电力消耗也增加了碳足迹目标公司的成本和压力。

处理人工智能搜索查询的过程被称为“推理”,在这个过程中,“神经网络”模拟了人类大脑的生物学思维方式,能不断的从先前的训练中推断出搜索问题的答案。

相比之下,在传统的搜索方式中,谷歌的网络爬虫会扫描存储了互联网以编制信息索引。当用户键入查询时,谷歌会提供存储在索引中的最相关答案。Alphabet的Hennessy表示,“必须降低运行AI“推理”过程的成本开销”,并称这是近两年行业的共同“难题”。

据悉,尽管代价高昂,Alphabet仍面临着竞争对手挑战的压力。本月早些时候,微软(MSFT.US)宣布了将人工智能聊天技术嵌入其必应搜索引擎的计划,据Similarweb估计,微软瞄准了谷歌91%的搜索市场份额。

微软首席财务官Amy Hood称,随着新的必应搜索向数百万消费者推出,用户和广告的收入将覆盖超过了成本支出。“这对我们来说,即使是以服务成本为代价,但能给公司业务毛利率提供增量”。

谷歌的另一个竞争对手、搜索引擎You.com的首席执行官Richard Socher也表示,添加人工智能聊天体验以及图表、视频和其他生成技术的应用程序,会使企业的成本费用增加30%至50%。但其指出:“随着时间的推移,使用AI技术的成本会越来越低。”

另一方面,一位接近谷歌的消息人士警告称,现在准确确定AI聊天机器人的成本开销还为时过早,主要由于效率和使用情况因所涉及的技术仍有很大差异。

埃森哲首席技术官Paul Daugherty表示,科技行业内拥有数十亿用户的搜索和社交媒体巨头没有在一夜之间推出AI聊天机器人的主要原因之一就是支付成本账单的问题。他指出:“一是搜索的准确度,二是行业必须以正确的方式来衡量成本开销的问题。”

多年来,Alphabet的研究人员一直在研究如何以更廉价的成本训练和运行大型AI语言模型。一位行业内高级技术主管表示,人工智能在数百万消费者手中的使用成本仍然过高。“这些AI模型的运行维护非常昂贵,因此行业下一阶段的推进将是降低训练这些AI模型和运行推理的成本,以便我们可以在每个应用程序中使用。”

一位知情人士表示,目前,OpenAI内部的研究人员已经找到了如何通过复杂的代码优化推理成本的方法,从而使芯片更高效地运行。但OpenAI的发言人没有立即置评。

其中,一个长远的问题是如何在不损失准确性的情况下,将人工智能模型中的参数数量减少10倍甚至100倍。

“如何最有效地剔除(参数),这仍然是一个悬而未决的问题,”Naveen Rao指出,其曾负责英特尔的人工智能芯片部门,现在正通过他的初创公司Mosaic ML致力于降低人工智能的计算成本。

此外,有企业也正考虑对访问收费,例如OpenAI增加了每月20美元的订阅服务,以为用户提供更好的ChatGPT服务。技术专家还表示,一种解决方法是将较简单的人工智能模型应用于更简单的任务,而Alphabet正在探索这一点。

该公司本月表示,其大规模LaMDA人工智能技术的“简单模型”版本将为其聊天机器人“巴德”赋能,“所需的计算能力将大大降低,使其能够覆盖到更多用户”。

当被问及运行像ChatGPT和“巴德”这样的AI聊天机器人时,Hennessy表示,使用更有针对性的技术模型,而不是在一个系统提供所有服务,将有助于“降低成本”。

THE END
免责声明:本文系转载,版权归原作者所有;旨在传递信息,不代表亚设网的观点和立场。

2.jpg

关于我们

微信扫一扫,加关注

Top