今日热讯:微软欲用 ChatGPT 扶必应“上位”,对抗 Google
一直以来,Google 搜索引擎的市场占比一骑绝尘,让很多竞争者望而却步。
不过,现如今,随着一种名为ChatGPT聊天机器人的到来,在现身吟诗、写代码、编段子,甚至还上线司法考试现场的一个多月时间里,让Google 敲响警铃,更有多方媒体报道,Google 内部正拉起了一道「红色代码警戒」(Code red),担心 ChatGPT 将对 Google 搜索引擎的未来带来巨大挑战。
与之形成鲜明对比的是,排在第二位且占比仅有 3.04% 的 Bing 显得悠然自得一些。据外媒 The Information 最新发布的一篇报道显示,微软可能会在 2023 年 3 月之前在 Bing 中应用 ChatGPT,用人工智能来回答一些搜索查询。
(资料图片)
微软的先见之明微软与 ChatGPT 背后的开发商 OpenAI 之间的合作关系早已不是什么秘密,现如今回过头来看,不少人敬佩起微软的先见之明。
创立于 2015 年的 OpenAI,自诞生之日起,便以促进和发展友好的人工智能为目标。时至今日,其相继推出了 GPT-3、DALL·E 2、ChatGPT等重磅模型,推动了人工智能一次又一次地成功落地。
然而,起初作为一家非营利机构,OpenAI 并没有找到自身的营利模式。
宛如其对标的 Google 旗下的 Deepmind 部门,也曾一度陷入到亏损、负债的迷茫中。彼时,据《彭博社》报道,2018 年,谷歌母公司 Alphabet Inc. 收购的人工智能公司 DeepMind 的收入几乎翻了一番,但却因为亏损增至数十亿美元,收益情况不容乐观。一直以来,DeepMind 的盈利能力依然备受质疑。
处于同一起跑线的 OpenAI 亦然也会面临“囊中羞涩”的尴尬问题。
不过,好在最初名不经传的 OpenAI 带着马斯克的光环,渡过了研发的第一阶段。而后支撑到了2019 年 3 月,OpenAI 也为其可持续开发做了打算,并成立了 OpenAI LP 子公司,主要目的就是为营利。
也是在这一年,OpenAI 的发展引起了微软的注意,随后的7 月,微软宣布向OpenAI 投资 10 亿美元,双方携手合作替 Azure 云端平台服务开发人工智能技术,与此同时,OpenAI 也将用这笔巨款进一步推进通用人工智能(AGI)的研究。
2020 年时,我们只知晓,在 OpenAI 推出 GPT-3 语言模型时,微软于当年的 9 月 22 日取得独家授权。
当前,随着 The information 的报道,更多的细节被曝光出来,其中便包括早在 2019 年,微软在对 OpenAI 的投资包括了一项将 GPT 的某些方面纳入 Bing 中的协议。
Bing 将加入ChatGPT 功能具体来看,旧版本的 GPT 可以在用户输入时,自动提供搜索查询建议。如今,微软已经宣布计划将Dall-E 2 模型集成到 Bing Image Creator 中,方便用户可以在其中发出描述性文本提示并生成 AI 图稿。
据 The information 报道,有直接了解情况的人士称,微软即将发布的公告将揭示更多有意义的功能。
那么,如果搜索引擎引入 ChatGPT 聊天机器人,那么又将会以什么样的形式呈现?
据悉,这些AI 支持的答案可以采用包含信息来源的完整句子的形式呈现,而不是引用可能解决用户提出的问题来源或者链接列表的精选片段。
不过,“Bing 仍将依靠自己的技术来产生大部分搜索结果”,因为 GPT 并不意味着“像搜索引擎那样持续抓取网络或提供实时信息”。同时,Bing 如何确保答案的准确性还有待观察。
The Information 称这“可能会在今年 3 月底之前推出”,而 Bing 可能被定位为“免费访问部分 GPT 的唯一方式”。因为按照 OpenAI 的计划,他们将会对 ChatGPT 采取收费政策,对此,外媒也将微软评价为“为初创公司的云账单买单”的企业。
ChatGPT,为“杀死”传统搜索引擎而生?不过,微软此举能否让 Bing 逆袭“天下第一”的 Google 搜索引擎,很多网友表示:期待。
但也有不少人持怀疑态度,甚至还发起了一项投票:
为此,用户层面也形成了两个主要观点:
其一,支持 ChatGPT 会打破传统搜索引擎的市场格局。
过去一个月期间,朋友圈一次又一次地刷屏,ChatGPT 的火爆程度有目共睹。
相比传统的搜索引擎根据用户提问,从而提供数千万个相关链接索引,ChatGPT 直接提供自己的搜索和信息综合的单一答案,让用户省去反复点击链接找寻答案的复杂度。
正是基于这一点,很多人坚信 ChatGPT 会面向传统搜索引擎发起挑战。
其二,ChatGPT 想要取代 Google 非常牵强,至少目前看来,不可能。
为了论述这一观点,外媒 TechTalks 此前也专门发布了一篇《为什么 ChatGPT 不会对 Google 搜索构成威胁》的文章,从大型语言模型(LLM)的真实性、更新、速度与商业化的角度进行了剖析。
真实性无法保证。
用 ChatGPT 作为辅助性建议的提供者,其实一点问题都没有。但是在学术、科研等严谨的应用场景中,ChatGPT 提供的答案并不一定都是正确的。解决 ChatGPT 输出的真实性将会是一项重大的挑战,不过,目前并没有办法从 ChatGPT 的输出中分辨真伪,除非你用其他来源(如 Google)来验证答案。
然而,如果要使用大型语言模型来替代搜索引擎,此举未免有些弄巧成拙。
也许有人会说,Google 这类的搜索引擎未必也会提供 100% 正确的答案,为什么不能对 ChatGPT 包容一些?
其实,Google 这类的搜索引擎至少为用户提供了可以验证的来源链接,但ChatGPT 只提供纯文本,不引用实际网站。虽然目前也有不少人将 LLM 输出的不同部分链接到实际网页,但这是一项复杂的研究工作,当前还无法通过纯粹的基于深度学习的方法来解决。
更新模型的成本太高
ChatGPT 和其他 LLM 面临的另一个挑战是更新他们的知识库。
搜索引擎的索引其实可以实时更新,也更为方便快捷一些,但对于大型语言模型而言,添加新的内容需要重新训练模型。
也许不是每次更新都需要完全重新训练模型,但是相比搜索引擎,其添加或者修改训练数据的成本都更昂贵。
据外媒报道,基于 GPT 3.5,ChatGPT 可能至少有 1750 亿个参数。由于没有可以适合该模型的单个硬件,因此必须将其分解并分布在多个处理器上,例如 A100 GPU。设置和并行化这些处理器以训练和运行模型既是技术挑战,也是财务挑战。
速度挑战
LLM 也有推理速度问题。搜索引擎不需要为每个查询浏览整个数据集。他们有索引、排序和搜索算法,可以以非常快的速度查明正确的记录。因此,即使在线信息量在增长,搜索引擎的速度也不会下降。
不过,LLM 每次收到提示时都会通过整个神经网络运行信息。其计算量要比搜索引擎的查询索引多很多。鉴于深度神经网络的非线性特性,推理操作的并行化程度是有限的。随着 LLM 训练语料库的增长,模型也必须变得更大,才能很好地泛化其知识库。
商业模式
目前,ChatGPT 还处于测试阶段,并没有落地的商业模式。不过此前据 TechCrunch 估计,拥有 100 万用户的 ChatGPT 每天花费 100,000 美元,每月花费约 300 万美元。
不难计算出如果全球的用户每天运行 80 亿次搜索查询时会发生什么。此外,再加上定期训练模型的成本,以及通过强化学习和人工反馈对模型进行微调所需的体力劳动。
综上而言,如果以单一的 ChatGPT 来对抗 Google 搜索引擎,也许胜算很小,甚至可以忽略不计,但是当下 Bing 的入局,而且按照微软的初步计划,其主要是将 ChatGPT 作为 Bing 的辅助功能,让二者相结合起来的模式,推动 Bing 的上位。
这让 Google 还在深陷于「自家也有类似于 ChatGPT 的能力人工智能语言模型 LaMDA ,但由于该技术带来的"声誉风险",公司不得不采取“比小型创业公司更保守的行动”」中,处于被动的位置。
这也为谁能笑到最后的搜索引擎战局,打上了一个问号。
参考:
https://datasciencelearningcenter.substack.com/p/could-bing-disrupt-google-with-chatgpt
https://9to5google.com/2023/01/03/bing-chatgpt-report/
https://bdtechtalks.com/2023/01/02/chatgpt-google-search/
标签: