ChatGPT服务器被挤爆,两天宕机五次,免费版还能撑几天?

2023-01-11 15:53:20来源:36氪

自2022年11月30日开放注册以来,ChatGPT已收获了超过100万用户,日峰值请求数也已达到数亿级别。

终于,在庞大用户群涌入的情况下,ChatGPT还是崩不住:宕机了。


(资料图片)

虽然宕机了,ChatGPT还是给我们留下了一首藏头诗,深藏功与名。

更有网友发现,它还给我们唱了一首rap!

宕机了还在坚持唱跳和Rap的ChatGPT,实在是感人hhhhh。

美国科技网站Gizmodo作者Lucas Ropek则表示,从上周三开始ChatGPT就开始出现响应迟钝的问题:

根据数据监测网站Down for Everyone or Just Me的消息,本周一在网友投诉问题后八小时发生了宕机。

网站还整理了近期ChatGPT宕机的时间段,从1月9号到10号的这两天就有5次,停机时间最短几十分钟,最长14个小时。

其实,ChatGPT的计算成本太高的问题,很早就凸显出来了。

12月初,刚还沉浸在突破百万用户喜悦之中的OpenAI,就被网友一句「是不是永久免费」的询问泼了冷水。

首席执行官Sam Altman无奈地表示:「我们不得不在将来的某个时刻开启ChatGPT的收费模式」。

去年12月5日,从近期针对每日用量的限制也不难看出,OpenAI可能早就烧不起了。

恢复了,还发了新版本

好消息是,ChatGPT已经恢复运行,此外还在1月9号发布了更新版本。

这次更新内容包括对ChatGPT模型的优化,提升了更广泛主题下回答的真实性,还添加了停止生成 ChatGPT 响应的功能。

但由于需求量依然很大,历史对话暂时还不能访问。

下面是OpenAI的官网公告。

公告地址:https://help.openai.com/en/articles/6825453-chatgpt-release-notes

虽然是恢复了,但网友一直担心的收费问题却一直没有确切的答复。

网友:完了,要交钱了?

之前就有学者表示,ChatGPT的这种AI训练和产出结果的成本不是个小数目。

如果面向真实搜索引擎的以亿记的用户请求,假设继续采取免费策略,OpenAI无法承受。

但是如果采取收费策略,又会极大减少用户基数,是否收费是个两难的决策。

而如今随着ChatGPT激增的用户量,OpenAI自己也表示免费服务是不可持续的,收费已是必然趋势。

那来算笔账,OpenAI到底要花多少钱呢?

据AI行业数据分析师Tom Goldstein说,OpenAI每月至少花费300万美元用于运行成本。

ChatGPT托管在微软的Azure云上,因此,OpenAI无需购买设置物理机房。

按照目前的费率,微软对单个A100 GPU每小时收费3美元,在ChatGPT上生成的每个单词收费0.0003美元。

ChatGPT的回复通常至少有30个单词,因此ChatGPT的单个回复至少要花费公司1美分。

算下来一个月至少得花300万美刀。

网友Yusuke说,当你注册ChatGPT账号后,根据选择的套餐每月有固定的请求数量。

如果超过固定份额则会产生额外费用或者知道下个周期才能继续使用了。

网友纷纷表示,珍惜有免费ChatGPT的时候吧,真想回到ChatGPT免费无阻的2022年。

殊不知,推特上甚至有懂王教大家怎么用ChatGPT赚钱(手动狗头),一正一负抵消就不用担心收费问题了。

推文地址:https://twitter.com/AKASpencerScott/status/1612824072219463680

阅读量还真不低,白嫖党的福音来了!

推文地址:https://twitter.com/jspeiser/status/1609912415289761795

地址也放上面了,有兴趣的小伙伴学起来。

参考资料:

https://downforeveryoneorjustme.com/chatgpt

https://gizmodo.com/chatgpt-down-ai-chatbot-1-million-users-1849866029

标签:

上一篇:报道:游戏出海东南亚,正在加速内卷
下一篇:天天新消息丨精通指南:重复是不够的,变化性才是关键