新必应聊天机器人“翻车”的锅OpenAI可能不用背 微软或许还调用其它模型
很多人认为想要免费体验OpenAI 最强大的 AI 模型 GPT-4的话,可以通过使用微软Bing 聊天机器人实现。不过,有报道称,Bing 聊天机器人生成的结果并没有全部是使用GPT-4。据推测,出于成本原因,微软还使用了其Turing语言模型代替,这可能会影响某些响应的质量。
在推出大约三个月后,Bing 聊天机器人仍然容易出错并给出不可靠的答案,比OpenAI 的原始ChatGPT更容易出错。现在有一个可能的解释:Bing 聊天机器人并没有一直使用 OpenAI 的 AI 模型。
微软在服务发布时表示,新的 Bing 由名为 Prometheus 的人工智能模型提供支持。该系统将答案归类为“简单”的问题分配给微软的Turing语言模型,搜索和人工智能主管 Jordi Ribas 在接受Wired采访时表示。
正如微软在登陆页面上解释的那样,Turing模型也是 Bing 搜索结果不可或缺的一部分。据微软称,他们负责排名、自动完成和评估广告的相关性等。
AI 初创公司 Silo AI 的创始人 Peter Salin 表示,第一个答案通常由Turing模型给出,但进一步的查询会产生更好的结果,因为它们将由GPT-4处理。通过这种方式,Microsoft 可以节省计算成本。
Ribas 否认 Bing 聊天机器人的初始答案通常质量较低的观点。他说,不准确的答案更有可能是由于用户最初的查询缺乏上下文。
GPT-4的运行成本很高
OpenAI 尚未公布 ChatGPT 的收入和支出数据。研究公司 SemiAnalysis 的分析师 Dylan Patel 估计,ChatGPT 目前每天花费 OpenAI 约70万美元,或每个请求36美分,每月总计超过2亿美元。
OpenAI通过付费API赚钱,尤其是GPT-4API价格昂贵,而ChatGPT Plus订阅模式每月20美元,这是通过ChatGPT访问GPT-4的要求。目前尚不清楚OpenAI是盈利还是亏损。
根据SimilarWeb 的预测,1月份大约有1亿活跃用户。从这个数字计算的话,如果其中约10% 的人购买付费帐户,那么仅靠 ChatGPT 的运营就可以大致收回成本。当然这样的计算方式并不是很靠谱。
据 The Information 报道,高昂的计算成本主要是由于使用了耗电的 Nvidia 显卡,微软计划将其替换为自家的 AI 芯片。与此同时,该公司为 ChatGPT 和 Azure 上的类似服务提供基础设施,显然正试图尽量减少昂贵的 GPT-4的使用。
- 0000
- 0000
- 0000
- 0000
- 0000