微软产品将全线接入 ChatGPT,包括 Bing 以及 Office「全家 ...

论坛 期权论坛 股票     
期权匿名问答   2023-2-7 18:05   5973   5
根据国外科技媒体 Windows Central 报道,集成了ChatGPT-4的新版 Bing 今天曾短暂上线,部分幸运用户提前访问了新版 Bing。
通过学生兼设计师Owen Yin社交媒体上分享的截图,《每日经济新闻》记者看到,新版 Bing 在页面中不再仅仅只是一个搜索框,而是描述为“你身边的研究助理、个人规划师和创意伙伴”。
新版 Bing 和传统网络搜索引擎第一个主要区别是搜索框,它不是一个搜索栏,而是一个聊天框。它的尺寸要大得多,并且鼓励使用自然语言而不是关键字驱动的搜索词。你可以让 Bing 查找特定的主题或想法,甚至征求它的意见,它会在聊天气泡中回复你的问题。
据悉,新的 Bing 还能够根据您的想法调整其搜索查询。您可以用自然语言告诉它您的计划或要求,例如饮食需求或日程安排冲突,它会尽力考虑这些要求来调整搜索结果。
ChatGPT今天在Bing上的短暂露面并不算是空穴来风。
《每日经济新闻》记者注意到,上个月的瑞士达沃斯论坛期间,微软CEO纳德拉在接受华尔街日报访谈时就曾表示,AIGC(人工智能技术来生成内容)堪比工业革命,微软也将全线接入ChatGPT。微软正在迅速推进OpenAI的工具商业化,计划将包括ChatGPT、DALL-E 等人工智能工具整合进微软旗下的所有产品中,并将其作为平台供其他企业使用。这些产品包括且不限于Bing搜索引擎、包含Word、PPT、Excel的Office全家桶、Azure云服务、Teams聊天程序等等。
分享到 :
0 人收藏

5 个回复

倒序浏览
2#
期权匿名回答  16级独孤 | 2023-2-7 18:06:02 发帖IP地址来自 北京
最近看到chatGPT能直接接入meeting 和 zoom,就是开完会了,你有自动的会议纪要,会议todo list。
这个就不得了了。

将来加入到项目管理,估计就类似亚马逊或者谷歌,已经逐渐员工评估要全面自动化。
项目管理个人觉得会大飞跃。
因为这是国内弱项。

项目管理如果能形成标准模式,会成为excel,word 这样全球标准,世界更平了。

创业和angel VC会更加容易共识。
(这个就是团队执行能力,而这是创业最需要的之一。)
最近在国外融资,目前国外天使非常看重crowdfunding,最主要原因就是团队执行力能体现。
而之前天使投资最难,就是如何体现你团队的能力。

收费的chatGPT+项目管理标准,将来可能会独立成为第三方中立能力分数。

这样的话:
1,你coding能力,在你github 来确认。
2,你产品能力,crowfunding。
3,你项目执行能力,再加一个chatGPT管理的项目管理。
3#
期权匿名回答  16级独孤 | 2023-2-7 18:06:56 发帖IP地址来自 四川绵阳
我觉得应该会对内容相关领域会有范式级别的改变。
微软家族有些什么,比如PPT,Word,Excel,Outlook等等。


基本上所有的产品都围绕着一个词,内容。
意味着ChatGPT理论上可以附加到任意一个app上。
就比如说PPT,你列出大纲,它自动生成文本帮你填充,或者你把大段的文字粘贴上去,它帮你总结成几个关键点。
再比如word,可以做的事情太多了,自动添加参考文献,自动改写,自动纠错。
就连Excel很少有人会用的宏编程,在chatgpt的帮助下也变得简单了起来。



刚刚问的,暂时不用花钱

至于什么meeting会议软件,自动翻译,自动总结等等都不会在话下。
其实最大的痛点在于什么,说白了就是钱,因为它的每一次生成都需要计算资源。
而计算资源虽然是pay as you go,用多少花多少,但终究是要花钱的,理论上只要资源的成本足够低,别的人很难竞争的过。


你不觉得搜索页5,6,7,8,9,10多余了吗,我几乎不会点到后面的几页。
平凡:ChatGPT的三个有用Chrome插件集合
为什么生成式 AI 会变得火爆?
ChatGPT 有哪些神奇的使用方式?
平凡:ChatGPT最新线报:可以调用Stable Diffusion生成图片
为什么 ChatGPT 能够引发轰动?它在技术上与此前的人工智能产品有哪些不同?
平凡:OpenAI智能对话模型ChatGPT使用手册,妈妈再也不用担心作文和口语找不到模板了
4#
期权匿名回答  16级独孤 | 2023-2-7 18:07:32 发帖IP地址来自 中国
现阶段接入 Bing 和接入 Office 产生的影响大不同。主要原因还是模型能否在无监督的情况下给出准确的答案。
在搜索引擎的场景下,即便 Bing 的市场份额远远落后与市场领头羊,用户也对搜索结果页提供的答案具有相当高的准确性预期。可以问自己一个问题:在搜索结果第一页出现的信息准确率下降到什么程度时,你会弃用这个搜索引擎呢?可以在评论区回复你的答案。
ChatGPT 目前的聊天对话方式允许人类的参与和监督,对于不准确的信息做主观判断。这就像自动驾驶仍然需要人类驾驶员的干预一样。我们并非要求 AI 做到百分百准确,毕竟人类也做不到,但在特定的问题场景下,丝毫谬误可能产生灾难式后果。
而在 Office 场景下,因为人类的参与和监督,生成的内容会得到校准,这就大大降低了对短期内模型准确性的要求。
此刻,ChatGPT 展现出的能力让他看上去更像是一个赋能性技术 (enabling technolog) 而非替代性技术,也就是说对就业不会产生大规模的直接冲击。
而技术演进,日新月异,未来如何,尤未可知。
@机器之心 的文章已经提供了 Bing 中整合 ChatGPT 的截图,两个点值得注意:

  • Chat 和 Search 界面是独立的两个标签页。
  • ChatGPT 会列出引用了哪些来源以生成内容。



5#
期权匿名回答  16级独孤 | 2023-2-7 18:08:11 发帖IP地址来自 湖北
Office那边我不熟悉,只谈一下搜索。既然是搜索产品,那就要以搜索产品的标准来进行评判。OpenAI的人在推特上说ChatGPT目前推断一次的成本需要几美分,延时基本上以秒为单位。而通用搜索引擎(即所谓的“大搜”)的召回和粗排的在线计算成本几乎可以忽略,精排部分也比较轻量(注意跟电商和推荐的精排不一样),计算代价的大头主要来自于相关性模型(通常基于BERT/ERNIE等),主流的搜索引擎都要求网络条件良好的情况下不能产生用户可以明显感知的端到端推断延时。
据我了解,百度目前使用的是24层ERNIE,经过推断优化之后(百度有自己的飞浆框架)部署在单卡V100上,而Google应该是使用差不多或更大规格的BERT部署在自家TPU上。一般搜索引擎的相关性计算发生在粗排之后。我们假设取粗排结果的top50进行计算,每一个结果要求延时控制在20ms之内,那么一次query对应的GPU/TPU计算时间就是50X20=1000ms,正好是1s。
为了便于计算成本,这里我们直接以V100为例,阿里云上的一台V100实例的价格是每小时26.46元人民币,按秒计算的话就是每秒价格0.00735元人民币,不到一分钱。如果ChatGPT一次推断是3美分的话,按汇率6.8计算,那么ChatGPT一次推断的成本就是搜索引擎一次query的0.03*6.8/0.00735=27.75倍。
这个计算公式已经极大地有利于ChatGPT了——第一,企业自己采购的GPU,使用成本显然远远低于阿里云按小时计费;第二,如果愿意适当让步的话,那么BERT这个级别的模型的推断优化技术已经非常成熟了,不管是剪枝,量化还是蒸馏,都可以极大地降低计算负载,比如搜狗的做法是将模型蒸馏到4层TinyBERT,这样只要一块T4就可以支撑线上推断——而T4实例的价格最低可以压到每小时11元。综合下来,保守估计,搜索引擎一次query的在线计算成本可以压到ChatGPT的1%。
那么问题来了,站在用户的角度,ChatGPT每次推理,给你带来的收益,平均下来能达到搜索引擎的100倍么?站在企业的角度,ChatGPT的每次推理,能带来100倍于搜索query的收入么?这还仅仅是线上计算成本和收益的问题,以商业产品的视角来看,ChatGPT要作为产品进行大规模商用,要解决的远远不止成本这一个:并发访问量、推断延时、答案正确性保证、内容安全……如果一个产品需要付费使用,高峰期访问得排队,返回的答案还需要再去搜索一遍以确保它没有一本正经地胡说八道,那这个产品显然是没有多大的市场的。
上面的每一个问题都必须解决,每一个问题也都非常棘手——连学术界都没有摸到门路,更别提工业界了,根本不可能像某些人想象中那样“分分钟解决”。别忘了,LLM并不是今年突然冒出来的新东西——GPT-3在2020年就已经诞生了。当年BERT问世之后,仅仅一年多的时间配套的模型蒸馏技术就全面跟上了,基本解决了线上部署的问题——那么现在GPT-3面世两年多了,配套的“模型蒸馏”连个影子都没有。事实上,过去两年内对于LLM训练和推断代价过高的问题,整个工业界几乎是在原地踏步……
综上所述,ChatGPT,或者说类似的LLM,要实现有效的商业化应用,依然任重而道远。以AI技术的视角来看,ChatGPT确实是非常伟大的奇迹,但至少目前看来,它离“下一次革命”不说完全不沾边吧,至少也是有非常遥远的距离……
6#
期权匿名回答  16级独孤 | 2023-2-7 18:09:03 发帖IP地址来自 黑龙江大庆
我只说必应,而且是对搜索引擎领域的意义:喜忧参半,喜和忧都很严重。
首先是在信息查证方面意义重大。



图1 ChatGPT回答中用脚注的方式引用链接(@Owen Yin 在必应的截图)

如果直接使用ChatGPT,无法判断回答的内容是否正确。我曾经让ChatGPT推荐几本科普书,用豆瓣核实,发现它提供的4本书有3本根本不存在,剩下一本作者名称是错的。后来它还犯过一些类似“《鸡你太美》是蔡徐坤写的歌”的奇怪错误。(事实是,《只因你太美》是男团SWIN-S写的歌。)
集成的ChatGPT回答中用脚注的方式引用链接,可以方便地查证内容是否正确。作为一个写过维基百科的人,我想到它体现了“可供查证”思想,这是ChatGPT发布以来最大的进步。
当然,这些链接的可靠性和旧版必应差不多。
其次,对于被必应收录的网站来说,这可能是灾难。
在谷歌上输入一个问句时,有时谷歌会引用一段网站原文,再加粗标出问题的答案。如果输入的是一个词,可能会像图2一样放一个Q&A列表(用中文搜索不会出现)。



图2 谷歌搜索时出现的“其他用户还问了以下问题”(Google搜索截图)

其他搜索引擎也差不多。
这样方便用户无需点进网站就能知道答案,导致的是网站来自搜索引擎的流量减少。再加上各种原因,网站们越来越不希望自己的页面被搜索引擎索引,便通过robots.txt禁止索引。
你有没有发现搜索引擎找不到微博、淘宝、头条上的内容?这几个网站都早已禁止索引了。
导致的最终结果就是互联网孤岛化。各个网站只在自己内部引流,搜索引擎能搜到的东西越来越少,这就是为什么很多人觉得百度难用。
而直接就能出答案的ChatGPT无非会严重加剧这一点。世界互联网,即将迎来冲击。
我猜其他答主都不会提到这两点吧。可惜的是,多数人并没有关注信息来源的意识,也不知道互联网孤岛化。他们只是一边感慨AI的进步,一边咒骂百度的难用。
唉。
(两天前提过一个类似的问题,自问自答,无人访问。现在再发一遍。)
这里有一篇Medium上的文章,感兴趣而且会科学上网的人可以看看:
Oh the Things You’ll Do with Bing’s ChatGPT
How do I get the new Bing?
Once the feature is live, you can join the waitlist at http://bing.com/new. You’ll get an email when you’ve been granted access. Expect delays as Microsoft and OpenAI scale their servers.
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

积分:400157
帖子:80032
精华:0
期权论坛 期权论坛
发布
内容

下载期权论坛手机APP