您当前的位置:首页 > 电脑百科 > 人工智能

大模型(LLM)最新趋势总结

时间:2023-07-11 15:11:59  来源:企鹅号  作者: 鹤啸九天的科技思考

引言  

又几个月过去了,大模型(LLM)行业有什么新进展、新趋势?

(0)总结——太长不看

关键结论:

开源社区模型不具备真正智能,更好的小模型来自大模型的 Scale Down

GPT-4模型信息:采用MoE架构,16个experts,800b参数

如何减少幻觉 hallucination?scaling/retrieval/reward model

指令遵循的开源小模型被过度炒作,已经到达瓶颈,突破方向是更强的 Base Model 和更进一步的反馈数据

用不了多久,大家会把80%算力从 TrAIning 转向 Serving

预计未来模型的迭代节奏会很像手机系统:1-2 年更新一次大版本,中间有无数次小版本迭代;

中期来看,RLHF 不应该是 Alignment 的唯一手段, Direct Preference Optimization 和 Stable Alignment 是新路径

长期来看,小版本迭代的角度:隐私/权限的增强、更多的图片/文件/声音格式的 Embedding

LLM 的 Context Window 就像电脑内存,向量数据库是 LLM 的硬盘

Robot Learning 已成为学界主流研究路线

(1)上一期报告回顾

3个月前,文章(The Age of AI:拾象大模型及OpenAI投资思考)介绍了拾象投研机构对LLM的调研报告,内容涉及:

① 什么是大模型?LLM是新一代通用计算机,windows 95 级别的计算机平台;

② 从基础模型到 Killer Apps,价值链如何被分配?OpenAI、Anthropic 为代表的基础模型能力边界不断拓宽,占据价值链中最主要的环节;

③ 什么是 AI Native 应用?AI Native 应用不是语言模型的嵌套,而是对现有软件服务的重构;

④ LLM 浪潮下,科技巨头们是如何和 LLM 做结合的?顶级CEO 们对于 LLM 尚未形成共识,未来 6 个月是重要的窗口期;

⑤ OpenAI 为什么能够成为 LLM 最强王者?OpenAI 组织活力来自自上而下对 AGI 的坚定信仰、极高的人才密度,以及自下而上推动创新的实验机制。

具体来说,对于LLM的几个关键判断:

① LLM是计算机,而OpenAI的GPT系列将成为Windows 95级别的计算机平台

② LLM基础模型拿走价值链的大头(60%),其次是AI Infra基础架构、Killer Apps,各占20%。所以,大家纷纷发力训练大模型。

③ 从Mobile到LLM:大模型真正理解语言,数据组织效率和能力继续加强。人机交互方式开始迈入新时代(CUI对话交互)

④ LLM的边界:目前只是空有大脑,身体和感官还在逐步成长。

⑤ 下一步:给大脑装上感官(多模态)以及手脚(插件/AutoGPT之类)

另外,LLM之上的应用会是什么样?全方位的重构:交互、数据信息、服务以及反馈机制,一个可行的路子是AI Native软件开发——把已有应用按照LLM的能力图谱重新设计一遍,对话式交互(CUI)走到前台。

相对于应用层,未来3-5年,AI-Infra的确定性机会更多,体现在模型层和工具层的各类应用。

(2)最新报告:State of LLM

6月29日,时隔3个月,拾象投研团队再次发布LLM调研报告:State of LLM

精简总结如下(原始报告获取方式见尾部附录)

继续看好LLM,如火如荼、大动干戈的“千模大赛”到底在争什么?下一代超级入口!

目前,OpenAI、Anthropic和google处于第一梯队。

报告甚至将LLM训练复杂度比作“造原子弹”,每次发布堪称“登月”,有些夸张,但LLM训练确实不容易。

过去的几个月时间,已经很多家公司发布自己的大模型,各有特色,灿若繁星:

开源系列羊驼大家族最为耀眼,英文名已经“售罄”。

更多介绍见前文:ChatGPT复现: 三步走+大模型进化图谱

其中不少LLM宣称达到或趋近ChatGPT/GPT-4的80-90%,大家也都体验过,可圈可点

上次的有偏评测(约120道题)中,初步探了探底:

详见文章:千模大赛哪家强?大语言模型中文评测实践。

报告里关于LLM训练的事实和观点:

预训练:GPT系列的成功主要源自于小创新,训练数据远超过其他大模型。

微调:GPT并非采用预训练一体的模型结构。

奖励模型:OpenAI 数据飞轮效应有限,外部数据标注分散给多家公司。

至于稳坐神坛的GPT-4,这次报告明确指出:GPT-4采用MoE架构,16个experts,800b参数,“吃掉”30T数据,训练消耗5万张A100,推理用了3-4万A100。而这只是开始,下一代模型重点是多模态,消耗的资源将更大更多,10万张H100!

至于业界普遍看好的开源模型,这次报告波了盆冷水:开源社区模型不具备真正智能,更好的小模型来自大模型的 Scale Down

同时,报告还指出:指令遵循的开源小模型被过度炒作,已经到达瓶颈,突破方向是更强的Base Model 和更进一步的反馈数据。

LLaMA+指令微调≠GPT 3.5

怎么办?开源社区开始“分工协作”,转向 pre-train环节。

至于,盛传的“开源大模型才是未来的赢家”,大家态度截然相反,客户坚信,而研究者悲观,算力、数据、时间差以及全栈产品链,不是一般开源组织玩得起的。

千模大赛还在继续,热潮还会持续多久?过于关注训练会不会浪费资源?

跟风而上的浪潮终究会退下,到时候,少数人成为弄潮儿,而多数人被淹死,成为他人谈资。

大模型训练尘埃落定后,新的浪潮是什么?大模型应用,其中 Serving 是个难题。

报告里分析了什么时候80%算力从 Training 转向 Serving?要看用户群体,B/C/G 时间点各不相同。

B/G:私有化部署和小语种模型

C:终端推理解决隐私问题

产品上,目前主要简单辅助,多模态、复杂推理问题解决后,才会带来质的飞跃。

成熟期时间轴上的刻度依次是 长程窗口、多模态、小模型天花板、模型压缩等,B/C/G侧应用随之逐步展开,Serving时刻到来。

预计未来模型的迭代节奏会很像手机系统:1-2 年更新一次大版本,中间有无数次小版本迭代;

中期来看,RLHF 不应该是 Alignment 的唯一手段, Direct Preference Optimization 和 Stable Alignment 是新路径

长期来看,小版本迭代的角度:隐私/权限的增强、更多的图片/文件/声音格式的 Embedding

LLM 的 Context Window 就像电脑内存,向量数据库是 LLM 的硬盘;因而,向量数据库成为LLM领域应用的必备工具,大量vector store厂商成为投资热门。

LLM应用新趋势:LLM扮演system 1,负责快思考,而LLM的Agent助手扮演system 2,负责慢思考(理性推导)

报告还提到了经典的幻觉问题:

幻觉原因:模型学习了错误信息,模型只善于模仿语言风格,而不能良好地判断正确的信息

如何减少幻觉(hallucination)?

方法有:scaling/retrieval/reward model

① scaling:大模型小型化,降低幻觉频率

② retrieval:通过检索融入事实信息,纠正幻觉

③ reward model:用奖励模型来鉴别幻觉

有了大模型的加持,学术界已经把Robot Learning 做为主流研究路线

LLM+Robotics=?

软件上,机器人大脑大幅升级;

硬件上,人形机器人热度再起。



Tags:LLM   点击:()  评论:()
声明:本站部分内容及图片来自互联网,转载是出于传递更多信息之目的,内容观点仅代表作者本人,不构成投资建议。投资者据此操作,风险自担。如有任何标注错误或版权侵犯请与我们联系(Email:2595517585@qq.com),我们将及时更正、删除。
▌相关推荐
引言 又几个月过去了,大模型(LLM)行业有什么新进展、新趋势?(0)总结——太长不看关键结论:开源社区模型不具备真正智能,更好的小模型来自大模型的 Scale DownGPT-4模型信...【详细内容】
2023-07-11  Tags: LLM  点击:(0)  评论:(0)  加入收藏
作者 | 茹炳晟,腾讯 Tech Lead1 LLM 在软件开发过程中的单点提效 LLM 对软件研发的单点提效,我之前录制过一段视频,大家可以直接观看,里面有详细的演示,我在这里就不再赘述了。...【详细内容】
2023-07-10  Tags: LLM  点击:(0)  评论:(0)  加入收藏
作者:董倩倩近年来,大规模语言模型(LLMs)建模在 NLP 领域取得了许多突破,特别是 ChatGPT 的成功,正引领大家迈入一个新的 AI 时代。截止目前,基于 encoder-decoder 框架的模型在语...【详细内容】
2023-06-21  Tags: LLM  点击:(23)  评论:(0)  加入收藏
今年以chatGPT代表的AI大语言模型开始崛起,并且让AI重新进入并且开始影响甚至是改变人们的日常生活。chatGPT的强大足以让人们已经相信AI取代人已经开始走上日程,那么这波由LL...【详细内容】
2023-04-04  Tags: LLM  点击:(140)  评论:(0)  加入收藏
Pine 发自 凹非寺量子位 | 公众号 QbitAIGPT-4再度进化!加上一个简单方法,就能让GPT-4这类大语言模型学会自我反思,性能直接 提升30%。在此之前,大语言模型回答出错,经常是二话不...【详细内容】
2023-03-26  Tags: LLM  点击:(76)  评论:(0)  加入收藏
“北风那个吹,雪花那个飘”,我手捧一杯咖啡,听着白毛女。朋友坐在对面高谈阔论:“有了 ChatGPT,我再也不缺内容了,SEO 的春天就要来了!”然而他没有看到真相是 —— Chat...【详细内容】
2022-12-28  Tags: LLM  点击:(167)  评论:(0)  加入收藏
▌简易百科推荐
引言 又几个月过去了,大模型(LLM)行业有什么新进展、新趋势?(0)总结——太长不看关键结论:开源社区模型不具备真正智能,更好的小模型来自大模型的 Scale DownGPT-4模型信...【详细内容】
2023-07-11   鹤啸九天的科技思考  企鹅号  Tags:LLM   点击:(0)  评论:(0)  加入收藏
最近,ChatGPT对GPT Plus用户开放了Code Interpreter功能,这次看起来并没有掀起很多讨论,可能是Code Interpreter这个名字起的太差了。简单的说,这个功能就是一个在ChatGPT上的代...【详细内容】
2023-07-11   TechVerse  企鹅号  Tags:ChatGPT   点击:(0)  评论:(0)  加入收藏
2023世界人工智能大会上多家企业展示AI大模型产品和应用出品 | 搜狐科技作者 | 梁昌均编辑 | 杨锦“看得多、投得少”,“观望气氛比较浓厚”。谈及投资机构今年对AI大模型创...【详细内容】
2023-07-11    搜狐科技  Tags:AI大模型   点击:(2)  评论:(0)  加入收藏
作者:范昕茹 来源:IT时报2023年是亚马逊云科技进入中国的第十年。十年间,亚马逊云科技见证了中国云计算产业的萌芽,并通过持续引进云计算的最新技术和理念,助力中国千行百业的数...【详细内容】
2023-07-11    IT时报  Tags:AIGC   点击:(2)  评论:(0)  加入收藏
撰文 | 文烨豪来源 | 光子星球过去两年,消费电子赛道始终被笼罩在长夜之中,任由刺骨的寒风呼啸而过——纵使是苹果这样的赢家,也试图通过Vision Pro开启新故事。然而...【详细内容】
2023-07-11    光子星球   Tags:AI   点击:(2)  评论:(0)  加入收藏
2023世界人工智能大会虽然已经闭幕,但由ChatGPT掀起的大模型热潮还将继续涌动,人工智能的布局和探索也将是近些年的一大主题。“先上牌桌”“抢下先手棋”是掀起这一轮“百模...【详细内容】
2023-07-11    国际金融报  Tags:AI   点击:(4)  评论:(0)  加入收藏
译者 | 李睿如今,很多企业高管都将人工智能视为未来发展方向,许多技术领导者也将ChatGPT视为人工智能的代名词。但是OpenAI的旗舰产品ChatGPT并不是唯一的大型语言模型—...【详细内容】
2023-07-10    51CTO  Tags:大型语言模型   点击:(5)  评论:(0)  加入收藏
2023年7月7日,华为开发者大会2023(Cloud)7月7日在中国东莞正式揭开帷幕,并同时在全球10余个国家、中国30多个城市设有分会场,邀请全球开发者共聚一堂,就AI浪潮之下的产业新机会和...【详细内容】
2023-07-10  环球Tech    Tags:盘古大模型   点击:(6)  评论:(0)  加入收藏
ChatGPT推出至今 最强最有用的功能是什么?可能要非 代码解释器(Code Interpreter)莫属了。这项功能下周才会正式向所有Plus用户开放,但不少提前进行测试的网友都不约而同地发现:...【详细内容】
2023-07-10    量子位  Tags:ChatGPT   点击:(8)  评论:(0)  加入收藏
作者|卓心月出品|零态LT(ID:LingTai_LT)大模型从概念到落地,到底有多快?近期科技圈最引人注目的2023世界人工智能大会(WAIC 2023),给出了让所有人震惊的答案:半年!半年,对于任何一个科技...【详细内容】
2023-07-10    零态LT  Tags:大模型   点击:(7)  评论:(0)  加入收藏
站内最新
站内热门
站内头条