都可赋予大模型慢考虑才能 360创始CoE架构比美OpenAI o1思想链形式

09-16 396阅读 0评论

  9月13日,OpenAI发布具有推理才干的人工智能模型“o1”,备受职业注目。o1通过仿照人类的思想过程,强化学习和“思想链”技能,引导模型自主处理问题。这一特色在处理杂乱问题,尤其是在科学、编码和数学等范畴,展示出了逾越以往模型的强壮才干。

  据了解,o1和GPT系列模型最大的差异首要在于,该系列模型是在考虑之后答复用户问题,输出高质量的内容,而非敏捷回应无效答案,即用仿照人类思想过程的“慢考虑”替代曩昔寻求快速呼应的“快考虑”,这与国内一家大模型企业在近两个月前提出的观念不约而同——早在本年7月底举行的ISC 2024大会上,360集团创始人周鸿祎就宣告,360将“用依据智能体的结构打造慢考虑体系,然后增强壮模型的慢考虑才干”,并在近期屡次着重,将“运用智能体结构,让大模型从快考虑转成慢考虑形式,把多个大模型组合起来处理事务问题”。

  关于o1的推出,周鸿祎在其最新发布的短视频中表明,曩昔建立在大参数、大数据量的模型技能演进总算找到了新的打破方向,也为下一个阶段人工智能的前进和运用拓荒了巨大的空间。“o1不是像大模型相同用文字来练习,而是像自己和自己下棋相同,通过强化学习来完成这种思想链的才干”,周鸿祎说。

  周鸿祎用“快考虑”和“慢考虑”两项人类具有的才干对思想链强壮的原因进行了解读。他指出,快考虑的特色是快速直觉、无意识,反响很快但才干不行强。GPT类大模型通过练习许多常识,首要学习的是快考虑才干,这也是为什么GPT类大模型信口开河的答案质量不行安稳,“就像人相同,一挥而就七步之才而不犯错十分难完成”;慢考虑的特色则是缓慢、有意识、有逻辑性,需求分许多过程,相似写一篇杂乱的文章,要先列提纲,依据提纲去搜集数据,搜集资料,依据资料进行评论,再把文章写出来,还要进行润饰和修正。“这一次o1具有了人类慢考虑的特质,在答复问题前会重复地考虑,拆解、了解、推理,可能会自己问自己1000遍,然后才干给出终究的答案。”

  不过,虽然在“慢考虑”才干上取得了巨大打破,o1仍然难称完美。据媒体报道,现在的o1-preview版别仍旧存在错觉问题、运转速度较慢及本钱昂扬等许多局限性,约束了其运用规模。与之比较,更早提出“慢考虑”概念的360通过其创始的CoE(Collaboration of Experts,专家协同)技能架构及混合大模型对“慢考虑”进行落地实践,该技能架构已落地在360 AI查找、360 AI浏览器等多款产品中。AI帮手通过CoE架构还接入了许多小参数专家模型,在答复简略问题时调用更精准的“小模型”,在取得高质量答复的一起还能节省推理资源、提高呼应速度,完成对“慢考虑”过程中速度过慢等问题的改善。

  据了解,近期有国内技能团队通过将思想链优化为CoE协同作业形式,运用恣意三个模型协同作业达到了和OpenAI o1-preview相似的反思决议计划作用。通过21道杂乱逻辑推理题测验成果显现,其作用与OpenAI o1-preview适当,彻底逾越GPT-4o,有时还能逾越o1-preview。

  “所以,今后比的不是多快能给你答案,而是给的答案完不完整,这也会改动人工智能服务的业态,人工智能到最后仍是要参阅人类大脑的组成来结构作业形式”,周鸿祎说。 【修改:邵婉云】

发表评论

快捷回复: 表情:
评论列表 (暂无评论,396人围观)

还没有评论,来说两句吧...

目录[+]