尽管如此,不过三四天时间◆◆■■★,就已经有研究者宣称已经成功复现/开发出了与 ο1 性能差不多的推理技术◆■◆■★■,并且还不止一个★◆■■◆!
什么是思维链?Bowling 在博客中打了个比方:「思维链推理就像是给 AI 一个笔记本来展示其工作过程。其中不仅仅是简单地给出答案,而是会带领我们经历其思维过程。」
Llamaberry 能教会 AI 透彻地思考,就像是一位人类专家攻克难题时那样◆■◆★★。
本文为澎湃号作者或机构在澎湃新闻上传并发布,仅代表该作者或机构观点◆■◆,不代表澎湃新闻的观点或立场,澎湃新闻仅提供信息发布平台★★■。申请澎湃号请用电脑访问。
最后◆■■,顺便一提■★★◆◆,另有开发者发布了 g1 的分支版 Mult1bst2222全球奢华游戏,该版本的一大改进是可使用多个 AI 提供商来创建类似 o1 的推理链■■★★■,感兴趣的读者可访问■◆★★★■:
这就是提供给 AI 大厨的菜谱★★★◆。它知道需要逐步分解其思考过程并解释每个步骤,并且以 Markdown 格式将它们显示出来。
Llamaberry 也很容易使用■★■★★◆,点击几下就能拥有你自己的多轮推理系统★★◆◆。步骤如下◆■★◆★■:
开发者宣称 g1 有 70% 的时间能成功数出 Strawberry 中有多少个 R,同时无需任何微调或少样本技术★■◆■★◆。下面是其一次执行过程◆■★:
北京时间 9 月 13 日午夜◆◆■■,OpenAI 发布了推理性能强大的 ο1 系列模型。之后,各路研究者一直在尝试挖掘 ο1 卓越性能背后的技术并尝试复现它。当然■★◆,OpenAI 也想了一些方法来抑制窥探,比如有多名用户声称曾试图诱导 ο1 模型公布其思维过程,然后收到了 OpenAI 的封号威胁。
了解了 Llamaberry,下面来看另一个号称实现了类 o1 推理链的项目:g1★★★■。
因此★★,这种技术可让 AI 进入更多实际应用场景,比如医疗诊断、法律分析★★■◆★、科学研究、商业策略、教育◆★★■■★。当然,在使用 Llamaberry 等多轮推理系统时,也需要注意它们的局限和潜在的道德伦理问题■◆■★★◆,比如偏见、计算成本、过度依赖和隐私问题。
创建模板分支:点击 Fork 按钮创建你自己的 Llamaberry 项目副本。
Llamaberry 的核心思路是使用思维链(CoT)来实现推理。这个名字自然源自代表 o1 模型的 Strawberry(草莓)◆■★■。
这里他采用了一个简单示例◆◆■■★,即询问 AI:「人工智能对就业市场有什么潜在影响?」
该函数是多轮推理的核心。它决定我们是在第一轮还是在后续轮,并以此构建提示词■◆■。对于后续轮,它会将之前所有推理轮都包含在上下文中◆★,让 AI 可以基于之前的思考进行构建。
开发者 Klieger 表示,g1 和 ο1 一样能让 LLM 有能力「思考」和解决之前的领先模型难以应对的逻辑问题。但不同之处在于,g1 会大方地展示所有推理 token◆◆■★★★。同时,他也强调了 g1 和 ο1 在技术上的差异■★★,其中后者使用了大规模强化学习来执行思维链推理◆■。而 g1 则是通过发掘提示词工程的潜力来帮助 LLM 解决简单的逻辑问题,让现有的开源模型也能受益于动态推理链和优化般的探索界面。
开始实验◆★★★:应用运行起来后★■★◆,你将看到一个 Gradio 界面。你可以在其中输入问题并查看 Llamaberry 多轮推理的实际效果!并且输出是简洁漂亮的 Markdown 格式!
Bowling 表示,这样的多轮推理在思考深度、自我提升、透明度、灵活性等方面都有巨大优势,同时其还采用了 Markdown 格式,使其结果更容易阅读和用于后续流程。
在每个步骤中,LLM 可以选择是继续进行另一个推理步骤,还是提供最终答案。每个步骤都有标题,并且对用户可见■★★★■★。
在每一轮推理中,都需要让 AI 对问题进行思考■■★★★。但在第一轮结束后,还需要求它思考之前已经思考过的东西。这就像问朋友,「嘿,还记得你之前说过什么吗?让我们再想一想。」
这样一来★★★,通过组合思维链以及尝试多种方法◆■■◆■、探索其它答案★★■、质疑之前草拟的解答、考虑 LLM 的局限性等策略■★■★★★,就能显著提升 LLM 的推理能力◆■★。
设置环境:在你的分支 Replit 项目中,找到「Secrets」选项卡。添加一个新密钥,密钥为 GROQ_API_KEY★★◆◆◆,值是你的 Groq API 密钥■■■★◆。
经过三轮思考之后,再让 AI 检视其所有思考并得出一个合理的最终答案。这就像是让专家讨论问题◆■■★■◆,然后编写最终报告。
可以看到★■◆■◆◆,多轮方法能实现更加精细、全面的分析■◆■◆◆。这能从多个角度考虑问题,优化其思考,最后得到更加深思熟虑和全面详细的答案。
可以看到,前一轮的输出会成为后一轮的输入,从而让 AI 可在每个阶段不断完善其思维■★★◆■。最后■◆◆★★,所有这些思考会凝练成一个合理的最终答案。就像看着一枚莓果逐渐成熟!
多轮推理■★■◆★,顾名思义,就是让模型在给出答案之前进行多步思考,而不是一步给出答案。打个比方,这就像是看一位大厨从备菜到完成摆盘一步步地完成一道精美菜肴,而不是直接微波加热预制菜。
不同于 Llamaberry 使用的多轮思维链推理,g1 的策略是角色扮演◆★◆★、思维链提示 ★★★、格式化以及另一些提示技巧■◆◆◆。并且,g1 开源了。