阿里通义实验室开源预训练框架MaskSearch
AI开放平台
阿里通义实验室开源预训练框架MaskSearch

阿里通义实验室开源的全新预训练框架,能够让AI学会“主动搜索+多步推理”,从而更准确、更智能地回答复杂问题。

开通正版Chatgpt账号联系QQ:515002667
MaskSearch是阿里通义实验室开源的全新预训练框架,能够让AI学会“主动搜索+多步推理”,从而更准确、更智能地回答复杂问题。

一、主要功能

MaskSearch的核心功能是通过检索增强掩码预测(RAMP)任务,训练AI模型在面对不完整信息时,主动调用搜索引擎查找缺失内容,并结合已有信息进行推理。它能够让AI在多跳问答任务中表现优异,显著提升小模型的推理能力。

二、技术原理

MaskSearch采用检索增强掩码预测(RAMP)机制,通过模拟“填空题”的方式,让模型在预训练阶段学习通用的任务分解、推理等智能体策略。它还结合了多智能体协同、强化学习及课程学习策略,通过构建由规划器、重写器、观察器组成的多智能体系统,自动生成高质量推理轨迹。此外,MaskSearch采用DAPO算法,结合格式奖励与回答奖励,打造高效强化学习流程。

三、应用场景

MaskSearch主要应用于开放域问答、知识密集型任务等场景,能够显著提升AI在复杂问题解决中的表现。例如,在Bamboogle、HotpotQA等数据集上,经过MaskSearch预训练的模型表现优异。

四、使用方法

开发者可以通过访问MaskSearch的开源代码,将其集成到现有的AI项目中。在使用时,可以根据具体需求选择监督微调(SFT)或强化学习(RL)两种训练方法。

五、适用人群

MaskSearch适用于需要提升AI推理和搜索能力的开发者和研究人员,尤其是那些希望在开放域问答和知识密集型任务中获得更好表现的团队。

六、优缺点介绍

  • 优点
    • 能够显著提升AI的推理能力和搜索能力。
    • 小模型经过预训练后也能取得优异表现。
    • 兼容监督微调和强化学习两种训练方法。
  • 缺点
    • 对于大模型,性能提升的幅度相对较小。
    • 需要一定的技术基础和计算资源来实现和优化。

分类标签:人工智能、预训练框架、自然语言处理

相关导航