OpenManus-RL:一个提升LLM智能体的推理与决策能力开源项目
OpenManus-RL是什么?
OpenManus-RL是一个由UIUC-Ulab与MetaGPT社区的OpenManus团队联合开发的开源项目,可以通过强化学习RL技术提升大型语言模型LLM智能体的推理与决策能力。该项目基于Deepseek-R1、QwQ-32B等先进模型的经验,探索新的调优方法,以增强智能体在复杂任务中的表现。 OpenManus-RL的核心功能包括智能体环境的搭建、轨迹数据的收集、强化学习调优支持以及基准测试的集成。它还集成了多种强化学习策略,如Tree-of-Thoughts和蒙特卡洛树搜索(Monte Carlo Tree Search),以提升智能体的推理能力。
OpenManus-RL功能特征
智能体环境搭建:提供在线强化学习(RL)调优的智能体环境配置工具,方便用户为特定任务定制智能体环境。
轨迹数据收集:能够连接Deepseek-R1、QwQ-32B等模型,收集复杂任务的行为数据,为后续的调优提供数据支持。
RL调优支持:支持定制化智能体行为的强化学习方法,用户可以通过指定奖励函数等方式对智能体的行为进行优化。
基准测试集成:内置WebShop、GaiA、OSWorld、AgentBench等测试环境,方便用户对智能体的性能进行量化评估。
多样化策略:集成Tree-of-Thoughts、Monte Carlo Tree Search等强化学习策略,提升智能体在长程规划任务中的推理能力。
社区协作:允许用户提交代码、数据集等,重要贡献者可成为论文共同作者,促进社区的共同开发。
实时进展分享:通过动态更新展示RL调优过程与成果,方便用户了解项目的最新进展。
OpenManus-RL应用场景
购物决策:通过定制智能体环境,优化智能体在购物决策任务中的表现,例如在WebShop中提升购买成功率。
复杂任务分析:分析智能体在复杂任务中的表现,如在GAIA、OSWorld等基准测试中的成功率、响应时间等指标,帮助开发者对比模型性能。
多模态任务优化:在OSWorld等多模态任务环境中,优化智能体的行为,提升其在多模态任务中的表现。
长程规划任务:利用集成的多样化策略,提升智能体在长程规划任务中的推理能力,例如通过Tree-of-Thoughts策略优化智能体的行为。
OpenManus-RL安装
1. 创建Conda环境:为避免依赖冲突,建议使用Conda创建环境,命令如下:
conda create -n openmanus-rl python=3.10 conda activate openmanus-rl
2. 克隆项目:确保已安装Git,然后克隆项目并进入项目目录,命令如下:
git clone https://github.com/OpenManus/OpenManus-RL.git cd OpenManus-RL
3. 安装依赖:在项目根目录执行以下命令安装依赖,若下载慢可使用国内镜像:
pip install -r requirements.txt
或
pip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple
可视化工具需额外安装:
pip install matplotlib numpy
4. 配置模型与数据集:
监督微调(SFT):指定模型和数据集,命令如下:
python -m openmanus_rl.sft --model_name_or_path Qwen/Qwen2.5-1.5B-Instruct --dataset_name CharlieDreemur/OpenManus-RL
强化学习调优(GRPO):配置奖励函数,命令如下:
python -m openmanus_rl.grpo --model_name_or_path Qwen/Qwen2.5-1.5B-Instruct --dataset_name CharlieDreemur/OpenManus-RL-GRPO --reward_funcs accuracy format tag_count
数据集可从Huggingface获取。
5. 运行项目:
单GPU运行SFT:
python -m openmanus_rl.sft --output_dir data/sft-output
多GPU运行GRPO(需配置zero3.yaml):
accelerate launch --config_file=configs/accelerate_configs/zero3.yaml openmanus_rl/grpo.py --output_dir data/grpo-output
OpenManus-RL使用
1. 智能体环境搭建:
运行python -m openmanus_rl.sft生成基础环境。
修改配置文件(如任务目标或奖励函数)。
执行python -m openmanus_rl.grpo开始调优。
2. 数据收集与测试:
配置模型(如Deepseek-R1):python -m openmanus_rl.grpo --model_name_or_path Deepseek-R1
运行测试:--benchmark GAIA,结果保存至data/目录。
3. RL调优操作:
运行GRPO模式:python -m openmanus_rl.grpo --reward_funcs accuracy
查看训练日志,模型保存至data/grpo-output。
GitHub仓库地址:https://github.com/OpenManus/OpenManus-RL