Open-LLM-VTuber:一个开源的具有手势和语音交互功能的AI虚拟形象
Open-LLM-VTuber是什么?
Open-LLM-VTuber是一个开源的语音交互式 ai 虚拟形象,支持实时语音对话、视觉感知以及 Live2D 动画形象,并且可以完全离线运行。它支持 Windows、macOS 和 Linux 系统,并提供了丰富的功能和高度的可定制性。
Open-LLM-VTuber功能亮点
跨平台支持:支持 Windows、macOS 和 Linux 系统,适配英伟达和非英伟达 GPU,支持 CPU 运行或云 API 调用。
离线模式:完全离线运行,使用本地模型,确保隐私安全。
实时语音对话:支持免提语音交互,用户可以通过语音与虚拟主播进行自然流畅的交流。
视觉感知:能够捕捉用户的面部表情变化以及环境中的光线、色彩等动态信息。虚拟主播会根据感知数据作出动态反应,例如用户微笑时,虚拟主播也会回以笑容。
Live2D 虚拟形象: 使用 Live2D 技术,虚拟主播的表情和动作极为逼真,从细微的眨眼、挑眉到肢体摆动都栩栩如生。
长期记忆:轻松回顾过往对话,内置 Mem0、EVI 等多种记忆模块,还能通过简单接口快速接入自定义记忆系统。
高级交互功能:
支持视觉感知(摄像头、屏幕录制和截图)。
语音打断功能(无需耳机,AI 不会听到自己的声音)。
触摸反馈和 Live2D 表情支持。
宠物模式(透明背景、全局置顶、鼠标穿透)。
AI 主动说话、内心 OS 显示和聊天记录持久化。
广泛的模型支持:
大语言模型(LLM):支持 Ollama、OpenAI、Gemini、Claude 等。
语音识别(ASR):支持 sherpa-onnx、FunASR、Whisper 等。
语音合成(TTS):支持 MeloTTS、Coqui-TTS、Edge TTS 等。
高度可定制:
支持导入自定义 Live2D 模型、修改 Prompt 和音色克隆。
模块化设计,通过简单的配置文件修改来切换各种功能模块。
Agent自由实现:继承并实现 Agent 接口,接入任何架构的 Agent,如 HumeAI EVI、OpenAI Her、Mem0 等。
Open-LLM-VTuber应用场景
直播互动:可以通过自定义虚拟主播形象用于娱乐直播,吸引观众并提供互动体验。
虚拟助手:作为个人虚拟助手,提供信息查询、日程管理等功能。
聊天伴侣:用户可以根据自己的需求打造专属的虚拟伴侣,如虚拟女友、男友或宠物。
创意内容创作:用于制作个性化视频、动画等。
Open-LLM-VTuber使用方法
1. 本地部署:
克隆项目代码并安装依赖。
配置 conf.yaml 文件,选择所需的 LLM、ASR 和 TTS 模型。
使用命令行工具(如 uv)运行项目。
2. 更新与卸载:
使用 uv run update.py 进行更新。
卸载时需清理项目文件夹及可能的缓存路径。
3. 客户端使用:
提供网页版和桌面客户端,支持窗口模式和桌宠模式。
支持多语言对话和 TTS 翻译。
Open-LLM-VTuber实现技术
语音识别(ASR):支持多种开源和商业 ASR 引擎。
大语言模型(LLM):支持多种主流 LLM,推理后端可灵活切换。
语音合成(TTS):支持多种 TTS 技术,提供个性化语音合成。
Live2D 集成:使用 Live2D SDK 实现虚拟形象的动态渲染。
模块化设计:支持自定义模块扩展,方便开发者集成新的功能。
项目官网:https://docs.llmvtuber.com/
GitHub仓库地址:https://github.com/Open-LLM-VTuber/Open-LLM-VTuber