Voice Transcribe
语音 搜索与效率工具安装命令
npx clawhub@latest install voice-transcribe
安装说明
1
确认环境
确保已安装 Node.js 22+ 和 OpenClaw。在终端运行 openclaw --version 确认 OpenClaw 正常工作。
2
执行安装
在终端中运行上方安装命令,ClawHub 会自动下载并安装 Voice Transcribe 到 ~/.openclaw/skills/ 目录。
3
验证安装
运行 openclaw skills list 查看已安装技能列表,确认 Voice Transcribe 已出现在列表中。
4
配置参数(可选)
根据下方介绍中的配置说明,在 ~/.config/openclaw/openclaw.json5 中添加技能的配置项。
手动安装方式:将 Skill 文件夹复制到
~/.openclaw/skills/ 或项目目录下的 skills/ 文件夹,确保文件夹中包含 SKILL.md 文件。
多语言识别
说话人分离
会议纪要
详细介绍
Voice Transcribe 为 OpenClaw 提供语音转文字能力,支持多种音频格式和识别引擎,可处理频道中的语音消息或上传的音频文件。
核心功能
- 多语言识别:支持中文、英文、日文等 50+ 语言,自动检测语言
- 说话人分离(Diarization):自动区分不同说话人,标注「说话人 A / B / C」
- 时间戳标注:为每段文字添加精确时间戳
- 会议纪要生成:长音频自动生成结构化会议纪要,提取要点和待办事项
- 多引擎后端:支持 Whisper(本地)、阿里云语音识别、Google Speech-to-Text
安装
clawhub install voice-transcribe
配置参数
{
skills: {
"voice-transcribe": {
engine: "whisper", // whisper | aliyun | google
model: "large-v3", // Whisper 模型大小
language: "auto", // 语言代码或 auto
diarization: true, // 说话人分离
timestamps: true // 时间戳标注
}
}
}
使用场景
- 频道中的语音消息自动转文字回复
- 上传会议录音生成纪要
- 播客/视频音频提取字幕
- 多语言语音翻译(配合翻译 Skill)
注意事项
- Whisper 引擎在本地运行,首次使用需下载模型(large-v3 约 3GB)
- 阿里云和 Google 引擎需配置对应 API Key
- 音频时长超过 30 分钟建议使用云端引擎,本地处理较慢