语音识别 (ASR)
语音识别 (ASR, Automatic Speech Recognition) 将用户的语音转换成文字。本项目支持多个语音识别模型的实现。
语音识别相关的配置项,在 conf.yaml
中的 asr_config
下面。
以下是您可以选择的语音识别选项:
sherpa_onnx_asr
(本地 & 项目预设)
(在 v0.5.0-alpha.1
版本的 PR: Add sherpa-onnx support #50 中添加)
sherpa-onnx 是一个功能丰富的推理工具,能运行多种语音识别(ASR)模型。
从 v1.0.0
版本开始,本项目默认使用 sherpa-onnx
运行 SenseVoiceSmall
(int8 量化) 模型作为语音识别方案。这是一个开箱即用的配置 - 你无需进行任何额外设置,系统会在首次运行时自动下载模型文件并解压到项目的 models
目录下。
CUDA 推理
sherpa-onnx
支持 CPU 和 CUDA 推理。虽然预设的 SenseVoiceSmall
模型在 CPU 上已经表现不错,但如果您有 NVIDIA GPU,可以通过以下步骤启用 CUDA 推理来获得更好的性能:
- 首先卸载 CPU 版本的依赖:
uv remove sherpa-onnx onnxruntime
# 避免通过依赖引入 onnxruntime
uv remove faster-whisper
注意,示例中 sherpa-onnx 通过预构建 wheel 安装,这意味着您需要安装
CUDA Toolkit 11.x + CUDNN 8.x for CUDA 11.x (并将
%SystemDrive%\Program Files\NVIDIA\CUDNN\v8.x\bin
添加到您的PATH
)此处x为您的 cudnn 次版本号,如
v8.9.7
版本,此处写v8.9
。以链接到正确的 CUDA 环境。
如果您不希望使用 NVIDIA 官方安装器/手动设置PATH,可以考虑使用
pixi
管理一个局部的 conda 环境。 这种方式不需要您通过 uv 安装依赖。pixi remove --pypi onnxruntime sherpa-onnx
pixi add --pypi onnxruntime-gpu==1.17.1 pip
pixi run python -m pip install sherpa-onnx==1.10.39+cuda -f https://k2-fsa.github.io/sherpa/onnx/cuda.html
- 安装 CUDA 版本的
sherpa-onnx
和onnxruntime-gpu
依赖:
# sherpa-onnx 提供的预构建 wheels 和 onnxruntime-gpu==1.17.1 兼容
uv add onnxruntime-gpu==1.17.1 sherpa-onnx==1.10.39+cuda -f https://k2-fsa.github.io/sherpa/onnx/cuda.html
- 修改配置文件:
在
conf.yaml
中找到sherpa_onnx_asr
部分,将provider
设置为cuda
使用其他 sherpa-onnx 模型
如果您想尝试其他语音识别模型:
- 从 sherpa-onnx ASR models 下载所需模型
- 将模型文件放置在项目的
models
目录下 - 按照
conf.yaml
中的说明修改sherpa_onnx_asr
的相关配置
fun_asr
(本地)
FunASR 是 ModelScope 的一个基础端到端语音识别工具包,支持多种 ASR 模型。其中,阿里的 FunAudioLLM 的 SenseVoiceSmall 模型在性能和速度上都表现不错。
虽然 FunASR 可以运行 SenseVoiceSmall 模型,但我们更推荐使用项目预设的 sherpa_onnx_asr
。FunASR 项目存在一定的稳定性问题,可能在某些设备上出现异常。
安装
在项目目录下,运行
uv add funasr modelscope huggingface_hub onnxconverter_common torch torchaudio onnx
如果遇到以下依赖问题:
help: `llvmlite` (v0.36.0) was included because `open-llm-vtuber` (v1.0.0a1) depends on `funasr` (v1.2.2) which depends on `umap-learn` (v0.5.7)
which depends on `pynndescent` (v0.5.13) which depends on `llvmlite`
可以尝试使用以下命令替代:
uv pip install funasr modelscope huggingface_hub torch torchaudio onnx onnxconverter_common
即使模型文件已在本地,启动时仍需要互联网连接。
解决方案:在配置中直接指定模型的本地路径,这样运行时就不需要联网。但需要提前下载好模型文件。详见 FunASR Issue #1897
faster_whisper
(本地)
这是一个优化版的 Whisper 推理引擎,可以运行原版 Whisper 和 distill whisper 模型。相比原版 Whisper 提供了更快的推理速度,但是无法自动识别语言。
在 macOS 系统上,由于只能使用 CPU 运行,性能表现一般。建议在配备 NVIDIA GPU 的设备上使用,可以获得最佳性能。
如果您想使用 GPU 加速(仅限 NVIDIA GPU 用户),需要安装以下 NVIDIA 依赖库。详细的安装步骤请参考快速开始:
如果您不太在意运行速度,或者拥有性能强劲的 CPU,也可以选择在 conf.yaml
配置文件中将 faster-whisper
的 device
参数设置为 cpu
。这样可以避免安装 NVIDIA 依赖库的麻烦。
whisper_cpp
(本地)
whipser_cpp
在 macOS 上可通过 CoreML 加速,实现较快的推理速度- 在 CPU 或 NVIDIA GPU 上运行时,性能可能不如 Faster-Whisper
- Mac 用户请参考下方说明配置支持 CoreML 的 WhisperCPP;如需使用 CPU 或 NVIDIA GPU,只需运行
pip install pywhispercpp
安装即可
安装
- NVIDIA GPU
- macOS
- Vulkan
GGML_CUDA=1 uv pip install git+https://github.com/absadiki/pywhispercpp
WHISPER_COREML=1 uv pip install git+https://github.com/absadiki/pywhispercpp
GGML_VULKAN=1 pip install git+https://github.com/absadiki/pywhispercpp
CoreML 配置
- 方法一:按照 Whisper.cpp 仓库文档说明,将 Whisper 模型转换为coreML 格式
- 方法二:在 Hugging Face 仓库 下载已转换好的 coreML 模型。注意:下载后需要解压模型文件,否则程序无法加载并会崩溃。
- 配置说明:在
conf.yaml
中配置模型时,无需包含文件名中的特殊前缀。如,当 coreML 模型文件名为ggml-base-encoder.mlmodelc
时,只需在WhisperCPP
的model_name
参数中填写base
即可。
whisper
(本地)
OpenAI 的原始 Whisper。使用 uv pip install -U openai-whisper
安装。推理速度很慢。
groq_whisper_asr
(需要 API 密钥)
Groq 的 Whisper 端点,非常准确(支持多语言)且速度快,并且每天都有很多免费使用次数。它已预安装。从 groq 获取 API 密钥并将其添加到 conf.yaml
中的 groq_whisper_asr
设置中。中国大陆及其他的不支持地区,需要代理(不支持香港地区)才能使用。
azure_asr
(需要 API 密钥)
- Azure 语音识别。
- 在
azure_asr
选项下配置 API key 和地区
api_key.py
在 v0.2.5
之后已弃用。请在 conf.yaml
中设置 API 密钥。