语音识别 (ASR)
语音识别 (ASR, Automatic Speech Recognition) 将用户的语音转换成文字。本项目支持多个语音识别模型的实现。
语音识别相关的配置项,在 conf.yaml
中的 asr_config
下面。
以下是您可以选择的语音识别选项:
sherpa_onnx_asr
(本地 & 项目预设)
(在 v0.5.0-alpha.1
版本的 PR: Add sherpa-onnx support #50 中添加)
sherpa-onnx 是一个功能丰富的推理工具,能运行多种语音识别(ASR)模型。
从 v1.0.0
版本开始,本项目默认使用 sherpa-onnx
运行 SenseVoiceSmall
(int8 量化) 模型作为语音识别方案。这是一个开箱即用的配置 - 你无需进行任何额外设置,系统会在首次运行时自动下载模型文件并解压到项目的 models
目录下。
CUDA 推理
sherpa-onnx
支持 CPU 和 CUDA 推理。虽然预设的 SenseVoiceSmall
模型在 CPU 上已经表现不错,但如果您有 NVIDIA GPU,可以通过以下步骤启用 CUDA 推理来获得更好的性能:
注意: sherpa onnx 似乎只支持 CUDA 11.8,但我没有证据。请参考官方文档,安装 CUDA 11.8 以及获取更多信息。
- 首先卸载 CPU 版本的依赖:
uv remove sherpa-onnx onnxruntime
# 避免通过依赖引入 onnxruntime
uv remove faster-whisper
注意,示例中 sherpa-onnx 通过预构建 wheel 安装,这意味着您需要安装
CUDA Toolkit 11.x + CUDNN 8.x for CUDA 11.x (并将
%SystemDrive%\Program Files\NVIDIA\CUDNN\v8.x\bin
添加到您的PATH
)此处x为您的 cudnn 次版本号,如
v8.9.7
版本,此处写v8.9
。以链接到正确的 CUDA 环境。
如果您不希望使用 NVIDIA 官方安装器/手动设置PATH,可以考虑使用
pixi
管理一个局部的 conda 环境。 这种方式不需要您通过 uv 安装依赖。pixi remove --pypi onnxruntime sherpa-onnx
pixi add --pypi onnxruntime-gpu==1.17.1 pip
pixi run python -m pip install sherpa-onnx==1.10.39+cuda -f https://k2-fsa.github.io/sherpa/onnx/cuda.html
- 安装 CUDA 版本的
sherpa-onnx
和onnxruntime-gpu
依赖:
# sherpa-onnx 提供的预构建 wheels 和 onnxruntime-gpu==1.17.1 兼容
uv add onnxruntime-gpu==1.17.1 sherpa-onnx==1.10.39+cuda -f https://k2-fsa.github.io/sherpa/onnx/cuda.html
- 修改配置文件:
在
conf.yaml
中找到sherpa_onnx_asr
部分,将provider
设置为cuda
使用其他 sherpa-onnx 模型
如果您想尝试其他语音识别模型:
- 从 sherpa-onnx ASR models 下载所需模型
- 将模型文件放置在项目的
models
目录下 - 按照
conf.yaml
中的说明修改sherpa_onnx_asr
的相关配置
fun_asr
(本地)
FunASR 是 ModelScope 的一个基础端到端语音识别工具包,支持多种 ASR 模型。其中,阿里的 FunAudioLLM 的 SenseVoiceSmall 模型在性能和速度上都表现不错。
虽然 FunASR 可以运行 SenseVoiceSmall 模型,但我们更推荐使用项目预设的 sherpa_onnx_asr
。FunASR 项目存在一定的稳定性问题,可能在某些设备上出现异常。
安装
在项目目录下,运行
uv add funasr modelscope huggingface_hub onnxconverter_common torch torchaudio onnx
如果遇到以下依赖问题:
help: `llvmlite` (v0.36.0) was included because `open-llm-vtuber` (v1.0.0a1) depends on `funasr` (v1.2.2) which depends on `umap-learn` (v0.5.7)
which depends on `pynndescent` (v0.5.13) which depends on `llvmlite`
可以尝试使用以下命令替代:
uv pip install funasr modelscope huggingface_hub torch torchaudio onnx onnxconverter_common
即使模型文件已在本地,启动时仍需要互联网连接。
解决方案:在配置中直接指定模型的本地路径,这样运行时就不需要联网。但需要提前下载好模型文件。详见 FunASR Issue #1897
faster_whisper
(本地)
这是一个优化版的 Whisper 推理引擎,可以运行原版 Whisper 和 distill whisper 模型。相比原版 Whisper 提供了更快的推理速度,但是无法自动识别语言。
在 macOS 系统上,由于只能使用 CPU 运行,性能表现一般。建议在配备 NVIDIA GPU 的设备上使用,可以获得最佳性能。
如果您想使用 GPU 加速(仅限 NVIDIA GPU 用户),需要安装以下 NVIDIA 依赖库。详细的安装步骤请参考快速开始:
如果您不太在意运行速度,或者拥有性能强劲的 CPU,也可以选择在 conf.yaml
配置文件中将 faster-whisper
的 device
参数设置为 cpu
。这样可以避免安装 NVIDIA 依赖库的麻烦。
whisper_cpp
(本地)
whipser_cpp
在 macOS 上可通过 CoreML 加速,实现较快的推理速度- 在 CPU 或 NVIDIA GPU 上运行时,性能可能不如 Faster-Whisper
- Mac 用户请参考下方说明配置支持 CoreML 的 WhisperCPP;如需使用 CPU 或 NVIDIA GPU,只需运行
pip install pywhispercpp
安装即可
安装
- NVIDIA GPU
- macOS
- Vulkan
GGML_CUDA=1 uv pip install git+https://github.com/absadiki/pywhispercpp
WHISPER_COREML=1 uv pip install git+https://github.com/absadiki/pywhispercpp