multilingual_speech_recognition.md 10 KB


comments: true

多语种语音识别模块使用教程

一、概述

语音识别是一种先进的工具,它能够将人类口述的多种语言自动转换为相应的文本或命令。该技术还在智能客服、语音助手、会议记录等多个领域发挥着重要作用。多语种语音识别则可以支持自动进行语种检索,支持多种不同语言的语音的识别。

二、支持模型列表

Whisper Model

模型 模型下载链接 训练数据 模型大小 词错率 介绍
whisper_large whisper_large 680kh 5.8G 2.7 (Librispeech) Whisper 是 OpenAI 开发的多语言自动语音识别模型,具备高精度和鲁棒性。它采用端到端架构,能处理嘈杂环境音频,适用于语音助理、实时字幕等多种应用。
whisper_medium whisper_medium 680kh 2.9G -
whisper_small whisper_small 680kh 923M -
whisper_base whisper_base 680kh 277M -
whisper_small whisper_tiny 680kh 145M -

三、快速集成

在快速集成前,首先需要安装 PaddleX 的 wheel 包,wheel的安装方式请参考PaddleX本地安装教程。完成 wheel 包的安装后,几行代码即可完成文本识别模块的推理,可以任意切换该模块下的模型,您也可以将文本识别的模块中的模型推理集成到您的项目中。运行以下代码前,请您下载示例语音到本地。

from paddlex import create_model
model = create_model(model_name="whisper_large")
output = model.predict("./zh.wav", batch_size=1)
for res in output:
    res.print(json_format=False)
    res.save_to_json(save_path="./output/res.json")

运行后,得到的结果为:

{'res': {'input_path': './zh.wav', 'result': {'text': '我认为跑步最重要的就是给我带来了身体健康', 'segments': [{'id': 0, 'seek': 0, 'start': 0.0, 'end': 2.0, 'text': '我认为跑步最重要的就是', 'tokens': [50364, 1654, 7422, 97, 13992, 32585, 31429, 8661, 24928, 1546, 5620, 50464, 50464, 49076, 4845, 99, 34912, 19847, 29485, 44201, 6346, 115, 50564], 'temperature': 0, 'avg_logprob': -0.22779104113578796, 'compression_ratio': 0.28169014084507044, 'no_speech_prob': 0.026114309206604958}, {'id': 1, 'seek': 200, 'start': 2.0, 'end': 31.0, 'text': '给我带来了身体健康', 'tokens': [50364, 49076, 4845, 99, 34912, 19847, 29485, 44201, 6346, 115, 51814], 'temperature': 0, 'avg_logprob': -0.21976988017559052, 'compression_ratio': 0.23684210526315788, 'no_speech_prob': 0.009023111313581467}], 'language': 'zh'}}}

运行结果参数含义如下:

  • input_path: 输入音频存放路径
  • result: 识别结果
    • text: 语音识别结果文本
    • segments: 带时间戳的结果文本
      • id: ID
      • seek: 语音片段指针
      • start: 片段开始时间
      • end: 片段结束时间
      • text: 片段识别文本
      • tokens: 片段文本的 token id
      • temperature: 变速比例
      • avg_logprob: 平均 log 概率
      • compression_ratio: 压缩比
      • no_speech_prob: 非语音概率
    • language: 识别语种

相关方法、参数等说明如下:

  • create_model多语种识别模型(此处以whisper_large为例),具体说明如下:

    参数 参数说明 参数类型 可选项 默认值
    model_name 模型名称 str whisper_large、whisper_medium、whisper_base、whisper_small、whisper_tiny whisper_large
    model_dir 模型存储路径 str

  • 其中,model_name 必须指定,指定 model_name 后,默认使用 PaddleX 内置的模型参数,在此基础上,指定 model_dir 时,使用用户自定义的模型。

  • 调用文本识别模型的 predict() 方法进行推理预测,predict() 方法参数有 inputbatch_size,具体说明如下:

参数 参数说明 参数类型 可选项 默认值
input 待预测数据 str
  • 文件路径,如语音文件的本地路径:/root/data/audio.wav
  • URL链接,如语音文件的网络URL:示例
batch_size 批大小 int 目前仅支持1 1
  • 对预测结果进行处理,每个样本的预测结果均为dict类型,支持保存为json文件的操作:
方法 方法说明 参数 参数类型 参数说明 默认值
print() 打印结果到终端 format_json bool 是否对输出内容进行使用 JSON 缩进格式化 True
indent int 指定缩进级别,以美化输出的 JSON 数据,使其更具可读性,仅当 format_jsonTrue 时有效 4
ensure_ascii bool 控制是否将非 ASCII 字符转义为 Unicode。设置为 True 时,所有非 ASCII 字符将被转义;False 则保留原始字符,仅当format_jsonTrue时有效 False
save_to_json() 将结果保存为json格式的文件 save_path str 保存的文件路径,当为目录时,保存文件命名与输入文件类型命名一致
indent int 指定缩进级别,以美化输出的 JSON 数据,使其更具可读性,仅当 format_jsonTrue 时有效 4
ensure_ascii bool 控制是否将非 ASCII 字符转义为 Unicode。设置为 True 时,所有非 ASCII 字符将被转义;False 则保留原始字符,仅当format_jsonTrue时有效 False
  • 此外,也支持通过属性获取预测结果,具体如下:
属性 属性说明
json 获取预测的json格式的结果

关于更多 PaddleX 的单模型推理的 API 的使用方法,可以参考PaddleX单模型Python脚本使用说明

四、二次开发

目前该模型仅支持推理,暂不支持模型的训练。

4.1 数据准备

在进行模型训练前,需要准备相应任务模块的数据集。PaddleX 针对每一个模块提供了数据校验功能,只有通过数据校验的数据才可以进行模型训练。此外,PaddleX 为每一个模块都提供了 Demo 数据集,您可以基于官方提供的 Demo 数据完成后续的开发。

4.1.1 Demo 数据下载

您可以参考下面的命令将 Demo 数据集下载到指定文件夹:

wget https://paddlespeech.bj.bcebos.com/PaddleAudio/zh.wav

4.2 模型训练

暂不支持

4.3 模型评估

暂不支持

4.4 模型推理和模型集成

4.4.1 模型推理

通过命令行的方式进行推理预测,只需如下一条命令。运行以下代码前,请您下载示例语音到本地。

python main.py -c paddlex/configs/modules/multilingual_speech_recognition/whisper_large.yaml \
    -o Global.mode=predict \
    -o Predict.input="./zh.wav"

模型推理配置需要如下几步:

  • 指定模型的.yaml 配置文件路径(此处为whisper_large.yaml
  • 指定模式为模型推理预测:-o Global.mode=predict
  • 指定输入数据路径:-o Predict.input="..." 其他相关参数均可通过修改.yaml配置文件中的GlobalPredict下的字段来进行设置,详细请参考PaddleX通用模型配置文件参数说明

4.4.2 模型集成

模型可以直接集成到 PaddleX 产线中,也可以直接集成到您自己的项目中。

1.产线集成

暂无示例。

2.模块集成

您产出的权重可以直接集成到文本识别模块中,可以参考快速集成的 Python 示例代码,只需要将模型替换为你训练的到的模型路径即可。