Skip to content

An Automatic Speech Recognition Frame ,一个中文语音识别的完整框架, 提供了多个模型

License

Notifications You must be signed in to change notification settings

sailist/ASRFrame

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

32 Commits
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Repository files navigation

ASRFrame

  • 没有什么是10层卷积解决不了的。
  • 如果有,就再来十层,再加个残差,再加个...

更新日志

【2019年8月7日】更新了更改字典后的模型

【2019年8月7日】根据目前训练出的声学模型,对所有的数据进行了预测,并统计得到了预测错误的拼音对应的字典文件(保存到了./util/dicts/errdict.json下,修改了为语言模型提供数据集的类,支持按概率更改原拼音为错误拼音

【2019年8月21日】本项目暂停更新,日后有需要时再重启。

【2020年1月23日】本项目废弃

介绍

项目链接:https://github.com/sailist/ASRFrame

一个完整的语音识别框架,包括从数据清洗接口,数据读取接口到语音模型、声学模型、到最后的模型整合和UI的一整套流程

目前声学部分拼音识别准确率已经比较高了,但语言模型仍然存在诸多问题需要解决,因此开源该项目,希望大家群策群力,将它的效果进行提升。

本项目的优点

  • 数据接口易于使用,常用的几个数据集已经实现了接口,只需要下载,解压,在配置文件中更改路径后,即可运行清洗方法,并自动获取所有音频和标注
  • 模型类已经写好,只需要关注模型结构,并保证输入输出格式,之后只需不到10行代码即可完成自动保存、训练
  • 集成了目前的几个开源项目中的模型,并训练了相应的模型文件
  • 较为详细的注释和清晰的代码,易于学习和修改

本项目的缺点

  • 识别率仍然是一个大痛点,语音到拼音的识别能有大概80%以上的识别率(不过即使识别错了,也能保证是音近字),但存在100%识别正确的可能,拼音到汉字可能会更低,但也存在100%识别正确的可能,这跟环境、语速、玄学有关
  • 封装的有点太死了,如果要把模型取出来单独用可能会比较麻烦

部署方法

本项目仅需Python及其相关依赖包即可,省时省力,同时在realease中我提供了预训练的权重

系统要求

Python

  • Distance (>=0.1.3)
  • jieba (>=0.39)
  • Keras (>=2.2.4)
  • librosa (>=0.6.3)
  • numpy (>=1.16.2)
  • pypinyin (>=0.35.3)
  • python-speech-features (>=0.6)
  • scipy (>=1.2.1)
  • tensorflow (>=1.13.1)
  • thulac (>=0.2.0)
  • pydub (>=0.23.1)

安装依赖

pip install -r requirement.txt

声学模型

想看直接使用的方法的话请往后翻,从头训练从这里往下按步骤进行即可,本项目覆盖了数据集下载、清洗、调用模型、训练的全过程

下载数据集

打开网页链接后仅下载链接名对应的文件即可

THCHS30

万余条语音文件,大约40小时。内容以文章诗句为主,全部为女声。(清华大学语音与语言技术中心(CSLT)出版)

下载链接:data_thchs30.tgz

Free ST Chinese Mandarin Corpus

10万余条语音文件,大约100余小时。内容以平时的网上语音聊天和智能语音控制语句为主,855个不同说话者,同时有男声和女声,适合多种场景下使用。

下载链接:ST-CMDS-20170001_1-OS.tar.gz

AISHELL开源版

包含178小时的开源版数据。包含400个来自中国不同地区、具有不同的口音的人的声音。录音质量高,通过专业的语音注释和严格的质量检查,手动转录准确率达到95%以上。

下载链接:data_aishell.tgz

Primewords Chinese Corpus Set 1

包含了大约100小时的中文语音数据。语料库由296名母语为英语的智能手机录制。转录准确度大于98%,置信水平为95%。抄本和话语之间的映射以JSON格式给出。

下载链接:primewords_md_2018_set1.tar.gz

Aidatatang_200zh

200小时(当前时长最长的中文开源语音数据集),由Android系统手机(16kHz,16位)和iOS系统手机(16kHz,16位)记录。录音环境安静,录音者性别、年龄均匀分布。每个句子的手动转录准确率大于98%。

下载链接:aidatatang_200zh.tgz

配置路径

config.py目录下,配置相应的语料路径,注意是根路径,如果还不确定请参考具体注释设置路径。

清洗声学语料

由于数据集格式不同,且其中的汉字不一定覆盖了全字典,因此清洗声学数据集的目的主要有以下几点:

  • 保证所有的wav文件下都有一个标注文件,并且统一第一行是汉字,第二行的拼音,没有标签的wav文件全被删除(这主要针对aishell这个数据集,里面有很多未标注的音频文件)。
  • 保证拼音和汉字都存在在字典中,可以被覆盖,不存在的数据均被删除。
  • 保证汉字和拼音一一对应,存在英语、数字的文件应该被删除(因为即使是数字,一百和一零零的发音也是不同的难以确定),标点符号空格等应该被去掉。

因此我的方法是,基于数据集用代码统计生成汉字和拼音字典,在生成的同时根据词频,手动将词频小的拼音和汉字删除,最后再基于手工确认好的字典,将数据集中无法覆盖的数据去除。

在我的选择中,我将数据集中频数小于50的拼音和汉字都去除了

如果你不需要重新确认字典,可以直接运行以下代码清洗语料,会大概删除几千个文件,包括汉字中有数字字母的,字符长度对不上的,拼音不在字典中的(非常用拼音)

python run_clean.py

如果你需要确认字典,那么请具体参考一下run_create_dict.py中的代码,自行生成字典

PS1:标注拼音使用 pypinyin

PS2:最终所有的音频的标注文件均满足:第一行汉字,没有字母数字空格标点,全部存在于字典中;第二行为拼音(带声调),中间以一个空格隔开,全部存在于拼音字典中。

统计数据信息

python run_summary.py

对下载下来的数据集进行统计(只针对声学模型),输出相应的信息和图片,如果没有意外,控制台输出如下:

start to summary the Thchs30 dataset
checked 13375 wav files:/data/voicerec/dataset/dataset/thchs30-openslr/data_thchs30/data/D6_938.wavv
max audio len = 261000, max timestamp = (281, 603) ,min audio len = 71424, sample = 16000
checked 13375 label files:/data/voicerec/dataset/dataset/thchs30-openslr/data_thchs30/data/D6_938.wav.trnn
max label len = 48, min label len = 19, pinpin coverage:1208
result from 13376 sample, used 3.7486759999999997 sec
Load pinyin dict. Max index = 1436.

start to summary the AiShell dataset
checked 141599 wav files:/data/voicerec/ALShell-1/data_aishell/wav/train/S0003/BAC009S0003W0427.wav
max audio len = 235199, max timestamp = (281, 544) ,min audio len = 19680, sample = 16000
checked 141599 label files:/data/voicerec/ALShell-1/data_aishell/wav/train/S0003/BAC009S0003W0427.txt
max label len = 44, min label len = 1, pinpin coverage:1196
result from 141600 sample, used 98.877352 sec
Load pinyin dict. Max index = 1436.

start to summary the Primewords dataset
checked 50369 wav files:/data/voicerec/Primewords Chinese Corpus Set 1/primewords_md_2018_set1/audio_files/5/57/5732d955-b4f4-41a4-b60f-32b42da573af.wav
max audio len = 320640, max timestamp = (281, 741) ,min audio len = 21120, sample = 16000
checked 50369 label files:/data/voicerec/Primewords Chinese Corpus Set 1/primewords_md_2018_set1/audio_files/5/57/5732d955-b4f4-41a4-b60f-32b42da573af.txt
max label len = 35, min label len = 1, pinpin coverage:1231
result from 50370 sample, used 43.464597 sec
Load pinyin dict. Max index = 1436.

start to summary the ST_CMDS dataset
checked 102572 wav files:/data/voicerec/Free ST Chinese Mandarin Corpus/ST-CMDS-20170001_1-OS/20170001P00085A0053.wav
max audio len = 160416, max timestamp = (281, 371) ,min audio len = 19200, sample = 16000
checked 102572 label files:/data/voicerec/Free ST Chinese Mandarin Corpus/ST-CMDS-20170001_1-OS/20170001P00085A0053.txt
max label len = 22, min label len = 1, pinpin coverage:1194
result from 102573 sample, used 73.52233999999999 sec
Load pinyin dict. Max index = 1436.

start to summary the Z200 dataset
checked 231663 wav files:/data/voicerec/z200/G1428/session01/T0055G1428S0034.wav
max audio len = 348935, max timestamp = (281, 807) ,min audio len = 13811, sample = 16000
checked 231663 label files:/data/voicerec/z200/G1428/session01/T0055G1428S0034.txt
max label len = 43, min label len = 1, pinpin coverage:1182
result from 231664 sample, used 164.35475000000002 sec

训练

确保清洗完数据后运行run_train.py:注意查看一下文件,将要训练的模型的代码取消注释即可

python run_train.py

声学模型的具体介绍参考声学模型介绍

以训练声学模型DCBNN1D为例,核心逻辑如下:

import config
from acoustic.ABCDNN import DCBNN1D
from util.reader import Thchs30

thchs = Thchs30(config.thu_datapath)

DCBNN1D.train([thchs],)
# 如果有预训练的权重,则:(注意路径是相对于config.model_dir下的路径)
DCBNN1D.train([thchs],config.join_model_path("./DCBNN1D_step_326000.h5"))

真实使用

能真实使用的模型,我为其写了real_predict()方法,打开run_real_predict.py文件,可以看到具体的模型运行方法,注释掉你不需要的,即可进行使用。

python run_real_predict.py

语言模型

数据集

wiki数据集(用于语言模型训练,其余用于声学模型)

104万个词条(1,043,224条; 原始文件大小1.6G,压缩文件519M;数据更新时间:2019.2.7)

该项目下:1.维基百科json版(wiki2019zh)

处理用于语言模型的语料

【2019年7月16日】注意:最近项目更新频繁,该方法可能出错

这个由于时间关系没有去找更多的语料,因此只写了清洗wiki的方法:

注意要打开该文件更改一下目录

python run_build_corpus.py

随后因为某个错误(最后一个段落有提到)导致模型会停止运行,因此需要将大文本切分为小文本。 运行下面的代码,注意逐行运行,注意更改第一句的路径

cd path/to/wiki_corpus/
mkdir splits
for i in $(find -name '*.txt');do echo $i;split -100000 $i ./splits/$i;done

随后将path/to/wiki_corpus/splits作为语料的根路径

这次清洗大概要跑大概两天以上的时间,会生成约3000w条的语料(根据代码中汉字长度的不同,生成的语料条数不同,但是基本都是千万级的

训练

同样参考run_train.py下的代码,和声学模型的代码完全相同。

真实使用

同声学模型

联合模型

说是联合模型,目前实现的只是将声学模型和语言模型组合在一起,位于./jointly/下,因此暂时不能训练,只能加载预训练的模型进行测试和使用。对于实现的模型,同样为调用real_predict()方法来进行使用

使用UI

该项目搭建了一个简易的UI,对识别功能进行了封装,目前使用的是联合模型下的DCSOM

python run_ui.py

可读性可能有点差,建议别看UI

预训练模型的使用

预训练的权重我放到release中了,

  • 声学模型部分效果最好的模型是DCBNN1D,模型名称DCBNN1D_cur_best.h5
  • 语言模型部分目前效果最好的模型是SOMMalpha,预训练权重文件SOMMalpha_step_18000.h5

搭建自己的模型

具体可以参考acoustic下和language下的模型,主要compile和train方法需要自行实现。

注意:

  • Voiceloader的输入是(xs,ys,feature_len,label_len),placeholder

placeholder是无用的,loss值是在模型内由ctcloss计算产生

体系架构介绍

为了更好的理解项目架构,在这里做一些介绍

acoustic:声学模型

每一个具体的文件都是以某一个经典架构为核心搭建出来的一个或多个模型。在该文件下的README.md是具体的介绍。

如果要使用我封装好的基类搭建自己的模型,请参考模型内的具体实现。

core:各种模型用到的层

  • attention(好像不是很好用,不清楚是不是哪里实现错误了,求大佬看一下)
  • base_model(基类,实现自己的模型如果按照基类的规范写,会非常的容易,只需要搭起模型,数据集和训练的过程完美的封装好了)
  • ctc_function,包括求loss和decode方法的封装,可以当成keras的layer来调用(Lambda层的封装)
  • glu(线性门控单元)
  • layer norm(层归一化)
  • muti_gpu(据说是可以真正的多gpu并行运算,我没有试)
  • positional embedding层(Transformer里的那个位置编码)

feature:特征提取方法,实现了基于batch的提取

  • 目前,MelFeature5是最好的实现,参考的ASRT这个项目的实现

language:语言模型实现,目前实现进度:

同声学模型,按经典架构区分,具体参考目录下的README.md

jointly:联合模型,对声学模型和语言模型的封装

具体介绍参考目录下README.md

util:各种工具,包括:

  • audiotool:音频工具,提供了录音、去噪、端点检测三个类
  • callbacks:keras模型训练中的回调函数,目前提供了用于提前停止,计时,绘制损失函数的三种回调函数
  • dataset:真实数据集的类的映射,提供了数据清洗的方法,还可以利用数据集生成相应字典。
  • evaluate:评估,提供了编辑距离的度量和归一化方法,用于直观验证准确率
  • mapmap:里面提供了三类字典,分别是拼音-index、字母-index、汉字-index,可以互相转换,支持字、list、batch三个级别的转换
  • number_convert:用于阿拉伯数字到汉字的转换,复制的网上的代码,可读性可能不是很好...而且一些数字支持的不是很好
  • reader:数据读入和数据提供接口,继承了keras中的Sequence类实现的生成器(可以线程安全)
  • 其他:一些小工具,一般是临时使用的...就不写了

visualization:可视化工具,用来提供一个UI工具

  • 可读性可能有点差,但实际上功能比较齐全

训练日志

在吐字清洗,语速正常,普通话标注你的情况下,部分识别效果还是可以的,以及拼音大部分都能识别正确,但是语言模型还比较的差

image/ui.png

参考资料

github项目

论文

可能存在的问题(持续更新)

关于轻声的处理方案

在字典中,轻声是没有5的标注的,但是存在一些数据集提前标注好了拼音(如thchs30)存在标注5的问题,因此我在相应的类中做了一点处理,如果拼音中有5会先将5去掉。即'de''de5'是一视同仁的

关于拼音和汉字字典的选择

拼音和汉字的字典在2019年7月17日时更新,是通过统计了所有语料的汉字和拼音的词频,并去掉了词频小于50的汉字和拼音后生成的

SOMM模型停止训练

由于未知的原因,SOMM模型训练大概50000个batch的时候会报错停止,因为没有错误代码提示(core dump),不清楚问题具体原因,因此这里提供的解决方案就是以预训练的模型为基础,继续训练

不过这样有一个问题,因为语言模型的训练是从一个大语料文件里读取,因此重新训练就要从头读取,这样可能会导致后面的语料训练不到

因此推荐将语料分割为小语料,这样可以训练全语料,linux下可以使用split命令进行分割,这里不再具体介绍

CTCloss计算

等待更新...

TODO list

  • 音素字典的建立,以音素为粒度训练模型
  • 根据声学模型为语言模型的语料添加随机噪音
  • 其他模型的尝试
  • TextLoader代码的完善
  • UI代码可读性增强
  • 语言识别服务器部署
  • loss其实不是很直观,实现查看训练中准确率的函数

写在最后

我比较讨厌 tf 的冗余的代码,这是后来想重开这个项目又没有重开的唯一阻力...如果重开的话,一定会用pytorch重写==

About

An Automatic Speech Recognition Frame ,一个中文语音识别的完整框架, 提供了多个模型

Resources

License

Stars

Watchers

Forks

Packages

No packages published