10小时训练数据打造多语种语音识别新高度
2021年1月12日 - 网易
我们首先使用该GMM搭建目标朗读抄本和垃圾音并联的错音,漏音清洗模型(datacleanup),再利用在CrossEntropy(CE)准则上训练的NN-HMM得到的精细化NN模型进行二次datacleanup,得到在原始纯净训练数据上的数据清洗边界,该边界也贯穿在后续对扩充数据的清洗过程和使用中,用于最后的LatticeFreeMMI(LF-MMI)区分度...
详情
我们首先使用该GMM搭建目标朗读抄本和垃圾音并联的错音,漏音清洗模型(datacleanup),再利用在CrossEntropy(CE)准则上训练的NN-HMM得到的精细化NN模型进行二次datacleanup,得到在原始纯净训练数据上的数据清洗边界,该边界也贯穿在后续对扩充数据的清洗过程和使用中,用于最后的LatticeFreeMMI(LF-MMI)区分度...