使用MFCC和RNN的简单语音识别

本文出自:【InTheWorld的博客】 (欢迎留言、交流)

去年研究了一段时间的语音识别,出于一些功耗的考虑,主要精力还是放在了Spinx这个传统方法的实现上。HMM方法的局限性还是挺明显的,如今语音识别的先进技术基本都是基于DNN的。而RNN更是非常适合语音这种序列的处理。前面在github上偶然发现了一个语音识别的学习项目,里面提供了一些标定过的语音数据,同时也实现了一些demo性质的代码。不过,这个项目作者对TensorFlow进行了一些封装,导致代码有一点绕,其实是不利于初学者学习的。所以,我就想使用原生的TensorFlow api实现个简单的语音识别程序。

说实话,我对RNN也没有多深入的理解,所以这里也就不深究原理了。仅仅从直观的角度来讲,RNN的结构反应了序列的顺序关系,所以RNN对序列模型有这很好的描述能力。在《Deep Learning with tensorflow》这本书里,使用了RNN实现MNIST数据集的分类模型训练。MNIST数据集虽然是一个图片数据集,但如果我们把一行像素看做一个输入向量,而这些行向量按照顺序就会形成一个序列。经过实验,我们可以发现,RNN也可以很好的完成MNIST数据的分类。

1. 语音特征提取

语音特征提取的方法中,MFCC(梅尔频率倒谱系数)大概是最常见的了。简单说来,MFCC就是一个短时的频域特征。在Python中,我们可以很简单的使用librosa这个库实现MFCC特征的提取。MFCC特征的提取过程如下图所示,首先语音信号按照时间分割成多段;然后对每段信号进行快速傅里叶变换,变换之后可以得到一个频谱图;依据频谱图的能量包络线,对这个能量包络线进行离散化,即可得到一个向量。这个向量便是MFCC向量。

image

2. RNN模型训练

有了特征,我们就可以使用TensorFlow完成模型的建立和训练了。其实模型很简单,就如下图所示,输入层是LSTM,输出层是一层Softmax。输出的编码是one-hot编码,输入是一组多维向量,按时间顺序排列起来的。

image

由于这个模型是非常简单的,我就直接贴代码了:

import os
import re
import sys
import wave
import numpy as np
import tensorflow as tf
from tensorflow.contrib import rnn
from random import shuffle
import librosa

path = "data/spoken_numbers_pcm/"

# learning_rate = 0.00001
# training_iters = 300000 #steps
# batch_size = 64

height=20 # mfcc features
width=80 # (max) length of utterance
classes=10 # digits

n_input = 20
n_steps = 80
n_hidden = 128
n_classes = 10

learning_rate = 0.001
training_iters = 100000
batch_size = 50
display_step = 10
x = tf.placeholder("float", [None, n_steps, n_input])
y = tf.placeholder("float", [None, n_classes])

weights = {
    'out' : tf.Variable(tf.random_normal([n_hidden, n_classes]))
}

biases = {
    'out' : tf.Variable(tf.random_normal([n_classes]))
}


def mfcc_batch_generator(batch_size=10):
    # maybe_download(source, DATA_DIR)
    batch_features = []
    labels = []
    files = os.listdir(path)
    while True:
        # print("loaded batch of %d files" % len(files))
        shuffle(files)
        for file in files:
            if not file.endswith(".wav"): continue
            wave, sr = librosa.load(path+file, mono=True)
            mfcc = librosa.feature.mfcc(wave, sr)
            label = dense_to_one_hot(int(file[0]),10)
            labels.append(label)
            # print(np.array(mfcc).shape)
            mfcc = np.pad(mfcc,((0,0),(0,80-len(mfcc[0]))), mode='constant', constant_values=0)
            batch_features.append(np.array(mfcc).T)
            if len(batch_features) >= batch_size:
                yield np.array(batch_features), np.array(labels) 
                batch_features = []  # Reset for next batch
                labels = []

def dense_to_one_hot(labels_dense, num_classes=10):
    return np.eye(num_classes)[labels_dense]

def RNN(x, weights, biases):
    x = tf.unstack(x, n_steps, 1)
    lstm_cell = rnn.BasicLSTMCell(n_hidden, forget_bias=1.0)
    outputs, states = rnn.static_rnn(lstm_cell, x, dtype=tf.float32)
    return tf.matmul(outputs[-1], weights['out']) + biases['out']

pred = RNN(x, weights, biases)
cost = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(logits=pred, labels=y))
optimizer = tf.train.AdamOptimizer(learning_rate=learning_rate).minimize(cost)
correct_pred = tf.equal(tf.argmax(pred, 1), tf.argmax(y, 1))
accuracy = tf.reduce_mean(tf.cast(correct_pred, tf.float32))

init = tf.global_variables_initializer()
with tf.Session() as sess:
    sess.run(init)
    step = 1
    while step * batch_size < training_iters:
        batch = mfcc_batch_generator(batch_size)
        batch_x, batch_y = next(batch)
        # print(batch_x.shape)
        batch_x = batch_x.reshape((batch_size, n_steps, n_input))
        sess.run(optimizer, feed_dict={x: batch_x, y: batch_y})
        if step % display_step == 0:
            acc = sess.run(accuracy, feed_dict={x: batch_x, y: batch_y})
            loss = sess.run(cost, feed_dict={x: batch_x, y : batch_y})
            print("Iter " + str(step*batch_size) + ", Minibatch Loss = " + \
                "{:.6f}".format(loss) + ", Training Accuracy = " + \
                "{:.5f}".format(acc))
        step += 1
    print("Optimization Finished!")

数据集可以到http://pannous.net/files/下载。对于这个例子,你可以仅仅下载spoken_numbers_pcm.tar文件,并解压到./data/目录下即可。

下面这个训练结果,非常尴尬,训练集上都只有80+%。此外,我还发现了一个非常有趣的事情。刚开始,我把MFCC特征的维度和时间片段的维度弄反了,除此之外其他的东西都差不多。训练的时候发现训练集上的准确率早早就上100%了。至于为什么,“正确”的维度下,反而收敛变慢了,我怀疑是填补时间序列的锅(不够n_step长的数据被补零了)。这种补零的行为在时间序列下,会严重地污染数据,不过这个猜想有待于继续验证了。

image

 

参考资料:

【1】.http://librosa.github.io/

【2】.http://www.speech.cs.cmu.edu/15-492/slides/03_mfcc.pdf

【3】.https://github.com/pannous/tensorflow-speech-recognition

已有3条评论 发表评论

  1. hello /

    大佬你这个工程还在吗,,

  2. 592984167@qq.com /

    大佬你这个工程还在吗,,

    1. swliu / 本文作者

      这个代码就这一点的,你不能跑起来吗?不过我确实没有提供requirements,你可以看import,自己把依赖装好。

回复给hello 取消回复