ezBlog
ezBlog
No more than a blog
写博客
首页
归档
关于
订阅
语音识别中的区分性训练和LF-MMI
2020.05.06 by
ada
##### 区分性训练和最大似然估计的区别: 最大似然估计:是从概率的角度,求解出能完美拟合训练样例的模型参数$$\theta$$,使得概率 $$P_\theta(y|x)$$最大。如下公式: $${\theta_{ML}} =\underset{\theta}{argmax} P(X|W)$$...
LF-MMI
ASR
DT
阅读全文
CTC
2020.01.03 by
ada
CTC的核心思路: 1、扩展了RNN的输出层,在输出序列和最终标签之间增加了多对一的空间隐射,并在此基础上定义了CTC loss 函数; 2、借鉴了HMM的Forward-Backward算法思路,利用动态规划算法有效的计算CTC Loss函数及其倒数,从而解决了端到端训练的问题; 3、结合CTC Decoding 算法RNN可以有效的对序列数据进行端到端的预测。 CTC...
CTC
阅读全文
信息熵、相对熵(KL散度)、交叉熵、最大似然估计的剪不断理还乱的关系
2019.10.19 by
ada
##### 信息熵 熵的概念是由德国物理学家克劳修斯于1865年提出。熵最初是被用在热力学方面,由热力学第二定律可以推出熵增的结论,熵是用来对一个系统可以达到的状态数的一个度量,能达到的状态数越多熵越大。信息熵也基本类似,是香农于1948年的一篇论文《A Mathematical Theory of...
机器学习,交叉熵,KL散度
阅读全文
1
2
3
下一页
标签
PYTHON
FST
机器学习,交叉熵,KL散度
CTC
DT
KALDI、IVECTOR
ZSH
ASR
EESEN
FLASK
DOCKER
括号粘贴模式
PLOTICUS
KALDI
TMUX
开发环境
DNS
DNN训练
MOBAXTERM
OVS
MYSQL-HA
个人博客
VIM
NGINX
LF-MMI
DPDK
友情链接
Github
Email