2022-03-29
主要内容
主要参考资料
TODO
术语中英文对照
本文的前置知识
看书范围
HMM模型的细致程度
为什么音乐音频分析仍然具有难度
后验概率/Posterior probability
串联多个HMM模型
DTW
Viterbi回溯查找
Viterbi back-tracking与”重复阅读练习“
主要内容
主要参考资料
TODO
术语中英文对照
本文的前置知识
看书范围
HMM模型的细致程度
为什么音乐音频分析仍然具有难度
后验概率/Posterior probability
串联多个HMM模型
DTW
Viterbi回溯查找
Viterbi back-tracking与”重复阅读练习“
python List和Dictionary复习(补充没接触过或者已经遗忘的内容)
remove
copy和deepcopy
Dictionary的’in’用法
python List methods and functions补充还没用过的方法
Methods
Functions
写在最前面
两种Forward Algorithm以及它们的转换
今天的主要内容
联合概率和条件概率 *
用“0~9声音识别”的场景来套用3个HMM基本问题
有关HMM“自旋”等结构的思考
对比两个简单HMM模型(盒子抽球,语音识别)
Likelihood问题:常规暴力算法
HMM和Posterior probability的联系
Forward algorithm
要解决的问题
* 还可以解决的问题:搜索问题
完整公式
笔记1
笔记2
笔记3
Backward algorithm
要解决的问题
完整公式
结合Forward algorithm和Backward algorithm
总结公式
和单独Forward algorithm的本质区别
Viterbi的前置算法(有缺陷的算法,一般不用)
Viterbi algorithm
要解决的问题
Decoding问题
学习问题 (Viterbi training)
模型匹配问题(能达到和Likelihood相似的结果)
为什么Viterbi可以累加局部最佳结果,从而代表全局最佳结果?
Viterbi和Forward Algorithm的对比(重复了)
Viterbi algorithm和Forward algorithm的对比
2022-08-23对Viterbi的补充笔记
Baum-Welch Algorithm
什么是EM
更新跳转几率
更新GMM模型的3个参数
更新模型的初始状态
Baum-Welch Algorithm步骤概述
HMM模型的初始化
重新理解Viterbi training (hard EM)和soft EM
更极端的例子:有监督学习
NTU slide
Linux指定进程进行cpu占用监控
Git repo按修改时间排序文件
HMM *
矢量量化(Vector Quantization VQ)
HMM后续阅读(先丢这里,暂时还没读到)
三状态HMM
语音识别:phone (本文后面有更详细补充)
语音识别HMM模型里的“不可观测”到底是什么?
从音频分析到NLP处理的全过程
李宏毅 HMM 语音识别
MFCC的生理学意义
viterbi, viterbi training, soft EM, hard EM, k-means, Baum-Welch
本日最后总结,HMM-GMM模型流程(之一)
最近我又重新捡起了screencapture-游戏自动截图 这个工具,对它进行了一点点改动,包括:指定windowID,快捷键截图,压缩图片。
webpquicklook
次世代格式图片
latexindent.pl
图像压缩方法概览(总结性文章)
复习多线程相关
python多线程相关
IPC共享内存
CPU时间片
哲学家就餐问题 / Dining philosophers problem
HMM *
Rabiner论文
HMM-GMM模型
重要后续阅读博客