读论文 《TransForm Mapping Using Shared Decision Tree Context Clustering for HMM-based Cross-Lingual Speech Synthesis》(1)

3. Cross-lingual speaker adaptation using STC with a bilingual corpus

  第一段

  1. 问题1,为什么要用双语语料库,双语语料库是同一个说话人的吗?
  2. cross-lingual speaker adaptation的开山鼻祖是Yijiang Wang的论文,而且也实现了代码,在HTS 2.2中。
  3. Yijiang Wang的做法是基于state mapping的,而本文作者的做法是基于STC,然后加上双语语料库
  4. 注意一点,本文作者与Yijian Wu都是做的cross-lingual的说话人自适应
  5. In the state mapping technique described in the previous section, the mismatch of language characteristics affects the mapping performance of transformation matrices because only the acoustic features are taken into account in the KLD-based mapping construction.

    1. 本文作者,居然说语言之间的mismatch(肯定,粤语和英语之间必然是有mismatch的,粤语是音节为基元,英语是以音素为基元),会影响mapping的性能
    2. 为什么mismatch of language就影响state mapping的性能了?还是不明白
    3. 哦,作者在这句话的后半部分给出了解释,因为在state mapping是基于KLD的,而在计算KLD时,只是考虑了声学特征。
    4. 是不是英语和粤语的声学特征是不同的??
  6. To improve the mapping performance, we use not only acoustic features but also contextual factors when constructing the transform mapping. 
    1. 擦,上面我感觉作者说的还是有点问题,说上面那句话,主要是为了引出下面的这句话,
    2. 还是为了提高mapping的性能,作者说的是transform mapping的性能,其实就是state mapping的性能,我目前理解的是二者没有区别,
    3. 作者认为KLD的state  mapping仅仅考虑了声学特征,他提出一种方法,state mapping不仅考虑声学特征,还考虑上下文相关因素。
  7.  

      

时间: 2024-10-10 05:29:39

读论文 《TransForm Mapping Using Shared Decision Tree Context Clustering for HMM-based Cross-Lingual Speech Synthesis》(1)的相关文章

读论文 《TransForm Mapping Using Shared Decision Tree Context Clustering for HMM-based Cross-Lingual Speech Synthesis》(2)

3   Cross-lingualspeakeradaptationusing STC with a bilingual corpus 第一段: In the state mapping technique described in the previous section, the mismatch of language characteristics affects the mapping performance of transformation matrices because onl

读论文 《TransForm Mapping Using Shared Decision Tree Context Clustering for HMM-based Cross-Lingual Speech Synthesis》(3)

3.1. Shareddecisiontreecontextclustering(STC) STC [11] was originally proposed to avoid generating speaker-biased leaf nodes in the tree construction of an average voice model. 果然,这里作者说了一下STC技术的出处在什么地方 然后简单的介绍了STC技术是用来解决什么问题的 在average voice model的树的构

Gradient Boost Decision Tree(&Treelink)

http://www.cnblogs.com/joneswood/archive/2012/03/04/2379615.html 1.      什么是Treelink Treelink是阿里集团内部的叫法,其学术上的名称是GBDT(Gradient Boosting Decision Tree,梯度提升决策树).GBDT是“模型组合+决策树”相关算法的两个基本形式中的一个,另外一个是随机森林(Random Forest),相较于GBDT要简单一些. 1.1    决策树 应用最广的分类算法之一

机器学习中的算法:决策树模型组合之GBDT(Gradient Boost Decision Tree)

[转载自:http://www.cnblogs.com/LeftNotEasy/archive/2011/03/07/random-forest-and-gbdt.html] 前言 决策树这种算法有着很多良好的特性,比如说训练时间复杂度较低,预测的过程比较快速,模型容易展示(容易将得到的决策树做成图片展示出来)等.但是同时,单决策树又有一些不好的地方,比如说容易over-fitting,虽然有一些方法,如剪枝可以减少这种情况,但是还是不够的. 模型组合(比如说有Boosting,Bagging等

【Gradient Boosted Decision Tree】林轩田机器学习技术

GBDT之前实习的时候就听说应用很广,现在终于有机会系统的了解一下. 首先对比上节课讲的Random Forest模型,引出AdaBoost-DTree(D) AdaBoost-DTree可以类比AdaBoost-Stump模型,就可以直观理解了 1)每轮都给调整sample的权重 2)获得gt(D,ut) 3)计算gt的投票力度alphat 最后返回一系列gt的线性组合. weighted error这个比较难搞,有没有不用动原来的模型,通过输入数据上做文章就可以达到同样的目的呢? 回想bag

object detection--Decision Tree

VJ VJ算法是object detection中提出较早的方法了,将它归类于DF (decision forests 决策森林)方法的范畴. References中的[1],提出了 VJ 算法来进行人脸识别: 采用的特征.分类器.算法的结构 1) 采用的特征为rectangle features,种类有3种: two-rectangle feature.three-rectangle feature.four-rectangle feature 论文原图如下: 这三种特征都有一横一竖两种情况,

机器学习分类实例——SVM(修改)/Decision Tree/Naive Bayes

机器学习分类实例--SVM(修改)/Decision Tree/Naive Bayes 20180427-28笔记.30总结 已经5月了,毕设告一段落了,该准备论文了.前天开会老师说,希望我以后做关于语义分析那一块内容,会议期间还讨论了学姐的知识图谱的知识推理内容,感觉也挺有趣的,但是感觉应该会比较复杂.有时间的话希望对这块了解一下.其实吧,具体怎么展示我还是不太清楚... 大概就是图表那个样子.我先做一个出来,让老师看看,两个礼拜写论文.24/25答辩,6月就可以去浪哈哈哈哈哈哈. 一.工作

数据挖掘-决策树 Decision tree

数据挖掘-决策树 Decision tree 目录 数据挖掘-决策树 Decision tree 1. 决策树概述 1.1 决策树介绍 1.1.1 决策树定义 1.1.2 本质 1.1.3 决策树的组成 1.1.4 决策树的分类 1.1.5 决策过程 1.2 决策树的优化 1.2.1 过拟合 1.3.1 剪枝 2. 理论基础 2.1 香农理论 2.1.1 信息量 2.1.2 平均信息量/信息熵 2.1.3 条件熵 2.1.4 信息增益(Information gain) 2.1.5 信息增益率

Decision Tree 1: Basis 决策树基础

 介绍 我们有一些历史数据: record id\attributes A B C Result 1 a1 b1 c1 Good 2 a2 b2 c1 Bad 3 a1 b3 c2 Good 根据这些数据,我们想回答: If we got a record 4, that is 'a1,b1,c2',  is record4 Good or Bad? 解决方法 我们要分别考量record4的三个属性的先验(Priori)结果.那首先考虑属性C吧. C / \ c1(Subset1: Good-1