读论文 《TransForm Mapping Using Shared Decision Tree Context Clustering for HMM-based Cross-Lingual Speech Synthesis》(2)

3   Cross-lingualspeakeradaptationusing STC with a bilingual corpus

第一段:

  1. In the state mapping technique described in the previous section, the mismatch of language characteristics affects the mapping performance of transformation matrices because only the acoustic features are taken into account in the KLD-based map- ping construction. To improve the mapping performance, we use not only acoustic features but also contextual factors when constructing the transform mapping.

    1. 这两句话昨天看过了,
    2. 暂时不要去太扣细节,可以稍微的带点深度的理解每句话,但是不要扣的太深即可
    3. 说白了,本文和Yijian Wu的论文都是做的state maping,
      1. Yijian Wu是基于KLD的,仅仅考虑的acoutic features
      2. 本文是基于STC的,同时考虑acoustc features和contextual factors
  2. By using contextual factors, we can also take articulation manners and suprasegmental features into account for the mapping construction.
    1. 发音方式
    2. 超音段特征
      1. 什么是超音段特征???
      2. 搞语音也有一段时间了,连超音段特征是什么,现在都还不太清楚。
  3. In this section, we propose a novel transform mapping technique based on shared decision tree context clustering (STC) for cross-lingual speaker adaptation, which can reduce the influences of the speaker and language mismatches between average voice models of input and output languages. 
    1. 本文提出了一种新颖的state mapping技术,基于STC树
    2. 擦,我想起来了STC树不是作者原创的,是已经有人提出来,用于SAT的过程中,在自适应时,如果有多个说话人,而且说话人之间的差距挺大的,用STC可以训练出一个更好的average voice model
    3. 不过,作者也还是挺厉害的,因为,之前做state mapping都是基于KLD的,他能把SAT的技术STC用来做state mapping也是挺厉害的
      1. 首先,他对state mapping是很清楚的
      2. 然后,清楚的明白KLD state mapping的缺点是什么
      3. 清楚的明白STC的全过程
      4. 清楚的明白STC的优点可以克服KLD的缺点。
时间: 2024-07-30 20:22:46

读论文 《TransForm Mapping Using Shared Decision Tree Context Clustering for HMM-based Cross-Lingual Speech Synthesis》(2)的相关文章

读论文 《TransForm Mapping Using Shared Decision Tree Context Clustering for HMM-based Cross-Lingual Speech Synthesis》(3)

3.1. Shareddecisiontreecontextclustering(STC) STC [11] was originally proposed to avoid generating speaker-biased leaf nodes in the tree construction of an average voice model. 果然,这里作者说了一下STC技术的出处在什么地方 然后简单的介绍了STC技术是用来解决什么问题的 在average voice model的树的构

读论文 《TransForm Mapping Using Shared Decision Tree Context Clustering for HMM-based Cross-Lingual Speech Synthesis》(1)

3. Cross-lingual speaker adaptation using STC with a bilingual corpus 第一段 问题1,为什么要用双语语料库,双语语料库是同一个说话人的吗? cross-lingual speaker adaptation的开山鼻祖是Yijiang Wang的论文,而且也实现了代码,在HTS 2.2中. Yijiang Wang的做法是基于state mapping的,而本文作者的做法是基于STC,然后加上双语语料库 注意一点,本文作者与Yij

Gradient Boost Decision Tree(&Treelink)

http://www.cnblogs.com/joneswood/archive/2012/03/04/2379615.html 1.      什么是Treelink Treelink是阿里集团内部的叫法,其学术上的名称是GBDT(Gradient Boosting Decision Tree,梯度提升决策树).GBDT是“模型组合+决策树”相关算法的两个基本形式中的一个,另外一个是随机森林(Random Forest),相较于GBDT要简单一些. 1.1    决策树 应用最广的分类算法之一

机器学习中的算法:决策树模型组合之GBDT(Gradient Boost Decision Tree)

[转载自:http://www.cnblogs.com/LeftNotEasy/archive/2011/03/07/random-forest-and-gbdt.html] 前言 决策树这种算法有着很多良好的特性,比如说训练时间复杂度较低,预测的过程比较快速,模型容易展示(容易将得到的决策树做成图片展示出来)等.但是同时,单决策树又有一些不好的地方,比如说容易over-fitting,虽然有一些方法,如剪枝可以减少这种情况,但是还是不够的. 模型组合(比如说有Boosting,Bagging等

【Gradient Boosted Decision Tree】林轩田机器学习技术

GBDT之前实习的时候就听说应用很广,现在终于有机会系统的了解一下. 首先对比上节课讲的Random Forest模型,引出AdaBoost-DTree(D) AdaBoost-DTree可以类比AdaBoost-Stump模型,就可以直观理解了 1)每轮都给调整sample的权重 2)获得gt(D,ut) 3)计算gt的投票力度alphat 最后返回一系列gt的线性组合. weighted error这个比较难搞,有没有不用动原来的模型,通过输入数据上做文章就可以达到同样的目的呢? 回想bag

object detection--Decision Tree

VJ VJ算法是object detection中提出较早的方法了,将它归类于DF (decision forests 决策森林)方法的范畴. References中的[1],提出了 VJ 算法来进行人脸识别: 采用的特征.分类器.算法的结构 1) 采用的特征为rectangle features,种类有3种: two-rectangle feature.three-rectangle feature.four-rectangle feature 论文原图如下: 这三种特征都有一横一竖两种情况,

机器学习分类实例——SVM(修改)/Decision Tree/Naive Bayes

机器学习分类实例--SVM(修改)/Decision Tree/Naive Bayes 20180427-28笔记.30总结 已经5月了,毕设告一段落了,该准备论文了.前天开会老师说,希望我以后做关于语义分析那一块内容,会议期间还讨论了学姐的知识图谱的知识推理内容,感觉也挺有趣的,但是感觉应该会比较复杂.有时间的话希望对这块了解一下.其实吧,具体怎么展示我还是不太清楚... 大概就是图表那个样子.我先做一个出来,让老师看看,两个礼拜写论文.24/25答辩,6月就可以去浪哈哈哈哈哈哈. 一.工作

数据挖掘-决策树 Decision tree

数据挖掘-决策树 Decision tree 目录 数据挖掘-决策树 Decision tree 1. 决策树概述 1.1 决策树介绍 1.1.1 决策树定义 1.1.2 本质 1.1.3 决策树的组成 1.1.4 决策树的分类 1.1.5 决策过程 1.2 决策树的优化 1.2.1 过拟合 1.3.1 剪枝 2. 理论基础 2.1 香农理论 2.1.1 信息量 2.1.2 平均信息量/信息熵 2.1.3 条件熵 2.1.4 信息增益(Information gain) 2.1.5 信息增益率

Decision Tree 1: Basis 决策树基础

 介绍 我们有一些历史数据: record id\attributes A B C Result 1 a1 b1 c1 Good 2 a2 b2 c1 Bad 3 a1 b3 c2 Good 根据这些数据,我们想回答: If we got a record 4, that is 'a1,b1,c2',  is record4 Good or Bad? 解决方法 我们要分别考量record4的三个属性的先验(Priori)结果.那首先考虑属性C吧. C / \ c1(Subset1: Good-1