10、用2000句HW的模型文件对Zhijun40句语料做fa得到的label文件,然后进行合成的效果

  1. 听了一下,效果还不错,每个音节都能听清楚了,比之前的用zhijun40句自身的mmf文件做fa,进行合成的效果好很多啊。

    1. 2015-04/experiment/ZhiJun_SpeakerA2_30-fa-New
    2. 2015-04/experiment/Zhijun40句用HW2000句模型做fa得到的label文件
  2. 合成的第一句话是集合内的测试,
    1. 原始语料第一句是32s
    2. 合成语音的第一句是31s
    3. 自适应的合成的语音第一句是27s
时间: 2024-10-07 18:35:51

10、用2000句HW的模型文件对Zhijun40句语料做fa得到的label文件,然后进行合成的效果的相关文章

9、用HW2000的模型文件,对XuXiaoQing33句语料做fa

现在是用XuXiaoQing33句语料,用Ning的随机的初始化的切分信息进行训练,得到monophome.mmf文件,然后用来进行fa, 现在的问题是: 训练得到monophome.mmf文件的时间太长了, 用训练得到的monophome.mmf文件再来做fa,得到的切分信息也不准确啊. 所以,现在要用HW2000的monophone.mmf文件+mono.list文件来对XuXiaoQing33句语料做fa 创建路径ZhiJun_XuXiaoQing-fa-useHW2000Mmf 拷贝Zh

7、探究用HW2000句训好的模型文件,直接对XuXiaoQing的语料做fa可以吗?

事情的起因: 现在正在做实验,对XuXiaoQing语料进行强制对齐,HMM_training/yuqj/ZhiJun_XuXiaoQing-fa,发现训练的时间太长了,7个小时了,还在做Start embedded reestimation (monophone),这一步. 训练时间太长了,所以,我现在的想法是,想用年前吴老师让我调研的用2000句的HW语料训练好的HMM模型文件,来直接做强制对起这一步. 仔细分析HSMMAlign这一步的过程: /home/ningys/hts_instal

用批处理文件自动备份文件及文件夹,并自动删除n天前的文件

---恢复内容开始--- 下是备份的批处理,添加到"计划任务"中,设定时间自动运行 复制代码 代码如下:@echo off rem 格式化日期 rem date出来的日期是"2006-02-22 星期三",不能直接拿来使用,所以应该先格式化一下 rem 变成我们想要的.date:~0,4的意思是从0开始截取4个字符 set d=%date:~0,4%%date:~5,2%%date:~8,2% rem 设定压缩程序路径,这里用的是WINRAR的rar.exe进行打包

win32 汇编实现全盘文件扫描功能(杀毒程序的扫描全盘文件功能)

相信每一个玩过电脑的人都知道杀毒软件这个东西的存在(如果你不知道...那么我也没啥说的了汗..),每当我们的电脑出现卡顿或者中毒等情况的的时候,我们往往会进行一个全盘的文件扫描,对每个文件进行处理,包括校验该文件的各种属性,来确定该文件是否是垃圾文件或者是不安全文件,以前没有接触计算机内存管理的时候感觉当杀毒软件对全盘的文件进行扫描的时候,那种刷刷刷扫描文件的状态感觉很是强大(那时候还小对什么都好奇...),当学习完计算机内存管理的时候才算是有所了解,这个功能完全可以用很短的代码实现此功能,只不

java大文件读写操作,java nio 之MappedByteBuffer,高效文件/内存映射

java处理大文件,一般用BufferedReader,BufferedInputStream这类带缓冲的Io类,不过如果文件超大的话,更快的方式是采用MappedByteBuffer. MappedByteBuffer是java nio引入的文件内存映射方案,读写性能极高.NIO最主要的就是实现了对异步操作的支持.其中一种通过把一个套接字通道(SocketChannel)注册到一个选择器(Selector)中,不时调用后者的选择(select)方法就能返回满足的选择键(SelectionKey

python 按照日期切分大日志文件(重点)和按照指定大小切分日志文件

#! /usr/bin/env python # -*- coding:utf8 -*- # 切分nginx 按照日期切分日志文件 from __future__ import division import os,sys big_file='/data/logs/media.net.error.log' # 按照文件大小拆分 def split_by_filesize(fromfile,todir,chunksize=0): """ chunksize: 字节建议每100M

8. 文件系统——文件的删除、移动、复制过程以及链接文件

一.删除.移动.复制和文件系统的关联关系 1.删除文件的过程 以/var/log/messages这个文件为例,删除messages这个文件的过程大致如下: ①找到/var/log/messages所在的inode(查找文件的过程见前一章节): ②删除/var/log目录上有关messages的条目: ③清空索引中/var/log/messages对应的inode数据(注意,不是删除inode,而是清空这个inode的数据),将此inode对应的位图改为空闲(如从1改为0).事实上可以不清除数据

R语言︱文件读入、读出一些方法罗列(批量xlsx文件、数据库、文本txt、文件夹)

笔者寄语:小规模的读取数据的方法较为简单并且多样,但是,批量读取目前看到有以下几种方法:xlsx包.RODBC包.批量转化成csv后读入. R语言中还有一些其他较为普遍的读入,比如代码包,R文件,工作空间等. source  #读取R代码dget    #读取R文件load    #读取工作空间 -------------------------------- SPSS-STATA格式的读入包--foreign 读取其他软件的格式foreigninstall.packages("foreign&

matlab文件读写处理实例(二)——textread批量读取文件

问题:对文件夹下所有文件进行批量读取,跳过文件头部分,读取每个文件数据部分的7,8,9列,保存到变量并且输出到文件. 数据: 文件夹11m\  单个文件格式: DAV1                                                        MARKER NAME66010M001                                                   MARKER NUMBER     7    PR    TD    HR