EmEditor处理大文本文件

前段时间新闻网由于用户不当操作。导致三年的报纸栏目内容全部清空。紧急情况下只能求助于SQL数据恢复。但备份的数据文件有500M左右。

首先用的文本编辑器是Notepad++,打开之后软件几乎完全卡死。查看任务管理器,有十几个进程一起处理都不能流畅的处理文本。经过一天多的折腾,最后决定放弃使用该软件。

Google搜索了一下发现了一个EmEditor文本编辑器可以处理大数据量的文本。官方给出如下的描述信息:

支持超大数据
轻松处理248GB大的文件
多线程性能

经过尝试,果然很是流畅。文档内容好像是依据浏览部位逐次加载显示的。很快找到原始数据,经过数据恢复,将报纸内容完整恢复。

软件虽然好用,但是要收费。所以还是试用一下卸载吧。记录下来,方便以后使用。

时间: 2024-11-26 01:57:03

EmEditor处理大文本文件的相关文章

Java读写大文本文件(2GB以上)

如下的程序,将一个行数为fileLines的文本文件平均分为splitNum个小文本文件,其中换行符'r'是linux上的,windows的java换行符是'\r\n': package kddcup2012.task2.FileSystem; import java.io.BufferedInputStream; import java.io.BufferedReader; import java.io.File; import java.io.FileInputStream; import 

处理大文本文件(GB级别),查找,替换,复制

通常遇到的大文本文件是log日志文件,GB级别的log文件很常见 通常在打开log文件时头痛,因为常用的一些文本文件工具都不好用了,比如UE,notepad++等,记事本就不用提了 今天,我需要在1.5G的log文件中查找标签,然后导出到新的文本文件中,再进行其他的操作. 用notepad++时,直接提示文件,无法打开 用UE可以打开,但是得很久很久,大概十几分钟,打开之后系统就很慢了,查找的效率就不用说 于是在网上找资料,论坛上有人推荐PilotEdit,于是下载PilotEdit_lite免

R实现大文本文件数据分组汇总的方法

使用R语言对文件数据分组汇总是很普遍的操作,但有时我们会遇到比较大的文件,这类文件的计算结果较小,但源数据太大,无法全部放入内存进行计算,只能采用分批读取.分批计算.拼合结果的办法来解决.下面用一个例子来说明R实现大文件数据分组汇总的方法. 有个1G的文件sales.txt,存储着大量订单记录,我们要对CLIENT字段分组并对AMOUNT字段汇总.该文件的列分割符为"\t",前几行数据如下: R语言解决方案     con <- file("E: \\sales.txt

集算器并行处理大文本文件的示例

集算器可以方便地用并行方式处理大文本文件,下面通过一个例子来说明使用方法. 假设有个一千万条销售记录的文本文件sales.txt,其主要字段是SellerID(销售员).OrderDate(订单日期).Amount(订单金额),请计算每个销售员在近四年里的大订单总金额.其中,金额在2000以上的属于大订单. 要进行并行处理,首先要能对文件进行分段,集算器提供了游标数据对象cursor及其函数,可以方便地分段读取大文本文件.比如file("e:/sales.txt")[email pro

读取大文本文件

目录 大容量文件读写并统计 #思路 io流的初始化 Treemap的建立和读取起点 判断是否为出现最多 结果 参考 大容量文件读写并统计 https://www.cnblogs.com/outmanx/p/9694493.html 在这个项目的基础上,我稍作了修改,并能让程序进行低占存的大文本文件读写,并统计出行数和出现最多的字符串 #思路 参考https://www.cnblogs.com/zhujiabin/p/5660541.html的思路,通过RandomAccessfile的类方法进行

PowerShell工具脚本---按行数切割大文本文件

我编写的PowerShell工具脚本,[按行数切割大(文本)文件],生成n个小文件. 主要目的是为了能够让excel快速处理.或用脚本并发处理文本. 注意: 1 如果有必要,你可以先用其他工具,把大文本按行排序. 2 由于powershell本身就能自动识别win,linux换行.所以本脚本没有换行参数,也能正确分行. 3 win7+powershell2.0测试通过. 下载地址: http://files.cnblogs.com/files/piapia/split_file_ps_scrip

Java查询大文本文件的处理方法

有时我们需要查询大文本而不是数据库,这时就需要流式读入文件并实现查询算法,还要进行并行处理以提高性能.但JAVA本身缺少相应的类库,需要硬编码才能实现结构化文件计算,代码复杂且可读性差,难以实现高效的并行处理. 使用免费的集算器可以弥补这一不足.集算器封装了丰富的结构化文件读写和游标计算函数,书写简单代码就能实现并行计算,并提供了易用的JDBC接口.JAVA应用程序可以将集算器脚本文件当做数据库存储过程执行,传入参数并用JDBC获得返回结果. 集算器与Java应用程序的集成结构如下: 下面举例说

C#读取大文本文件

今天偶遇一同事抱怨,sqlserver导出的CSV,明明有1000W条,但用excel打开就只剩100W了,足足消失了90%,所以她怀疑文件是足量的1000W条,是excel捣了鬼.可是文件容量有2G+,用记事本打不开,如何证明CSV文件没有缺少数据,这可难坏了他. 好吧,本着不看其他轮子,有问题自己造一个的原则,我决定用控制台程序写一个简易读取程序,具体CODE如下: using System; using System.Collections.Generic; using System.Li

java读取大文本文件

原文:http://blog.csdn.net/k21325/article/details/53886160 小文件当然可以直接读取所有,然后放到内存中,但是当文件很大的时候,这个方法就行不通了,内存不是这么玩的~~ 那么,下面是解决方法: 1.Java底层:调用java的java.util.Scanner类扫描文件内容,一行一行,连续读取 FileInputStream inputStream = null; Scanner sc = null; try { inputStream = ne