导入CSV格式的数据

导入CSV格式的数据
(参见http://dev.mysql.com/doc/refman/5.6/en/load-data.html)
1.数据库表(st_pptn_r)
CREATE TABLE st_pptn_r (
STCD         varchar(8)     DEFAULT NULL,
TM         datetime         DEFAULT NULL,
DRP         decimal(5,1)     DEFAULT NULL,
INTV         decimal(5,2)     DEFAULT NULL,
PDR         decimal(5,2)     DEFAULT NULL,
DYP         decimal(5,1)     DEFAULT NULL,
WTH         varchar(1)     DEFAULT NULL,
DATETIME     datetime         DEFAULT NULL
)

2.数据
从Oracle导出数据的SQL为(注意字段顺序):
1.st_pptn_r表
select
stcd, to_char(tm,‘yyyy-mm-dd hh24:mi:ss‘) tm, drp, intv, pdr, dyp, wth, to_char(datetime,‘yyyy-mm-dd hh24:mi:ss‘) datetime
from st_pptn_r;

2.st_river_r表
select
stcd, to_char(tm,‘yyyy-mm-dd hh24:mi:ss‘) tm , z, q, xsa, xsavv, xsmxv, flwchrcd, wptn, msqmt, msamt, msvmt
from st_river_r;

3.st_rsvr_r表
select
stcd, to_char(tm,‘yyyy-mm-dd hh24:mi:ss‘) tm, rz, inq, w, blrz, otq, rwchrcd, rwptn, inqdr, msqmt
from st_rsvr_r;

最终的数据格式:
1.st_pptn_r.csv文件
tm,drp,intv,pdr,dyp,wth,datetime
60948000,2014-05-02 04:00:00,0.5,1,,,7,
60948000,2014-05-01 22:00:00,0,1,,,9,

2.st_river_r.csv文件
STCD,TM,Z,Q,XSA,XSAVV,XSMXV,FLWCHRCD,WPTN,MSQMT,MSAMT,MSVMT
61906190,2014-05-02 00:00:00,336.77,,,,,,6,,,
62208300,2014-05-03 10:00:00,24.25,,,,,,6,,,

3.st_rsvr_r.csv文件
STCD,TM,RZ,INQ,W,BLRZ,OTQ,RWCHRCD,RWPTN,INQDR,MSQMT
61615000,2014-05-02 04:00:00,77.13,,56.966,,,,6,,
61615810,2014-05-02 06:00:00,289.56,,71.289,,,,5,,

3.命令操作
    1.st_pptn_r表
 > Load Data InFile ‘D:/st_pptn_r.csv‘
Into Table ST_PPTN_R
fields terminated by ‘,‘
lines terminated by ‘\r\n‘
ignore 1 lines
(stcd, tm, @drp, @intv, @pdr, @dyp, @wth, @datetime)
set
drp=if(@drp=‘‘,NULL,@drp),
intv=if(@intv=‘‘,NULL,@intv),
pdr=if(@pdr=‘‘,NULL,@pdr),
dyp=if(@dyp=‘‘,NULL,@dyp),
wth=if(@wth=‘‘,NULL,@wth),
datetime=if(@datetime=‘‘,NULL,str_to_date(@datetime, ‘%Y-%m-%d %H:%i:%s‘));

2.st_river_r表
 > Load Data InFile ‘D:/st_river_r.csv‘
Into Table ST_RIVER_R
fields terminated by ‘,‘
lines terminated by ‘\r\n‘
ignore 1 lines
(stcd,tm,@z,@q,@xsa,@xsavv,@xsmxv,@flwchrcd,@wptn,@msqmt,@msamt,@msvmt)
set
z=if(@z=‘‘,NULL,@z),
q=if(@q=‘‘,NULL,@q),
xsa=if(@xsa=‘‘,NULL,@xsa),
xsavv=if(@xsavv=‘‘,NULL,@xsavv),
xsmxv=if(@xsmxv=‘‘,NULL,@xsmxv),
flwchrcd=if(@flwchrcd=‘‘,NULL,@flwchrcd),
wptn=if(@wptn=‘‘,NULL,@wptn),
msqmt=if(@msqmt=‘‘,NULL,@msqmt),
msamt=if(@msamt=‘‘,NULL,@msamt),
msvmt=if(@msvmt=‘‘,NULL,@msvmt);

3.st_rsvr_r表
 > Load Data InFile ‘D:/st_rsvr_r.csv‘
Into Table ST_RSVR_R
fields terminated by ‘,‘
lines terminated by ‘\r\n‘
ignore 1 lines
(stcd, tm, @rz, @inq, @w, @blrz, @otq, @rwchrcd, @rwptn, @inqdr, @msqmt)
set
rz=if(@rz=‘‘,NULL,@rz),
inq=if(@inq=‘‘,NULL,@inq),
w=if(@w=‘‘,NULL,@w),
blrz=if(@blrz=‘‘,NULL,@blrz),
otq=if(@otq=‘‘,NULL,@otq),
rwchrcd=if(@rwchrcd=‘‘,NULL,@rwchrcd),
rwptn=if(@rwptn=‘‘,NULL,@rwptn),
inqdr=if(@inqdr=‘‘,NULL,@inqdr),
msqmt=if(@msqmt=‘‘,NULL,@msqmt);

-----------------------------------------------------------------------------------------------------

select * from test_info
into outfile ‘/tmp/test.csv‘
fields terminated by ‘,‘
optionally enclosed by ‘"‘ escaped by ‘"‘
lines terminated by ‘\r\n‘;

load data infile ‘/tmp/test.csv‘
into table test_info
fields terminated by ‘,‘
optionally enclosed by ‘"‘ escaped by ‘"‘
lines terminated by ‘\r\n‘;

------------------------------------------------------------------------------------------------------
UPDATE st_pptn_r SET tm = STR_TO_DATE(CONCAT(DATE_FORMAT(tm,‘%Y-%m-%d %H‘),‘:00:00‘),‘%Y-%m-%d %H:%i:%s‘)

DELETE FROM st_pptn_r WHERE tm IN
(
SELECT b.tm FROM
(
SELECT a.tm, COUNT(a.stcd) cou FROM st_pptn_r a GROUP BY a.tm
) b
WHERE b.cou<1000
);

DELETE FROM st_pptn_r WHERE tm IN
(
SELECT b.tm FROM
(
SELECT a.tm, COUNT(a.stcd) cou FROM st_pptn_r a WHERE a.drp<0.0001 GROUP BY a.tm
) b
WHERE b.cou>2800
);

# DELETE FROM st_pptn_r WHERE tm < ‘2014-07-01 08:00:00‘ OR tm > ‘2014-08-01 08:00:00‘

DELETE FROM st_pptn_r WHERE tm<‘2014-07-16 08:00:00‘ OR tm>‘2014-07-26 08:00:00‘

------------------------------------------------------------------------------------------------------

SELECT COUNT(*) cou, ‘pptn‘ FROM st_pptn_r
UNION
SELECT COUNT(*) cou, ‘river‘ FROM st_river_r
UNION
SELECT COUNT(*) cou, ‘rsvr‘ FROM st_rsvr_r

SELECT tm, stcd, MAX(drp) drp FROM st_pptn_r WHERE drp>10 GROUP BY tm, stcd ORDER BY drp DESC

SELECT SUM(cou) cou,  LEFT(tm, 11) tmm FROM
(
SELECT tm, COUNT(stcd) cou FROM st_pptn_r WHERE drp>10 GROUP BY tm
) b
 GROUP BY tmm
 ORDER BY cou DESC

----------------------------------------------------------------------------------------------------------------------

----------------------------------------------------------------------------------------------------------------------

1.数据的导入导出
mysqldump -u root -p --no-create-db --default-character-set=utf8 -e --max_allowed_packet=102400 --net_buffer_length=16384 smfs > f:\da\smfs\smfs12.sql

Mysqldump参数大全

参数说明

--all-databases  , -A

导出全部数据库。

mysqldump  -uroot -p --all-databases

--all-tablespaces  , -Y

导出全部表空间。

mysqldump  -uroot -p --all-databases --all-tablespaces

--no-tablespaces  , -y

不导出任何表空间信息。

mysqldump  -uroot -p --all-databases --no-tablespaces

--add-drop-database

每个数据库创建之前添加drop数据库语句。

mysqldump  -uroot -p --all-databases --add-drop-database

--add-drop-table

每个数据表创建之前添加drop数据表语句。(默认为打开状态,使用--skip-add-drop-table取消选项)

mysqldump  -uroot -p --all-databases  (默认添加drop语句)

mysqldump  -uroot -p --all-databases –skip-add-drop-table  (取消drop语句)

--add-locks

在每个表导出之前增加LOCK TABLES并且之后UNLOCK  TABLE。(默认为打开状态,使用--skip-add-locks取消选项)

mysqldump  -uroot -p --all-databases  (默认添加LOCK语句)

mysqldump  -uroot -p --all-databases –skip-add-locks   (取消LOCK语句)

--allow-keywords

允许创建是关键词的列名字。这由表名前缀于每个列名做到。

mysqldump  -uroot -p --all-databases --allow-keywords

--apply-slave-statements

在‘CHANGE MASTER‘前添加‘STOP SLAVE‘,并且在导出的最后添加‘START SLAVE‘。

mysqldump  -uroot -p --all-databases --apply-slave-statements

--character-sets-dir

字符集文件的目录

mysqldump  -uroot -p --all-databases  --character-sets-dir=/usr/local/mysql/share/mysql/charsets

--comments

附加注释信息。默认为打开,可以用--skip-comments取消

mysqldump  -uroot -p --all-databases  (默认记录注释)

mysqldump  -uroot -p --all-databases --skip-comments   (取消注释)

--compatible

导出的数据将和其它数据库或旧版本的MySQL 相兼容。值可以为ansi、mysql323、mysql40、postgresql、oracle、mssql、db2、maxdb、no_key_options、no_tables_options、no_field_options等,

要使用几个值,用逗号将它们隔开。它并不保证能完全兼容,而是尽量兼容。

mysqldump  -uroot -p --all-databases --compatible=ansi

--compact

导出更少的输出信息(用于调试)。去掉注释和头尾等结构。可以使用选项:--skip-add-drop-table  --skip-add-locks --skip-comments --skip-disable-keys

mysqldump  -uroot -p --all-databases --compact

--complete-insert,  -c

使用完整的insert语句(包含列名称)。这么做能提高插入效率,但是可能会受到max_allowed_packet参数的影响而导致插入失败。

mysqldump  -uroot -p --all-databases --complete-insert

--compress, -C

在客户端和服务器之间启用压缩传递所有信息

mysqldump  -uroot -p --all-databases --compress

--create-options,  -a

在CREATE TABLE语句中包括所有MySQL特性选项。(默认为打开状态)

mysqldump  -uroot -p --all-databases

--databases,  -B

导出几个数据库。参数后面所有名字参量都被看作数据库名。

mysqldump  -uroot -p --databases test mysql

--debug

输出debug信息,用于调试。默认值为:d:t:o,/tmp/mysqldump.trace

mysqldump  -uroot -p --all-databases --debug

mysqldump  -uroot -p --all-databases --debug=” d:t:o,/tmp/debug.trace”

--debug-check

检查内存和打开文件使用说明并退出。

mysqldump  -uroot -p --all-databases --debug-check

--debug-info

输出调试信息并退出

mysqldump  -uroot -p --all-databases --debug-info

--default-character-set

设置默认字符集,默认值为utf8

mysqldump  -uroot -p --all-databases --default-character-set=latin1

--delayed-insert

采用延时插入方式(INSERT DELAYED)导出数据

mysqldump  -uroot -p --all-databases --delayed-insert

--delete-master-logs

master备份后删除日志. 这个参数将自动激活--master-data。

mysqldump  -uroot -p --all-databases --delete-master-logs

--disable-keys

对于每个表,用/*!40000 ALTER TABLE tbl_name DISABLE KEYS */;和/*!40000 ALTER TABLE tbl_name ENABLE KEYS */;语句引用INSERT语句。这样可以更快地导入dump出来的文件,因为它是在插入所有行后创建索引的。该选项只适合MyISAM表,默认为打开状态。

mysqldump  -uroot -p --all-databases

--dump-slave

该选项将导致主的binlog位置和文件名追加到导出数据的文件中。设置为1时,将会以CHANGE MASTER命令输出到数据文件;设置为2时,在命令前增加说明信息。该选项将会打开--lock-all-tables,除非--single-transaction被指定。该选项会自动关闭--lock-tables选项。默认值为0。

mysqldump  -uroot -p --all-databases --dump-slave=1

mysqldump  -uroot -p --all-databases --dump-slave=2

--events, -E

导出事件。

mysqldump  -uroot -p --all-databases --events

--extended-insert,  -e

使用具有多个VALUES列的INSERT语法。这样使导出文件更小,并加速导入时的速度。默认为打开状态,使用--skip-extended-insert取消选项。

mysqldump  -uroot -p --all-databases

mysqldump  -uroot -p --all-databases--skip-extended-insert   (取消选项)

--fields-terminated-by

导出文件中忽略给定字段。与--tab选项一起使用,不能用于--databases和--all-databases选项

mysqldump  -uroot -p test test --tab=”/home/mysql” --fields-terminated-by=”#”

--fields-enclosed-by

输出文件中的各个字段用给定字符包裹。与--tab选项一起使用,不能用于--databases和--all-databases选项

mysqldump  -uroot -p test test --tab=”/home/mysql” --fields-enclosed-by=”#”

--fields-optionally-enclosed-by

输出文件中的各个字段用给定字符选择性包裹。与--tab选项一起使用,不能用于--databases和--all-databases选项

mysqldump  -uroot -p test test --tab=”/home/mysql”  --fields-enclosed-by=”#” --fields-optionally-enclosed-by  =”#”

--fields-escaped-by

输出文件中的各个字段忽略给定字符。与--tab选项一起使用,不能用于--databases和--all-databases选项

mysqldump  -uroot -p mysql user --tab=”/home/mysql” --fields-escaped-by=”#”

--flush-logs

开始导出之前刷新日志。

请注意:假如一次导出多个数据库(使用选项--databases或者--all-databases),将会逐个数据库刷新日志。除使用--lock-all-tables或者--master-data外。在这种情况下,日志将会被刷新一次,相应的所以表同时被锁定。因此,如果打算同时导出和刷新日志应该使用--lock-all-tables 或者--master-data 和--flush-logs。

mysqldump  -uroot -p --all-databases --flush-logs

--flush-privileges

在导出mysql数据库之后,发出一条FLUSH  PRIVILEGES 语句。为了正确恢复,该选项应该用于导出mysql数据库和依赖mysql数据库数据的任何时候。

mysqldump  -uroot -p --all-databases --flush-privileges

--force

在导出过程中忽略出现的SQL错误。

mysqldump  -uroot -p --all-databases --force

--help

显示帮助信息并退出。

mysqldump  --help

--hex-blob

使用十六进制格式导出二进制字符串字段。如果有二进制数据就必须使用该选项。影响到的字段类型有BINARY、VARBINARY、BLOB。

mysqldump  -uroot -p --all-databases --hex-blob

--host, -h

需要导出的主机信息

mysqldump  -uroot -p --host=localhost --all-databases

--ignore-table

不导出指定表。指定忽略多个表时,需要重复多次,每次一个表。每个表必须同时指定数据库和表名。例如:--ignore-table=database.table1 --ignore-table=database.table2 ……

mysqldump  -uroot -p --host=localhost --all-databases --ignore-table=mysql.user

--include-master-host-port

在--dump-slave产生的‘CHANGE  MASTER TO..‘语句中增加‘MASTER_HOST=<host>,MASTER_PORT=<port>‘

mysqldump  -uroot -p --host=localhost --all-databases --include-master-host-port

--insert-ignore

在插入行时使用INSERT IGNORE语句.

mysqldump  -uroot -p --host=localhost --all-databases --insert-ignore

--lines-terminated-by

输出文件的每行用给定字符串划分。与--tab选项一起使用,不能用于--databases和--all-databases选项。

mysqldump  -uroot -p --host=localhost test test --tab=”/tmp/mysql”  --lines-terminated-by=”##”

--lock-all-tables,  -x

提交请求锁定所有数据库中的所有表,以保证数据的一致性。这是一个全局读锁,并且自动关闭--single-transaction 和--lock-tables 选项。

mysqldump  -uroot -p --host=localhost --all-databases --lock-all-tables

--lock-tables,  -l

开始导出前,锁定所有表。用READ  LOCAL锁定表以允许MyISAM表并行插入。对于支持事务的表例如InnoDB和BDB,--single-transaction是一个更好的选择,因为它根本不需要锁定表。

请注意当导出多个数据库时,--lock-tables分别为每个数据库锁定表。因此,该选项不能保证导出文件中的表在数据库之间的逻辑一致性。不同数据库表的导出状态可以完全不同。

mysqldump  -uroot -p --host=localhost --all-databases --lock-tables

--log-error

附加警告和错误信息到给定文件

mysqldump  -uroot -p --host=localhost --all-databases  --log-error=/tmp/mysqldump_error_log.err

--master-data

该选项将binlog的位置和文件名追加到输出文件中。如果为1,将会输出CHANGE MASTER 命令;如果为2,输出的CHANGE  MASTER命令前添加注释信息。该选项将打开--lock-all-tables 选项,除非--single-transaction也被指定(在这种情况下,全局读锁在开始导出时获得很短的时间;其他内容参考下面的--single-transaction选项)。该选项自动关闭--lock-tables选项。

mysqldump  -uroot -p --host=localhost --all-databases --master-data=1;

mysqldump  -uroot -p --host=localhost --all-databases --master-data=2;

--max_allowed_packet

服务器发送和接受的最大包长度。

mysqldump  -uroot -p --host=localhost --all-databases --max_allowed_packet=10240

--net_buffer_length

TCP/IP和socket连接的缓存大小。

mysqldump  -uroot -p --host=localhost --all-databases --net_buffer_length=1024

--no-autocommit

使用autocommit/commit 语句包裹表。

mysqldump  -uroot -p --host=localhost --all-databases --no-autocommit

--no-create-db,  -n

只导出数据,而不添加CREATE DATABASE 语句。

mysqldump  -uroot -p --host=localhost --all-databases --no-create-db

--no-create-info,  -t

只导出数据,而不添加CREATE TABLE 语句。

mysqldump  -uroot -p --host=localhost --all-databases --no-create-info

--no-data, -d

不导出任何数据,只导出数据库表结构。

mysqldump  -uroot -p --host=localhost --all-databases --no-data

--no-set-names,  -N

等同于--skip-set-charset

mysqldump  -uroot -p --host=localhost --all-databases --no-set-names

--opt

等同于--add-drop-table,  --add-locks, --create-options, --quick, --extended-insert, --lock-tables,  --set-charset, --disable-keys 该选项默认开启,  可以用--skip-opt禁用.

mysqldump  -uroot -p --host=localhost --all-databases --opt

--order-by-primary

如果存在主键,或者第一个唯一键,对每个表的记录进行排序。在导出MyISAM表到InnoDB表时有效,但会使得导出工作花费很长时间。

mysqldump  -uroot -p --host=localhost --all-databases --order-by-primary

--password, -p

连接数据库密码

--pipe(windows系统可用)

使用命名管道连接mysql

mysqldump  -uroot -p --host=localhost --all-databases --pipe

--port, -P

连接数据库端口号

--protocol

使用的连接协议,包括:tcp, socket, pipe, memory.

mysqldump  -uroot -p --host=localhost --all-databases --protocol=tcp

--quick, -q

不缓冲查询,直接导出到标准输出。默认为打开状态,使用--skip-quick取消该选项。

mysqldump  -uroot -p --host=localhost --all-databases

mysqldump  -uroot -p --host=localhost --all-databases --skip-quick

--quote-names,-Q

使用(`)引起表和列名。默认为打开状态,使用--skip-quote-names取消该选项。

mysqldump  -uroot -p --host=localhost --all-databases

mysqldump  -uroot -p --host=localhost --all-databases --skip-quote-names

--replace

使用REPLACE INTO 取代INSERT INTO.

mysqldump  -uroot -p --host=localhost --all-databases --replace

--result-file,  -r

直接输出到指定文件中。该选项应该用在使用回车换行对(\\r\\n)换行的系统上(例如:DOS,Windows)。该选项确保只有一行被使用。

mysqldump  -uroot -p --host=localhost --all-databases --result-file=/tmp/mysqldump_result_file.txt

--routines, -R

导出存储过程以及自定义函数。

mysqldump  -uroot -p --host=localhost --all-databases --routines

--set-charset

添加‘SET NAMES  default_character_set‘到输出文件。默认为打开状态,使用--skip-set-charset关闭选项。

mysqldump  -uroot -p --host=localhost --all-databases

mysqldump  -uroot -p --host=localhost --all-databases --skip-set-charset

--single-transaction

该选项在导出数据之前提交一个BEGIN SQL语句,BEGIN 不会阻塞任何应用程序且能保证导出时数据库的一致性状态。它只适用于多版本存储引擎,仅InnoDB。本选项和--lock-tables 选项是互斥的,因为LOCK  TABLES 会使任何挂起的事务隐含提交。要想导出大表的话,应结合使用--quick 选项。

mysqldump  -uroot -p --host=localhost --all-databases --single-transaction

--dump-date

将导出时间添加到输出文件中。默认为打开状态,使用--skip-dump-date关闭选项。

mysqldump  -uroot -p --host=localhost --all-databases

mysqldump  -uroot -p --host=localhost --all-databases --skip-dump-date

--skip-opt

禁用–opt选项.

mysqldump  -uroot -p --host=localhost --all-databases --skip-opt

--socket,-S

指定连接mysql的socket文件位置,默认路径/tmp/mysql.sock

mysqldump  -uroot -p --host=localhost --all-databases --socket=/tmp/mysqld.sock

--tab,-T

为每个表在给定路径创建tab分割的文本文件。注意:仅仅用于mysqldump和mysqld服务器运行在相同机器上。

mysqldump  -uroot -p --host=localhost test test --tab="/home/mysql"

--tables

覆盖--databases (-B)参数,指定需要导出的表名。

mysqldump  -uroot -p --host=localhost --databases test --tables test

--triggers

导出触发器。该选项默认启用,用--skip-triggers禁用它。

mysqldump  -uroot -p --host=localhost --all-databases --triggers

--tz-utc

在导出顶部设置时区TIME_ZONE=‘+00:00‘ ,以保证在不同时区导出的TIMESTAMP 数据或者数据被移动其他时区时的正确性。

mysqldump  -uroot -p --host=localhost --all-databases --tz-utc

--user, -u

指定连接的用户名。

--verbose, --v

输出多种平台信息。

--version, -V

输出mysqldump版本信息并退出

--where, -w

只转储给定的WHERE条件选择的记录。请注意如果条件包含命令解释符专用空格或字符,一定要将条件引用起来。

mysqldump  -uroot -p --host=localhost --all-databases --where=” user=’root’”

--xml, -X

导出XML格式.

mysqldump  -uroot -p --host=localhost --all-databases --xml

--plugin_dir

客户端插件的目录,用于兼容不同的插件版本。

mysqldump  -uroot -p --host=localhost --all-databases --plugin_dir=”/usr/local/lib/plugin”

--default_auth

客户端插件默认使用权限。

mysqldump  -uroot -p --host=localhost --all-databases --default-auth=”/usr/local/lib/plugin/<PLUGIN>”

时间: 2024-11-08 17:09:28

导入CSV格式的数据的相关文章

SQL Server 2008空间数据应用系列九:使用空间工具(Spatial Tools)导入ESRI格式地图数据

转自:http://www.cnblogs.com/beniao/archive/2011/03/22/1989310.html 友情提示,您阅读本篇博文的先决条件如下: 1.本文示例基于Microsoft SQL Server 2008 R2调测. 2.具备 Transact-SQL 编程经验和使用 SQL Server Management Studio 的经验. 3.熟悉或了解Microsoft SQL Server 2008中的空间数据类型. 4.具备相应(比如OGC规范.KML规范)的

hive中导入json格式的数据(hive分区表)

hive中建立外部分区表,外部数据格式是json的如何导入呢? json格式的数据表不必含有分区字段,只需要在hdfs目录结构中体现出分区就可以了 This is all according to this guide: http://blog.cloudera.com/blog/2012/12/how-to-use-a-serde-in-apache-hive/ 1 hive> ADD JAR /home/hadoop/hive-serdes-1.0-SNAPSHOT.jar; 2 Added

Check Point防火墙导入.csv格式的对象

Step1:将.csv格式的对象上传到管理服务器,本例为/home/admin目录 [[email protected]:0]# pwd/home/admin[[email protected]:0]# ls -ltotal 8-rw-r----- 1 admin root 625 Aug 15 22:18 host.csv-rw-r----- 1 admin root 1036 Aug 15 22:18 network.csv[[email protected]:0]# Step2:使用cat

将csv格式的数据文件导入/导出数据库+添加新的字段

最近一直忙于实验室的事情,没有好好更新博客,在抓包的过程中,遇到了很多问题. 因为我常用Wireshark将抓包信息导出为csv文件,这里简单mark一下将csv文件导入/导出到数据库的2种方法: 一.简单,但是稍慢的方法,使用Navicat for MySQL,傻瓜式导入数据库: 流程如下: 安装完成并配置好连接后界面如下: 新建数据库 进入导入向导 选择导入类型: 然后选择文件作为数据源,这里是我之前抓好的包,300w+条抓包记录 这里直接采取默认设置 同样默认 自己设置了下表明,新建了表

OpenRefine导入CSV文件,数据清理后导出JSON格式

第一步:选择要转换的CSV文件. 第二步:选择以逗号分割,并创建项目. 第三步:编辑,去掉特殊字符 Edit Cells > Transform... 第四步:导出文件,选择“Templating”菜单项. 第五步:预览,并导出.

读取csv格式的数据

1.直接上代码,关键是会用 2.代码如下: <?php #添加推荐到英文站 $file = fopen('code.csv','r'); while ($data = fgetcsv($file)) { //每次读取CSV里面的一行内容 //print_r($data); //此为一个数组,要获得每一个数据,访问数组下标即可 $goods[] = $data; } //var_dump($goods); foreach($goods as $key =>$value){ $id=$value[

csv格式的数据存储到mysql

python写的,有点冗余,先码出来~~~~ 这是data_stored.py的代码 1 # -*- coding:utf-8 -*- 2 # 存数据到mysql (只存了时间数字) 3 import pymysql 4 import csv 5 import datetime 6 import settings 7 from mysql import db 8 import os,time 9 import pandas as pd 10 import numpy as np 11 impor

java读取导入csv格式 文件

第一.首先要准备下载一个javacsv.jar架包 public void readeCsv(){ try { ArrayList<String[]> csvList = new ArrayList<String[]>(); //用来保存数据 //注明:或者可以通过前端上传的文件,用一个方法获取上传文件名uploadName(String) String csvFilePath = "C:\\Users\\Administrator\\Desktop/05122017.c

php 导出excle的.csv格式的数据时乱码问题

1.header('Content-Encoding: XXXX'); 有可能是编码问题:可以尝试UTF-8,GBK,GB2312,等编码格式 2.有可能是文件编码问题,虽然UTF-8不建议带BOM,但是导出的excle是微软的产品,所以需要把文件格式改成,UTF-8有BOM格式的.