图像,大文件的mysql导入与读取存放到本地

package conn;

import java.io.*;

import java.sql.Blob;

import java.sql.Clob;

import java.sql.Connection;

import java.sql.DriverManager;

import java.sql.PreparedStatement;

import java.sql.ResultSet;

import java.sql.SQLException;

import java.sql.Statement;

import com.mysql.jdbc.Driver;

import com.sun.corba.se.spi.orbutil.fsm.Input;

public class Conn {

public Connection getConn(){

Connection conn = null;

try {

Class.forName("com.mysql.jdbc.Driver");

conn = DriverManager.getConnection("jdbc:mysql://localhost:3306/test", "root", "gjl");

} catch (Exception e) {

e.printStackTrace();

}

return conn;

}

public void setlob(){

Connection conn = null;

PreparedStatement pre = null;

try {

Class.forName("com.mysql.jdbc.Driver");

conn = getConn();

String sql = "insert into t_lob value (?,?,?)";

pre = conn.prepareStatement(sql);

File txt = new File("E:\\项目\\说明文件\\信息.txt");

File img = new File("G:\\1.jpg");

InputStream inTxt = new FileInputStream(txt);

InputStream inImg = new FileInputStream(img);

pre.setString(1, "1");

pre.setAsciiStream(2, inTxt, (int)txt.length());

pre.setBinaryStream(3, inImg, (int)img.length());

pre.executeUpdate();

conn.close();

pre.close();

System.out.println("read-ok");

} catch (Exception e) {

e.printStackTrace();

}

}

public void getlob(){

Connection conn = null;

Statement stmt = null;

ResultSet rs = null;

try {

conn = getConn();

stmt = conn.createStatement();

rs = stmt.executeQuery("select * from t_lob");

while(rs.next()){

Clob clob = rs.getClob(2);

Blob blob = rs.getBlob(3);

InputStream txt = clob.getAsciiStream();

InputStream img = blob.getBinaryStream();

FileOutputStream OutTxt= new FileOutputStream(new File("F:\\T.txt"));

FileOutputStream OutImg= new FileOutputStream(new File("F:\\I.jpg"));

int c1 = -1;

int c2 = -1;

while(( c1 = txt.read())!= -1)

OutTxt.write(c1);

OutTxt.flush();

OutTxt.close();

while(( c2 = img.read())!= -1)

OutImg.write(c2);

OutImg.flush();

OutImg.close();

}

System.out.println("write-ok");

} catch (Exception e) {

e.printStackTrace();

}

}

public  static void main(String[]args){

Conn conn = new Conn();

// conn.getlob();

// conn.setlob();

}

}

时间: 2024-11-05 11:47:51

图像,大文件的mysql导入与读取存放到本地的相关文章

读大文件到mysql

起初使用java读文件处理格式后存入数据库,运行后发现,效率太低太低,4G文本,4000多万行,估计需要30天左右才能完成处理. 数据格式: 每行->  XXXX ||| XXXXXXX ||| XXXXXXXXXXXXXXXXX 数据是严格结构化的,因此查询到一种直接从文件导入mysql的方法: Load Data infile 参考文章:http://hunan.iteye.com/blog/752606 使用的指令如下: load data infile '/home/lenovo/文档/

大文件数据库脚本导入解决方案

当客户服务器不允许直接备份时,往往通过导出数据库脚本的方式来部署-还原数据库, 但是当数据库导出脚本很大,用Microsoft SQL Server Management Studio执行脚本时,往往会遇到“内存不足”的提示. 解决办法: 用微软自带的sqlcmd工具,可以导入执行.以SQL Server 2008R版本为例: 第一步:Win+R 键入:cmd 命令,开启命令行工具: 第二步:键入:cd C:\Program Files\Microsoft SQL Server\100\Tool

mysql 导入大数据sql文件

导出Sql文件 在导出时合理使用几个参数,可以大大加快导入的速度. -e 使用包括几个VALUES列表的多行INSERT语法; –max_allowed_packet=XXX 客户端/服务器之间通信的缓存区的最大大小; –net_buffer_length=XXX TCP/IP和套接字通信缓冲区大小,创建长度达net_buffer_length的行 注意:max_allowed_packet和net_buffer_length不能比目标数据库的配置数值大,否则可能出错. 例子: mysql>my

iOS将大文件映射到内存(读取大文件)

http://blog.csdn.net/xyt243135803/article/details/40995759 在<中国区GPS偏移纠正(适用于Google地图)>一文中曾读取一个78M的大数据文件,一开始采用了NSData的dataWithContentsOfFile:方法.不少人反馈说如果直接使用,将会耗尽iOS的内存.其实这个是可以改善的. NSData还有一个API: + (id)dataWithContentsOfFile:(NSString *)path options:(N

mysql导入文件

手里有一个web源码工程文件夹 mysql导入文件: 新建连接,名称随意,用修改设置的用户密码登录,我的连接名称是eee 右击information_schema,建立数据库,数据库名称源码文件名,字元集:gbk,排序规则:gbk-chinese-ci,,点击确定. 上方工具栏,数据库,运行SQL文件,从路径选择中找到下载好的 后缀为.sql文件,编码UTF-8,点开始. 右击新建的数据库下的表,点刷新,看到出来了几张表 把源码文件夹都复制到tomcat文件夹下的webapps文件夹里,这一步也

WCF+上传+大文件处理

大文件处理的方式拆分读取,此文只为记录文件处理方式,供日后查阅. 源码来自http://blog.csdn.net/lywust/article/details/7009248 经过改编将源码改编为文件上传的功能如下(处理几个GB的文件应该是没有问题的) 客户端 1 public partial class WebForm1 : System.Web.UI.Page 2 { 3 protected void Page_Load(object sender, EventArgs e) 4 { 5

PHP读取CSV大文件导入数据库的示例

对于数百万条数据量的CSV文件,文件大小可能达到数百M,如果简单读取的话很可能出现超时或者卡死的现象. 为了成功将CSV文件里的数据导入数据库,分批处理是非常必要的. 下面这个函数是读取CSV文件中指定的某几行数据: /** * csv_get_lines 读取CSV文件中的某几行数据 * @param $csvfile csv文件路径 * @param $lines 读取行数 * @param $offset 起始行数 * @return array * */ function csv_get

mysql导入sql文件过大或连接超时的解决办法

原文:mysql导入sql文件过大或连接超时的解决办法 前段时间出差在现场开发的时候,导入数据库老是出问题.最后发现了一个神奇sql语句交给实施,只要导入出错就把如下语句执行就可以了.至今屡试不爽. set global max_allowed_packet=100 000 000; set global net_buffer_length=100000; SET GLOBAL interactive_timeout=28800 000; SET GLOBAL wait_timeout=2880

Mysql导入大SQL文件数据问题

如果sql文件过大,会出现mysql out of memory  (Needed XXX bytes) ,或者 "MySQL server has gone away"问题; 另外如果sql文件数据有中文,会出现乱码. 解决的问题,修改max_allowed_packet参数,在my.ini或者my.cnf文件中,设置如下: max_allowed_packet=500M 重启mysql,登录,设置编码为utf8 mysql -uroot -p123456 --default-cha