插入数据库一条数据,出现乱码问题。

插入数据库一条数据:

例如:

//2.建立连接 参数 地址 用户 ,密码
Connection con= DriverManager.getConnection(url:"jdbc:mysql://localhost:3306/db2020", user:"root", password:"123456");
//3.准备sqlString sql="INSERT into cat VALUES(NULL,‘狸猫‘,4)";

数据库出现: 


解决办法:修改
Connection con= DriverManager.getConnection("jdbc:mysql://localhost:3306/db2020?useUnicode=true&characterEncoding=utf-8&autoReconnect=true&allowMultiQueries=true&serverTimezone=Asia/Shanghai", "root", "123456");

成功后:



原文地址:https://www.cnblogs.com/s999/p/12266953.html

时间: 2024-10-15 10:59:02

插入数据库一条数据,出现乱码问题。的相关文章

EF 连接MySQL 数据库 ?保存中文数据后乱码问题

EF 连接MySQL 数据库  保存中文数据后乱码问题 采用Code First 生成的数据库,MySQL数据库中,生成的表的编码格式为***** 发现这个问题后,全部手动改成UTF8(图是另一个表的图),否则插入的数据,就会全部变成乱码 修改后可以正常插入数据(注意!!这里是直接用SQL 代码插入的数据) 之后用代码界面保存数据,如图 但数据中却变成乱码: 修改方法: 在连接MySQL的连接字符串中,加入配置文件信息:Character Set=utf8  来自为知笔记(Wiz)

批量插入100万条数据

创建数据库: --Create DataBase create database BulkTestDB; go use BulkTestDB; go --Create Table Create table BulkTestTable( Id int primary key, UserName nvarchar(32), Pwd varchar(16)) go --Create Table Valued CREATE TYPE BulkUdt AS TABLE (Id int, UserName

java 批量插入10万条数据

for (int i = 0; i < 100000; i++) { dbHelper.insert("INSERT aaa(name) Values ('1')"); } 运行时间==780450ms conn = getConn(); // JAVA默认为TRUE,我们自己处理需要设置为FALSE,并且修改为手动提交,才可以调用rollback()函数 conn.setAutoCommit(false); st = conn.createStatement(); long s

数据库 一次插入几万条数据

最近做了一个功能, 操作的数据量特别大, 一次 往数据库  插入上万条数据.我用了 循环添加, 和EF封装的添加功能. 两次方式速度都非常慢,一万条数据都要近一分钟的时间. 在网上 查找资料后, 可以创建一个Datatable对象,然后把数据都赋值给这个Datatable对象的列. 然后Copy到数据库就行了. 下面这段代码是:实例化一个Datatable,  然后确定所有的列.列名最好于表里的字段一样哦 然后循环你的 大数据,每次循环都创建一列,添加到Datatable. Datatable

使用Python对MySQL数据库插入二十万条数据

1.当我们测试的时候需要大量的数据的时候,往往需要我们自己造数据,一条一条的加是不现实的,这时候就需要使用脚本来批量生成数据了. import pymysql import random import string # 建立数据库连接 mysql = pymysql.connect(host="数据库IP", user="数据库用户名",port=3306,password="数据库密码", charset='utf8', autocommit=

orcle 如何快速插入百万千万条数据

有时候做实验测试数据用到大量数据时可以用以下方法插入: 方法一:使用xmltable create table bqh8 as select rownum as id from xmltable('1 to 10000000');select count(*) from bqh8; -----------------------一千万条数据已插入. 方法二:使用dual+connect by level create table bqh9 as select rownum as id from

通过存储过程,插入300万条数据的一点思考?

1.今天凌晨1点多开始插入数据,到现在为止,一共插入的数据大小,大约是30M数据,但是总量在190M数据左右 2.中间我去睡觉,电脑可能也是处于睡眠状态. 3.电脑的性能也很大程度决定了这个处理数据的速度(比如,位宽,是否支持超频等等吧.) 4.灵活处理问题吧,300万条数据太多,可以选择3万条数据处理,计时处理,我们可以选择3000条数据处理,做实验就是要一个模拟环境 5.千万不要死板教条, 6.及时回顾之前的知识点,核心知识点,经常性回顾.(一定会有新收获的) 7.注意身体,身体是革命的本钱

数据库中插入几百万条数据

/*最近总是遇到需要大数据的时候,总是没有,所以准备了一点*/ create procedure InsertTest2as begin declare @v_num int;set @v_num=100while @v_num < 1000000begin insert into shop_worktime (shopid,StandardETime,StandardSTime) values (@v_num,2015-05-20,2017-06-05) set @[email protect

asp.net 使用querystring实现数据库多条数据的分页

1.在page_load中插入以下代码. protected void Page_Load(object sender, EventArgs e) { if (Request.Params["page"] != null && Request.Params["page"].Trim() != "") { page = (Convert.ToInt32(Request.Params["page"])); maxp