orcle 如何快速插入百万千万条数据

有时候做实验测试数据用到大量数据时可以用以下方法插入:

方法一:使用xmltable

create table bqh8 as select rownum as id from xmltable(‘1 to 10000000‘);
select count(*) from bqh8;

-----------------------一千万条数据已插入。

方法二:使用dual+connect by level

create table bqh9 as select rownum as id from dual connect by level
<=10000000;
select count(*) from bqh9;

使用connect by level有上限的,若超出上限,会报"ORA-30009:CONNECT BY 操作内存不足"

错误。

-------------一百万条数据已插入。

方法三:

create table bqh10 (A int,B char(50));
begin
for i in 1 .. 1000000
loop insert into bqh10 values (i,‘NBA‘);
end loop;
commit;
end;
select count(*) from bqh10;

一百万条数据已插入,此方法插入比较慢。

原文地址:https://www.cnblogs.com/su-root/p/9800974.html

时间: 2024-08-28 00:30:55

orcle 如何快速插入百万千万条数据的相关文章

Oracle 快速插入1000万条数据的实现方式

1.使用dual配合connect by level create table BigTable as select rownum as id from dual connect by level <= 100000; 但是有connect by level有上限,如果超出上限,系统会报,"connect by level"内存不足,我试过1000000万数据可以,但是再多就不行了. 2. 使用xmltable,"CONNECT BY 操作内存不足,10g开始支持XML

对一千万条数据进行排序---编程珠玑第二版 第一章

本书第一章提出了一个看似简单的问题,有最多1000万条不同的整型数据存在于硬盘的文件中,如何在1M内存的情况下对其进行尽可能快的排序. 每个数字用4byte,1M即可存储250 000个数据,显然,只要每次对250 000个数据排序,写入到文件中即可,重复40次. 那么如何选出每次遍历的二十五万条数据呢?有如下两个策略: 1.对一千万条数据遍历40次,第i次遍历时,判断数是否属于[i*250000,i*250000+249999),如果是,则读入内存,当第i次遍历完成时,内 存中有了二十五万条数

java 批量插入10万条数据

for (int i = 0; i < 100000; i++) { dbHelper.insert("INSERT aaa(name) Values ('1')"); } 运行时间==780450ms conn = getConn(); // JAVA默认为TRUE,我们自己处理需要设置为FALSE,并且修改为手动提交,才可以调用rollback()函数 conn.setAutoCommit(false); st = conn.createStatement(); long s

批量插入100万条数据

创建数据库: --Create DataBase create database BulkTestDB; go use BulkTestDB; go --Create Table Create table BulkTestTable( Id int primary key, UserName nvarchar(32), Pwd varchar(16)) go --Create Table Valued CREATE TYPE BulkUdt AS TABLE (Id int, UserName

腾讯面试题,js处理1千万条数据排序并且页面不卡顿

<!DOCTYPE html> <html lang="en"> <head> <meta charset="UTF-8"> <meta name="viewport" content="width=device-width, initial-scale=1.0"> <meta http-equiv="X-UA-Compatible" con

插入数据库一条数据,出现乱码问题。

插入数据库一条数据: 例如: //2.建立连接 参数 地址 用户 ,密码 Connection con= DriverManager.getConnection(url:"jdbc:mysql://localhost:3306/db2020", user:"root", password:"123456"); //3.准备sqlString sql="INSERT into cat VALUES(NULL,'狸猫',4)";

SqlServer快速插入百万条数据——表值参数

begin tran       insert into test(vid,v)       select vid,v       from test   commit  tran go该方法插入20W条数据,仅耗时6.5s,比传统的循环insert into快不知道多少倍- - 原文地址:https://www.cnblogs.com/4job/p/11442413.html

通过存储过程,插入300万条数据的一点思考?

1.今天凌晨1点多开始插入数据,到现在为止,一共插入的数据大小,大约是30M数据,但是总量在190M数据左右 2.中间我去睡觉,电脑可能也是处于睡眠状态. 3.电脑的性能也很大程度决定了这个处理数据的速度(比如,位宽,是否支持超频等等吧.) 4.灵活处理问题吧,300万条数据太多,可以选择3万条数据处理,计时处理,我们可以选择3000条数据处理,做实验就是要一个模拟环境 5.千万不要死板教条, 6.及时回顾之前的知识点,核心知识点,经常性回顾.(一定会有新收获的) 7.注意身体,身体是革命的本钱

SqlServer 创建聚集索引与非聚集索引处理千万条数据的优化,以及之间的区别

在以下的文章中,我将以"办公自动化"系统为例,探讨如何在有着1000万条数据的MS SQL SERVER数据库中实现快速的数据提取和数据分页.以下代码说明了我们实例中数据库的"红头文件"一表的部分数据结构: CREATE TABLE [dbo].[TGongwen] ( --TGongwen是红头文件表名 [Gid] [int] IDENTITY (1, 1) NOT NULL , --本表的id号,也是主键 [title] [varchar] (80) COLLA