大批量数据导入

using System;
using System.Collections.Generic;
using System.Linq;
using System.Text;
using System.Windows;
using System.Windows.Controls;
using System.Windows.Data;
using System.Windows.Documents;
using System.Windows.Input;
using System.Windows.Media;
using System.Windows.Media.Imaging;
using System.Windows.Navigation;
using System.Windows.Shapes;
using Microsoft.Win32;
using System.IO;
using System.Data.SqlClient;
using System.Data;
using System.Configuration;

namespace 批量数据导入
{
    /// <summary>
    /// MainWindow.xaml 的交互逻辑
    /// </summary>
    public partial class MainWindow : Window
    {
        public  string connStr = ConfigurationManager.ConnectionStrings["ConnStr"].ConnectionString;
        public MainWindow()
        {
            InitializeComponent();
        }

        private void btnBigIData_Click(object sender, RoutedEventArgs e)
        {
            //在导入数据的时候删除数据库的所有数据
            Helper.DAL.DeleteDataAll();

            OpenFileDialog ofd = new OpenFileDialog();
            //弹出一个对话框,让用户选要读取的文件,如果用户选中了文件
            if (ofd.ShowDialog() == true)
            {
                //获取选中文件的完整路径。
                string fileName = ofd.FileName;

                //打开这个文件,并用指定的编码一行一行的读取这个路径,读取完后关闭该文件
                string[] lines = File.ReadAllLines(fileName, Encoding.Default);

                //在本地创建一个DataTable
                DataTable dt = new DataTable();

                //给dt表添加四列
                dt.Columns.Add("本地dt表列Section");
                dt.Columns.Add("本地dt表列Area");
                dt.Columns.Add("本地dt表列NumberType");
                dt.Columns.Add("本地dt表列AreaCode");

                //for循环完毕以后dt表中就会有非常多的行了
                for (int i = 0; i < lines.Length; i++)
                {
                    string[] line = lines[i].Split(new char[] { '	' }, StringSplitOptions.RemoveEmptyEntries);
                    string Section = line[0].Trim();
                    string Area = line[1].Trim();
                    string NumberType = line[2].Trim();
                    string AreaCode = line[3].Trim();

                    //在dt表中创建一行
                DataRow row = dt.NewRow();
                    //给row行的字段(列)赋值
                row["本地dt表列Section"] = Section;
                row["本地dt表列Area"] = Area;
                row["本地dt表列NumberType"] = NumberType;
                row["本地dt表列AreaCode"] = AreaCode;
                    //将这一行加入到dt表中
                dt.Rows.Add(row);
                }

                using (SqlBulkCopy bulkCopy = new SqlBulkCopy(this.connStr))
                {
                    //你要把数据批量插入数据库的哪个表中
                    bulkCopy.DestinationTableName = "T_Mobile";

                    //下面建立本地dt表字段,与数据库表之间的映射关系
                    //第一个参数是自己在本地建立的dt表里的列名,第二个参数是数据库中表的对应列名
                    bulkCopy.ColumnMappings.Add("本地dt表列Section", "Section");
                    bulkCopy.ColumnMappings.Add("本地dt表列Area", "Area");
                    bulkCopy.ColumnMappings.Add("本地dt表列NumberType", "NumberType");
                    bulkCopy.ColumnMappings.Add("本地dt表列AreaCode", "AreaCode");

                    //将dt表放入到数据库中
                    bulkCopy.WriteToServer(dt);
                    MessageBox.Show("插入完毕");
                }

            }
        }
    }
}

DAL

using System;
using System.Collections.Generic;
using System.Linq;
using System.Text;

namespace Helper
{
   public class DAL
   {
       public static void DeleteDataAll()
       {
           SqlHelper.ExecuteNonQuery("delete from T_Mobile");
       }
   }
}

SqlHelper

using System;
using System.Collections.Generic;
using System.Linq;
using System.Text;
using System.Configuration;
using System.Data.SqlClient;
using System.Data;
using System.Reflection;

namespace Helper
{
    public class SqlHelper
    {
        /// <summary>
        /// 获取连接数据库字符串
        /// </summary>
        private static string connStr=ConfigurationManager.ConnectionStrings["ConnStr"].ConnectionString;
        /// <summary>
        /// 对连接执行 Transact-SQL 语句并返回受影响的行数
        /// </summary>
        /// <param name="sql">对数据库表进行Insert,Update和Delete语句</param>
        /// <param name="parameters">sql语句参数</param>
        /// <returns>返回值为该命令所影响的行数</returns>
        public static int ExecuteNonQuery(string sql ,params SqlParameter[] parameters)
        {
            using (SqlConnection conn = new SqlConnection(connStr))
            {
                conn.Open();
                using (SqlCommand cmd = conn.CreateCommand())
                {
                    cmd.CommandText = sql;

                    cmd.Parameters.AddRange(parameters);

                    int i= cmd.ExecuteNonQuery();

                    return i;

                }
            }
        }

        /// <summary>
        /// 执行查询,并返回查询所返回的结果集中第一行的第一列。一般用于SQL聚合函数,如:count,Max,min,avg。。
        /// </summary>
        /// <param name="sql">要执行的sql语句</param>
        /// <param name="parameters">sql语句的参数</param>
        /// <returns>返回查询所返回的结果集中第一行的第一列。忽略其他列或行。返回的最大字符数为 2033 个字符。</returns>
        public static object ExecuteScalar(string sql, params SqlParameter[] parameters)
        {
            using (SqlConnection conn=new SqlConnection (connStr))
            {
                conn.Open();
                using (SqlCommand cmd = conn.CreateCommand())
                {
                    cmd.CommandText = sql;
                    cmd.Parameters.AddRange(parameters);

                    //ExcuteScalar()的返回值是object类型的(如果想返回int类型的数据,可先将cmd.ExecuteSalar()转化成int类型再进行返回)
                    return cmd.ExecuteScalar();

                }

            }
        }

        /// <summary>
        /// DataSet是将查询结果填充到本地内存中,这样即使与连接断开,服务器的连接断开,都不会影响数据的读取。但是它也有一个坏处,就是只有小数据量才能往里面存放,数据量大了就给你的本地内存冲爆了。电脑会卡死去。大数据量的话还得用SqlDataReader
        /// </summary>
        /// <param name="sql">要执行的sql语句</param>
        /// <param name="parameters">sql语句的参数</param>
        /// <returns>返回值是一个DataSet</returns>
        public static DataSet ExecuteDataSet(string sql, params SqlParameter[] parameters)
        {
            using (SqlConnection conn = new SqlConnection(connStr))
            {
                conn.Open();
                using (SqlCommand cmd = conn.CreateCommand())
                {
                    cmd.CommandText = sql;
                    cmd.Parameters.AddRange(parameters);

                    DataSet ds=new DataSet();
                    using(SqlDataAdapter adapter=new SqlDataAdapter (cmd))
                    {
                        //将cmd的执行结果填充到ds里面
                        adapter.Fill(ds);
                        return ds;
                    }

                }
            }
        }

        /// <summary>
        /// 执行查询,并将查询的结果以DataTable的形式返回
        /// </summary>
        /// <param name="sql">要执行的sql语句</param>
        /// <param name="parameters">sql语句的参数</param>
        /// <returns>返回值是一个DataTable</returns>
        public static DataTable ExecuteDataTable(string sql, params SqlParameter[] parameters)
        {
            using (SqlConnection conn = new SqlConnection(connStr))
            {
                conn.Open();
                //换一种写法,与上面的几种写法稍稍有点不同
                using (SqlCommand cmd = new SqlCommand(sql ,conn))
                {
                    cmd.Parameters.AddRange(parameters);
                    DataTable dt = new DataTable();
                    using (SqlDataAdapter adapter = new SqlDataAdapter(cmd))
                    {
                        adapter.Fill(dt);
                        return dt;
                    }

                }
            }
        }

        /// <summary>
        /// 将查询的结果转换成一个T类型的对象
        /// </summary>
        /// <typeparam name="T">泛型类T</typeparam>
        /// <param name="sql">要执行的sql语句</param>
        /// <param name="parameters">sql语句的参数</param>
        /// <returns>T类型的对象</returns>
        public static List<T> ExecuteClass<T>(string sql, params SqlParameter[] parameters)
        {
            List<T> list = new List<T>();
            using (SqlConnection conn = new SqlConnection(connStr))
            {
                conn.Open();
                using (SqlCommand cmd = conn.CreateCommand())
                {
                    cmd.CommandText = sql;
                    cmd.Parameters.AddRange(parameters);

                    DataSet ds = new DataSet();

                    using (SqlDataAdapter adapter = new SqlDataAdapter(cmd))
                    {
                        adapter.Fill(ds);
                    }

                    //获取ds里面的第0个表(索引从0开始)
                    DataTable dt = ds.Tables[0];

                    //获取T类型的所有公有属性
                    PropertyInfo[] tMembers= typeof(T).GetProperties();

                    //遍历dt表的所有行
                    for(int i=0;i <dt.Rows.Count;i ++)
                    {
                        //创建一个泛型T类型的对象t。
                        T t = Activator.CreateInstance<T>();

                        //遍历dt表的所有列
                        for (int j = 0; j < dt.Columns.Count; j++)
                        {
                            //遍历T类型的所有公有属性
                            foreach (PropertyInfo tMember in tMembers)
                            {
                                //如果发现dt表中的列名与遍历出来的T类型属性名相同
                                if (dt.Columns[j].ColumnName.ToUpper().Equals(tMember.Name.ToUpper()))
                                {
                                    //将dt.Rows[i][j]赋值给t对象的tMember成员
                                    if (dt.Rows[i][j] != DBNull.Value)
                                    {
                                        tMember.SetValue(t, dt.Rows[i][j], null);
                                    }
                                    else
                                    {
                                        tMember.SetValue(t, null, null);
                                    }
                                    break;//;//注意这里的break是写在if语句里面的,意思就是说如果列名和属性名称相同并且已经赋值了,那么我就跳出foreach循环,进行j+1的下次循环
                                }

                            }
                        }
                        list.Add(t);
                    }
                    return list;

                }
            }
        }

        /*
        public static object ExecuteDataReader(string sql, params SqlParameter[] paramters)
        {
            using (SqlConnection conn = new SqlConnection(connStr))
            {
                conn.Open();
                using(SqlCommand cmd=new SqlCommand(sql,conn))
                {
                    cmd.Parameters.AddRange(paramters);
                    using (SqlDataReader dr = cmd.ExecuteReader())
                    {
                        if (dr.Read()==true)
                        { 

                        }
                    }
                }
            }
        }
        */
        /// <summary>
        /// 从数据库取值赋给.net类的对象属性,如果值为DBNull.Value,则将值转换成.Net认的null
        /// </summary>
        /// <param name="value"></param>
        /// <returns></returns>
        public static object FromDbValue(object value)
        {
            if (value == DBNull.Value)
            {
                return null;
            }
            else
            {
                return value;
            }
        }

        /// <summary>
        /// 将.net类对象的属性值插入到数据库,如果类的属性值为null,则将值转换成数据库认的DBNull.value
        /// </summary>
        /// <param name="value"></param>
        /// <returns></returns>
        public static object ToDbValue(object value)
        {
            if (value == null)
            {
                return DBNull.Value;
            }
            else
            {
                return value;
            }

        }

    }
}

大批量数据导入

时间: 2024-08-02 23:15:46

大批量数据导入的相关文章

java大批量数据导入(MySQL)

? 版权声明:本文为博主原创文章,转载请注明出处 最近同事碰到大批量数据导入问题,因此也关注了一下.大批量数据导入主要存在两点问题:内存溢出和导入速率慢. 内存溢出:将文件中的数据全部取出放在集合中,当数据过多时就出现Java内存溢出,此时可通过调大JVM的最大可用内存(Xmx)解决, 但终究不是王道.    MySQL支持一条SQL语句插入多条记录的操作,并且效率比单条插入快的不是一点点:但是MySQL一次可接受的数据包大小 也是有限制的,当一次插入过多时也可能造成数据包内存溢出,此时可通过调

postgresql大批量数据导入方法

一直没有好好关注这个功能,昨天看了一下,数据库插入有瓶颈,今天研究了一下: 主要有以下方案: 1.使用copy从文件导入: copy table_001(a, b, "f", d, c, "e") from 'd:/data1.txt' (delimiter ','); 速度极快: 不带索引: 查询成功: 共计 69971 行受到影响,耗时: 4351 毫秒(ms).        查询成功: 共计 69971 行受到影响,耗时: 4971 毫秒(ms).     

大批量数据导入数据库,dbf导入oracle,csv导入oracle

Excel 07-2003一个工作表最多可有65536,行最多可有256列:Excel 2007及以后版本,一个工作表最多可有1048576行,16384列. 一.小批量数据处理: 方法一:用excel可以直接打开dbf或csv文件,数据库表for update,直接把excel表中想要的列值直接复制到pl/sql中 相对应字段. 方法二:若是dbf文件可用dbfplus工具转换成csv文件,打开pl/sql中的 工具>文本导入器,在'到Oracle的数据'中选择到导入哪个用户下的哪个表,点击左

大批量数据导入(Bulk Data Loading)

PSQL .csv文件中,没有引号: 直接写值,不管是啥数据类型: 存在表,直接导入数据: bin/psql.py -t EXAMPLE localhost data.csv 建表,导数据 ./psql.py localhost:2222 XXX.sql XXX.csv MapReduce etc/profile export HADOOP_CLASSPATH=$HADOOP_CLASSPATH:/CI-zcl/hbase-0.98.6.1-hadoop2/lib/hbase-protocol-

旅游公司用友财务软件接口实现大批量数据导入财务模块实现报表统计

一. 总体概况:.............................................................................................................. 2 二. 需求:....................................................................................................................... 2 三

jdbc批量插入实现大批量数据快速插入

今天在做一个将excel数据导入数据库的程序时,由于数据量大,准备采用jdbc的批量插入.于是用了preparedStatement.addBatch();当加入1w条数据时,再执行插入操作,preparedStatement.executeBatch().我原以为这样会很快,结果插入65536条数据一共花30多分钟,完全出乎我的意料.于是问了一下同事,他们在处理这种大批量数据导入的时候是如何处理的,发现他们也是用的jdbc批量插入处理,但与我不同是:他们使用了con.setAutoCommit

mysql导入大批量数据时,出现ERROR : (2006, &#39;MySQL server has gone away&#39;)

mysql导入数据时,出现ERROR : (2006, 'MySQL server has gone away') 解决方案:官方解释是适当增大 max_allowed_packet 参数可以使client端到server端传递大数据时,系统能够分配更多的扩展内存来处理. 设置 max_allowed_packet = 256M (1024*1024*256) set global max_allowed_packet=268435456; 使用set global命令修改 max_allowe

ImportTsv-HBase数据导入工具

一.概述 HBase官方提供了基于Mapreduce的批量数据导入工具:Bulk load和ImportTsv.关于Bulk load大家可以看下我另一篇博文. 通常HBase用户会使用HBase API导数,但是如果一次性导入大批量数据,可能占用大量Regionserver资源,影响存储在该Regionserver上其他表的查询,本文将会从源码上解析ImportTsv数据导入工具,探究如何高效导入数据到HBase. 二.ImportTsv介绍 ImportTsv是Hbase提供的一个命令行工具

Phoenix使用MapReduce加载大批量数据

1. 说明 在实际应用场景中可以会有一些格式比较规整的数据文件需要导入到HBase,Phoenix提供了两种方法来加载CSV格式的文件phoenix的数据表.一种是使用单线程的psql工具进行小批量数据加载的方式,一种是使用MapReduce作业来处理大批量数据的方式.第一种方式比较简单这里就不介绍了,想了解的可以参考官方文档. http://phoenix.apache.org/bulk_dataload.html 2. 创建表 在phoenix的CLI界面创建user表. > create