以文本方式查看主题 - Foxtable(狐表) (http://foxtable.com/bbs/index.asp) -- 专家坐堂 (http://foxtable.com/bbs/list.asp?boardid=2) ---- [求助]百万级数据4秒导入SQL Server攻略 (http://foxtable.com/bbs/dispbbs.asp?boardid=2&id=52901) |
-- 作者:Gryvip -- 发布时间:2014/6/25 13:36:00 -- [求助]百万级数据4秒导入SQL Server攻略 http://www.pigzz.com/201112/1209143422011.html 狐表导入保存速度慢得难于接受,搜到网页介绍,请高手们出手,看看能否优化应用于我们的狐表,谢谢。 想必每个DBA都喜欢挑战数据导入时间,用时越短工作效率越高,也充分的能够证明自己的实力。实际工作中有时候需要把大量数据导入数据库,然后用于各种程序计算,本文将向大家推荐一个挑战4秒极限让百万级数据瞬间导入SQL Server实验案例。 本实验将使用5中方法完成这个过程,并详细记录各种方法所耗费的时间。所用到工具为Visual Studio 2008和SQL Server 2000、SQL Server 2008,分别使用5中方法将100万条数据导入SQL Server 2000与SQL Server 2008中,实验环境是DELL 2850双2.0GCPU,2G内存的服务器。感兴趣的朋友可以下载源代码自己验证一下所用时间。 好了,下面我们分别使用基本的Insert 语句、使用BULK INSERT语句、在多线程中使用BULK INSERT、使用SqlBulkCopy类、在多线程中使用SqlBulkCopy类五种方法,挑战4秒极限。还要有一点需要进行说明,本实验中执行SQL语句的地方使用了IsLine FrameWork框架中的DataProvider模块,这个模块只是对SQL配置的读取和封装,并不会对最终结果有本质性的影响,关于IsLine FrameWork框架方面的知识,请参考“IsLine FrameWork”框架系列文章。 数据库方面使用SQL Server 2000与SQL Server 2008,表名TableB,字段名称为Value1,数据库名可以在App.config中修改,默认为test。 方法一.使用基本的Insert 语句 这种方法是最基本的方法,大多数人一开始都会想到这种方法。但是Insert语句似乎并不适合大批量的操作,是不是这样呢? 本方法中将100万数据分为10个批次,每个批次10万条,每10万条1个事务,分10次导入数据库。 -->基本语句: Insert Into TableB (Value1) values (‘”+i+”’); 说明:语句中的i是宿主程序中的一个累加变量,用于填充数据库字段中的值。 SQL Server 2000 耗时:901599 SQL Server 2008耗时:497638 方法二.使用BULK INSERT语句 这个类的效果,在本实验中可以说是最令人满意的了,它的使用最简便、灵活,速度很快。 “BULK INSERT”语句似乎不是很常用, Aicken听说Oracle中有一种可以将外部文件映射为Oracle临时表,然后直接将临时表中的数据导入Oracle其他表中的方法,这种方法的速度非常令人满意,SQL SERVER的BULK INSERT是不是同样令人满意呢? -->基本语句: BULK INSERT TableB FROM \' c:\\\\sql.txt\' WITH (FIELDTERMINATOR = \',\',ROWTER /.,mbMINATOR=\'|\',BATCHSIZE = 100000) 说明:“c:\\\\sql.txt”是一个预先生成的包含100条数据的文件,这些数据以“|”符号分隔,每10万条数据一个事务。 SQL Server 2000耗时:4009 SQL Server 2008耗时:10722 方法三.在多线程中使用BULK INSERT 在方法二的基础上,将100万条数据分五个线程,每个线程负责20万条数据,每5万条一个事物,五个线程同时启动,看看这样的效果吧。 SQL Server 2000耗时:21099 SQL Server 2008耗时:10997 方法四.使用SqlBulkCopy类 这种方法速度也很快,但是要依赖内存,对于几千万条、多字段的复杂数据,可能在内存方面会有较大的消耗,不过可以使用64位解决方案处理这个问题。 几千万条、多字段的数据的情况一般在一些业务场景中会遇到,比如计算全球消费者某个业务周期消费额时,要先获得主数据库表中的会员消费记录快照,并将快照储存至临时表中,然后供计算程序使用这些数据。并且有些时候消费者的消费数据并不在一台数据库服务器中,而是来自多个国家的多台服务器,这样我们就必须借助内存或外存设备中转这些数据,然后清洗、合并、检测,最后导入专用表供计算程序使用。 基本语句: using (System.Data.SqlClient.SqlBulkCopy sqlBC = new System.Data.SqlClient.SqlBulkCopy(conn)) { sqlBC.BatchSize = 100000; sqlBC.BulkCopyTimeout = 60; sqlBC.Destinati; sqlBC.ColumnMappings.Add("valueA", "Value1"); sqlBC.WriteToServer(dt); } 说明: BatchSize = 100000; 指示每10万条一个事务并提交 BulkCopyTimeout = 60; 指示60秒按超时处理 Destinati; 指示将数据导入TableB表 ColumnMappings.Add("valueA", "Value1"); 指示将内存中valueA字段与TableB中的Value1字段匹配 WriteToServer(dt);写入数据库。其中dt是预先构建好的DataTable,其中包含valueA字段。 SQL Server 2000耗时:4989 SQL Server 2008耗时:10412 方法五.在多线程中使用SqlBulkCopy类 基于方法四,将100万条数据分五个线程,每个线程负责20万条数据,每5万条一个事物,五个线程同时启动,看看这样的效果吧。 SQL 2000耗时:7682 SQL 2008耗时:10870 结果 几天的时间终于把这个实验给完成了,比较令人失望的是SQL SERVER 2008导入数据的性能似乎并不想我们想象的那样优秀 |
-- 作者:Bin -- 发布时间:2014/6/25 14:06:00 -- 顶!~ |
-- 作者:有点甜 -- 发布时间:2014/6/25 14:13:00 -- 导入以后,你合成sql语句直接保存;
或者,你在导入数据的同时,就合成sql语句,直接执行 |
-- 作者:Gryvip -- 发布时间:2014/6/25 14:34:00 -- 甜版,你好,项目初始使用时免不了要批量导入旧有数据,请调试一个最快的,通用的代码例子,让我等小白可以直接借用,谢谢啦! |
-- 作者:有点甜 -- 发布时间:2014/6/25 15:30:00 -- 以下是引用Gryvip在2014-6-25 14:34:00的发言:
甜版,你好,项目初始使用时免不了要批量导入旧有数据,请调试一个最快的,通用的代码例子,让我等小白可以直接借用,谢谢啦!
导入数据的话,不建议通过foxtable,直接把要导入的数据直接导入到数据库里面去。
如果是不规则的数据,你把数据规则的导入以后,再导出也比直接用foxtable保存要快。 |
-- 作者:Gryvip -- 发布时间:2014/6/25 17:45:00 -- 甜版,若软件交付客户使用的话,不可能要客户自己学习操作SQL数据库的,论坛也有好几个帖子提交过类似导入问题的,求关注及请抽空解决,谢谢。 |
-- 作者:有点甜 -- 发布时间:2014/6/25 18:03:00 -- 以下是引用Gryvip在2014-6-25 17:45:00的发言:
甜版,若软件交付客户使用的话,不可能要客户自己学习操作SQL数据库的,论坛也有好几个帖子提交过类似导入问题的,求关注及请抽空解决,谢谢。
生成sql语句那种,对任何表,都是通用的,代码就是那一些代码,生成一堆insert into即可。 |
-- 作者:lsy -- 发布时间:2014/6/30 11:03:00 -- 这个帖子,还是得顶上来,甭说百万级4秒,就是400秒,俺就阿弥陀佛了。
看哪位有心又有力的,运用到狐表中来。 |
-- 作者:pyh6918 -- 发布时间:2014/6/30 11:30:00 -- 这个帖子,必须顶! |