现有3000000条记录要从文本文件中导入到SQL   Server2000中
文本文件格式为:
2006-03-07   12:00:01 Create     8123412000000010 0x000000000001
2006-03-07   12:00:01 Delete     8123412000000028 0x000000000002
中间用制表符分割
表结构如下:
Create_Date   datetime,
Status   bit,1-Create;0-Delete
Card_No   char(16),  
Card_ID   int
用事务一条条的插入时会出现 "在从服务器接收结果时发生传输级错误。   (provider:   命名管道提供程序,   error:   0   -   管道已结束。) "
各位有没有比较好的方法? 

解决方案 »

  1.   

      sqlserver 海量数据导入的最快方法     选择自 tashanzhishi 的 Blog
    关键字    sqlserver 海量数据导入的最快方法
    出处   
    最近做某项目的数据库分析,要实现对海量数据的导入问题,就是最多把200万条数据一次导入sqlserver中,如果使用普通的insert语句进行写出的话,恐怕没个把小时完不成任务,先是考虑使用bcp,但这是基于命令行的,对用户来说友好性太差,实际不大可能使用;最后决定使用BULK INSERT语句实现,BULK INSERT也可以实现大数据量的导入,而且可以通过编程实现,界面可以做的非常友好,它的速度也很高:导入100万条数据不到20秒中,在速度上恐怕无出其右者。
    但是使用这种方式也有它的几个缺点:
    1.需要独占接受数据的表
    2.会产生大量的日志
    3.从中取数据的文件有格式限制
    但相对于它的速度来说,这些缺点都是可以克服的,而且你如果愿意牺牲一点速度的话,还可以做更精确的控制,甚至可以控制每一行的插入。
    对与产生占用大量空间的日志的情况,我们可以采取在导入前动态更改数据库的日志方式为大容量日志记录恢复模式,这样就不会记录日志了,导入结束后再恢复原来的数据库日志记录方式。
    具体的一个语句我们可以这样写:
    alter database taxi
    set RECOVERY BULK_LOGGEDBULK INSERT taxi..detail FROM 'e:\out.txt'
    WITH (
    ?? DATAFILETYPE = 'char',
    ?? FIELDTERMINATOR = ',',
    ?? ROWTERMINATOR = '\n',
    ?TABLOCK
    )alter database taxi
    set RECOVERY FULL这个语句将从e:\out.txt导出数据文件到数据库taxi的detail表中。
      

  2.   

    3000000条记录 数据量可以说比较多,所以不建议一条一条的插入,可以分阶段进行
    每1000条生成一组数据进行导入,如
    query1.SQL.Add('insert into table values .......;');
    query1.SQL.Add('insert into table values .......;');
    .....
    1000次
    query1.execSQL;
      

  3.   

      如果不是要写程序,用SQL SERVER的原生导入工具,也可以提高速度.