一个文本文件包含近100万条记录,每条记录格式是:a@b@c@d@e@f@, 我用RICHEDIT引入该文本,使每天数据插入数据库的摸一表中,发现100万条数据处理大概在4个小时,请问有没有好的方法优化呢?或多个插入数据的进程同时分段对该文本操作呢?多谢:
例如文本文件为 test
a@b@c@d@e@f@
............
............
............
1@2@3@4@5@6@
插入的表为,TABLE,字段对应字段,t1,t2,t3,t4,t5,t6

解决方案 »

  1.   

    你使用ado可以直接操作这个文本文件
      

  2.   

    用RICHEDIT载入需要不少时间,可以用readln一行行读入,省不少时间
    存数据库要看数据库的存放位置了,
    我做过存30W条记录
    在一台机器往另1台有SQL数据库的机器存大约要40分钟
    而直接在有数据库的机器上存15分钟就完成了
      

  3.   

    不要用 RichEdit 打開,你打開要多久?用 FileMap 來讀可能是最快的了