我现在用sql的导入导出工具处理,但上万条记录后速度非常慢。
我又用的文本导入的方式导入数据,如果字段内容不多,速度很快,但字段内容太多时, 每次只能导入几条数据就出现了以下提示:
  达到提交点 逻辑记录计数52 
然后就没了。
请问谁有好的方法来处理大量的这样数据!!!

解决方案 »

  1.   

    先将ACCESSS导出成文本,再用sql*loader
      

  2.   

    如过安装了DELPHI的话
    为两个数据库配置BDE别名,利用DELPHI带的工具Datapump 直接复制表
    我用过很快的。
      

  3.   

    给个数量值,一分钟能导多少数据。
    如果比我现在的快,我就装个DELPHI
      

  4.   

    你也可以用PB的数据管道,导入速度在400条/秒左右。比ORACLE本身的导入/导出数据慢一些。
      

  5.   

    我的数据库是MYSQL,记录有繁体和简体,用sql*loader会不会产生乱码?
      

  6.   

    sql*loader是很好用的,我每天都用,数据量20万左右,时间10几分钟,你可以在命令行后加些参数,比如允许最大错误 errors=9999999 因为有可能有些记录不满足条件,而oracle默认值只有50,遇到50个错误就自动终止了。
      

  7.   


    推荐你使用SQLLDR,这个工具是装载数据最快的。不过SQLLDR的使用也需要花些功夫诶。
    下面是测试结果:
    次数 原表数据量 装载数据量 装载时间(秒)     装载时间   Direct方式 主键
    1  0    1000000       145     00: 02: 25.16    否       有 
    2  1000000    1000000       180     00: 02: 59.96    否       有 
    3  2000000    1000000       178     00: 02: 57.50    否       有 
    4  0          1000000       25      00: 00: 25.33    是       有 
    5  1000000    1000000       29      00: 00: 29.14    是       有 
    6  2000000    1000000       30      00: 00: 29.88    是       有 
    7  0          1000000       111     00: 01: 51.16    否       无 
    8  1000000    1000000       120     00: 01: 59.86    否       无 
    9  2000000    1000000       119     00: 01: 58.68    否       无 
    10 0          1000000       22      00: 00: 21.85    是       无 
    11 1000000    1000000       21      00: 00: 21.34    是       无 
    12       2000000    1000000       23      00: 00: 22.63    是       无 
      

  8.   

    上百万的access的数据转换成文本也是很费时间的
      

  9.   

    access本来就是个很慢的东东,转换成什么不费时间呀,怕麻烦一开始就不用access呀