先用EXCEL导入,用固定长度。
保存为*.CVS,然后用SQL导入
============================
@* .☆ / */ . / * . ☆/ *。
   ◢◣。       ◢◣。
  ◢★◣。     ◢★◣。
 ◢■■◣。   ◢■■◣。
◢■■■◣。 ◢■■■◣。
︸︸||︸︸ !!︸︸||︸︸
愿您有快乐的每一天 ^_^!!

解决方案 »

  1.   

    这个我以做过,手工来做,不过我不是导入execl的,我是直接导入access的!
      

  2.   

    我也试过用Access,它的导入比SQL方便多了,不过这么大的文件不知道Access会不会死掉,因为我单位的开发机很菜,只有128兆内存。
      

  3.   

    这应大量的数据处理, 我会编程来管理, 好似每读取1000条才做一次commit.
    会比逐条做为快.或者用BDE下的Tbatchmove控件也可以.
      

  4.   

    请问:如果用程序的话是不是先把整个文件读入内存?我试过用TStringList是先把整个文件装入内存的.500兆太大了!还有什么好方法,用TStream行吗?
      

  5.   

    这么大的文件最好用dts或者是bcp来导入,不然是很痛苦的
      

  6.   

    把文件先分割吧,这样的软件网上很多,实在太大了,连EXCEL能不能行都不一定做程序又怕半路死掉,
      

  7.   

    使用SQL自带的DTS导入,非常快,500M估计也就不到十分钟。
    文本文件使用Microsoft Text Treiber驱动程序,定义好文本文件的格式就可以了!
      

  8.   

    是啊!这么好用的dts不用,为什么要编程呢?
      

  9.   

    用EXCEL 5M都不行500M dts不用,就没有好工具了.自巳编程,等着死吧!
      

  10.   

    在 implementation
    {$R *.dfm}后加入{$H+}这样可从文本文件中读取不超过 4G 的文本!
      

  11.   

    Why not use the BCP???!!bcp tablename in filename -c -Usa -P -SSERVER OK!!!
      

  12.   

    使用DTS的Microsoft Text Treiber搞掂了,谢谢各位的帮助!!