项目需要重新开发,然而旧数据不能丢弃,数据量也比较大(起码数十万条),但是原有的数据库的表设计过于混乱,所以需要在新系统中重新设计.
这涉及到数据表数据移植的问题,而且旧系统会一直使用直至新系统上线为止,所以需要新旧系统的数据尽量同步.
这里需要什么比较好的技术实现?希望有关专家指点?
考虑过dblink,触发器,存储过程,job等,希望专家给些比较好的意见,你们做新系统升级是怎样的方案?

解决方案 »

  1.   


    数据量是不大的,10多万,基本上是10G级别的库了,如果是oracle到oracle的移植的话,用exp和imp对数据库进行基于逻辑备份的移植,风险相对来说比较小。如果是异构数据库移植的话,就风险大了,数据库,数据和应用上的风险都比较大。需要借助一些第三方的工具来做了,具体要看你是什么数据库到什么数据库了。
      

  2.   

    要么手工编码写过程,要么找个ETL工具
      

  3.   

    不需要实时同步的话可以使用job ,建立dblink 和存储过程,定时同步数据,时间间隔比较短的话也马马虎虎算是实时了
      

  4.   

    使用POWERCENTER 第三方ETL软件 好学易用 同时考虑一下创建一个数据仓库 以作备份