现在有2个文件需要导入到远程的 mysql 数据库中
一个是1.5G的txt 大约有200w条记录
一个是5G的txt 大约有600w条记录
怎么 能够快速导入到 mysql 数据库中?
谁有经验 就指点一下吧
或者 能指点下 影响导入数据效率的因素(现在的数据库 有很多索引)。。
一个是1.5G的txt 大约有200w条记录
一个是5G的txt 大约有600w条记录
怎么 能够快速导入到 mysql 数据库中?
谁有经验 就指点一下吧
或者 能指点下 影响导入数据效率的因素(现在的数据库 有很多索引)。。
解决方案 »
- 求一SQL语句
- error: This command is not supported in the prepared statement protocol yet
- 请问下如何求两段时间的交集
- mysql联合主键
- [求助]TYPE=InnoDB 什么意思
- 通过oracle数据库访问mysql数据库的问题?
- 请问MySql 可以处理8千万条以上的记录吗, 速度有没SQL2000快?
- 数据库连接不上,帮忙看看!谢谢
- 求教sql语句 如何从一个表中读取字段到另一个新建的表中(高分求救)
- 请问mysql中如何建立表的时候定义自动增长自段?多谢了
- 求SQL~~~~~~~~~
- 我在备份Wordpress的MySQL数据库时,以下高级选项中的参数不知该如何选择!
然后用LOAD DATA INFILE
但通过ftp传过去一个文件(5G) 就要10个小时
我现在用的命令是
mysql -h localhost --default-character-set=utf8 -u user -p dbname < c:/xxx.sql
(别人给的命令)
不知道这个命令和load data infile 在效率上 有多大的差别
还有设置字符集 那个是不是 可以 不在这里设置
第一次导这么大的数据 也头一次遇到时间问题,希望大家都给点建议
LOAD DATA LOCAL INFILE '文件地址/文件.txt' ignore INTO TABLE adreg FIELDS TERMINATED BY ',' LINES TERMINATED BY '\n' IGNORE 1 LINES (列,列,列,列,列,列,列,列,列,列,列);