CSV文件的内容是以逗号来分隔,然后有6个字段大概是
aa,bb,cc,dd,ee,ff
42222222223432432432,32432432432432432432,2332432432,32432432432,32432432,23432432
42222222223432432432,32432432432432432432,2332432432,32432432432,32432432,23432432
42222222223432432432,32432432432432432432,2332432432,32432432432,32432432,23432432
42222222223432432432,32432432432432432432,2332432432,32432432432,32432432,23432432
这样的数据。
我通过bcp命令导进去
create table xxdd
(
aa nvarchar(1000)
)
bcp sqlwygl..xxdd in D:\datatest\result.csv -c -S(local) -Usa -P123
这样可以导进去只一列以逗号分隔,如果导成多列的话创建表多个字段,就导不进去。我想问一下有没有办法直接导csv的文件,如果是转成EXCEL的文件的话就算了,光是打开这个文件都会很慢的。CSV文件SQL表
aa,bb,cc,dd,ee,ff
42222222223432432432,32432432432432432432,2332432432,32432432432,32432432,23432432
42222222223432432432,32432432432432432432,2332432432,32432432432,32432432,23432432
42222222223432432432,32432432432432432432,2332432432,32432432432,32432432,23432432
42222222223432432432,32432432432432432432,2332432432,32432432432,32432432,23432432
这样的数据。
我通过bcp命令导进去
create table xxdd
(
aa nvarchar(1000)
)
bcp sqlwygl..xxdd in D:\datatest\result.csv -c -S(local) -Usa -P123
这样可以导进去只一列以逗号分隔,如果导成多列的话创建表多个字段,就导不进去。我想问一下有没有办法直接导csv的文件,如果是转成EXCEL的文件的话就算了,光是打开这个文件都会很慢的。CSV文件SQL表
from '[csv文件]'
with
( FIELDTERMINATOR =',', --> 指定分隔符
ROWTERMINATOR ='\n',
KILOBYTES_PER_BATCH=5000 )
数据太大了好像不行,有300多万条记录。180多M。服务器: 消息 4832,级别 16,状态 1,行 1
大容量插入: 在数据文件中遇到意外的文件结尾 (EOF)。
服务器: 消息 7399,级别 16,状态 1,行 1
OLE DB 提供程序 'STREAM' 报错。提供程序未给出有关错误的任何信息。
语句已终止。
数据太大了好像不行,有300多万条记录。180多M。服务器: 消息 4832,级别 16,状态 1,行 1
大容量插入: 在数据文件中遇到意外的文件结尾 (EOF)。
服务器: 消息 7399,级别 16,状态 1,行 1
OLE DB 提供程序 'STREAM' 报错。提供程序未给出有关错误的任何信息。
语句已终止。
--> 加batchsize参数试试,
再不行,检查一下文件格式是否正确.bulk insert [目标表]
from '[csv文件]'
with
( FIELDTERMINATOR =',', --> 指定分隔符
ROWTERMINATOR ='\n',
KILOBYTES_PER_BATCH=5000,
batchsize=5000 )
数据太大了好像不行,有300多万条记录。180多M。服务器: 消息 4832,级别 16,状态 1,行 1
大容量插入: 在数据文件中遇到意外的文件结尾 (EOF)。
服务器: 消息 7399,级别 16,状态 1,行 1
OLE DB 提供程序 'STREAM' 报错。提供程序未给出有关错误的任何信息。
语句已终止。
--> 加batchsize参数试试,
再不行,检查一下文件格式是否正确.bulk insert [目标表]
from '[csv文件]'
with
( FIELDTERMINATOR =',', --> 指定分隔符
ROWTERMINATOR ='\n',
KILOBYTES_PER_BATCH=5000,
batchsize=5000 )
多谢,我自已解决了,这样的话只是每次传输不会回滚,但是还是要报错误。我最终是把合并的那个文件的特殊字符去掉就解决了。
sp_configure 'show advanced options',1
go--允许即席分布式查询
sp_configure 'Ad Hoc Distributed Queries',1
go--如果配置的值不在合理范围(在最小值最大值范围内),那么可以强制覆盖
reconfigure with override
gosp_configure 'xp_cmdshell',1
go
reconfigure
go
--创建数据库
create database wc
go
use wc
go--建表
create table wc(a int,b int,c int)
go
/* 这里建立一个c:\wc.csv 文件,内容如下:
a,b,c
1,2,3
2,3,4
*/--导出格式文件,这个是关键,数据库名称,表名称,用户名和密码,服务器ip和端口
--都改成你自己的
exec xp_cmdshell 'bcp wc.dbo.wc format nul -t "," -f c:\wc.fmt -c -Usa -Pyupeigu -S 192.168.1.106,1433'
go
--先查看要导入的数据
select *
from
openrowset(bulk 'c:\wc.csv', --要读取的文件路径和名称
formatfile='c:\wc.fmt', --格式化文件的路径和名称
firstrow = 2, --要载入的第一行,由于第一行是标题,所以从2开始
--lastrow = 1000, --要载入的最后一行,此值必须大于firstrow
maxerrors = 10, --在加载失败之前加载操作中最大的错误数
errorfile ='c:\wc_error.txt', --存放错误的文件
rows_per_batch = 10000 --每个批处理导入的行数
) as t /*
a b c
1 2 3
2 3 4--最后可以 insert into 表 (列) select * from openrowset...插入数据即可
sp_configure 'show advanced options',1
go--允许即席分布式查询
sp_configure 'Ad Hoc Distributed Queries',1
go--如果配置的值不在合理范围(在最小值最大值范围内),那么可以强制覆盖
reconfigure with override
gosp_configure 'xp_cmdshell',1
go
reconfigure
go
--创建数据库
create database wc
go
use wc
go--建表
create table xxdd
(
aa nvarchar(1000),
bb nvarchar(1000),
cc nvarchar(1000),
dd nvarchar(1000),
ee nvarchar(1000),
ff nvarchar(1000)
)
go
/* 这里建立一个c:\wc.csv 文件,内容如下:
aa,bb,cc,dd,ee,ff
42222222223432432432,32432432432432432432,2332432432,32432432432,32432432,23432432
42222222223432432432,32432432432432432432,2332432432,32432432432,32432432,23432432
42222222223432432432,32432432432432432432,2332432432,32432432432,32432432,23432432
42222222223432432432,32432432432432432432,2332432432,32432432432,32432432,23432432*/--导出格式文件,这个是关键,数据库名称,表名称,用户名和密码,服务器ip和端口
--都改成你自己的
exec xp_cmdshell 'bcp wc.dbo.xxdd format nul -t "," -f c:\wc.fmt -c -Usa -Pyupeigu -S 192.168.1.106,1433'
go
--先查看要导入的数据
select *
from
openrowset(bulk 'c:\wc.csv', --要读取的文件路径和名称
formatfile='c:\wc.fmt', --格式化文件的路径和名称
firstrow = 2, --要载入的第一行,由于第一行是标题,所以从2开始
--lastrow = 1000, --要载入的最后一行,此值必须大于firstrow
maxerrors = 10, --在加载失败之前加载操作中最大的错误数
--errorfile ='c:\wc_error1.txt', --存放错误的文件
rows_per_batch = 10000 --每个批处理导入的行数
) as t /*
aa bb cc dd ee ff
42222222223432432432 32432432432432432432 2332432432 32432432432 32432432 23432432
42222222223432432432 32432432432432432432 2332432432 32432432432 32432432 23432432
42222222223432432432 32432432432432432432 2332432432 32432432432 32432432 23432432
42222222223432432432 32432432432432432432 2332432432 32432432432 32432432 23432432
*/--最后可以 insert into 表 (列) select * from openrowset...插入数据即可
insert into xxdd (aa,bb,cc,dd,ee,ff)
select *
from
openrowset(bulk 'c:\wc.csv', --要读取的文件路径和名称
formatfile='c:\wc.fmt', --格式化文件的路径和名称
firstrow = 2, --要载入的第一行,由于第一行是标题,所以从2开始
--lastrow = 1000, --要载入的最后一行,此值必须大于firstrow
maxerrors = 10, --在加载失败之前加载操作中最大的错误数
--errorfile ='c:\wc_error1.txt', --存放错误的文件
rows_per_batch = 10000 --每个批处理导入的行数
) as t
select *
from xxdd
我怎么提示服务器: 消息 156,级别 15,状态 1,行 3
在关键字 'bulk' 附近有语法错误。
我的数据库是sql2000
好像这个openrowset(bulk是2005后才引入的,sql server 2000不支持。
修改成这样试试:bulk insert xxdd
from 'c:\wc.csv'
with
(
FIRSTROW = 2,
FORMATFILE = 'c:\wc.fmt',
KILOBYTES_PER_BATCH=5000,
batchsize=1000 )