学生党问一个问题
c/c++程序中要把大文件存储到hadoop平台上
要怎么选择呢?
1.read file 、open file in hadoop 、while(write())
2.调用linux 的系统操作命令
c/c++程序中要把大文件存储到hadoop平台上
要怎么选择呢?
1.read file 、open file in hadoop 、while(write())
2.调用linux 的系统操作命令
解决方案 »
- 我在安装Nova时,出现以下问题。请问可能是啥原因
- windows实例可以运行,但无法ping通
- QQ可以上浏览器无法上网
- 学校领导让我解决现有服务器能耗高、利用率低的问题?郁闷~
- CloudFront 使用场景配置问题
- 怎么安装python的开发工具包boto呢?
- 嵌入式云计算ARM处理器,那个性能强大呢?
- spark输出log信息中怎么过滤INFO信息?
- 本地local运行Spark程序报错 ERROR SparkContext:91 - Error initializing SparkContext
- 运维该怎么学,大神有没有推荐的学习路线啊!急
- 关于vnc和PUTTy访问虚拟机的问题
- 请教把自己开发的软件架构到云平台上
const char* writePath = "/tmp/testfile.txt";
hdfsFile writeFile = hdfsOpenFile(fs, writePath, O_WRONLY|O_CREAT, 0, 0, 0);
if(!writeFile) {
fprintf(stderr, "Failed to open %s for writing!\n", writePath);
exit(-1);
}
char* buffer = "Hello, World!";
tSize num_written_bytes = hdfsWrite(fs, writeFile, (void*)buffer, strlen(buffer)+1);
if (hdfsFlush(fs, writeFile)) {
fprintf(stderr, "Failed to 'flush' %s\n", writePath);
exit(-1);
}
hdfsCloseFile(fs, writeFile);
}