日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

到另一个文件夹 复制hdfs上的文件_HDFS——如何将文件从HDFS复制到本地

發布時間:2023/12/19 编程问答 29 豆豆
生活随笔 收集整理的這篇文章主要介紹了 到另一个文件夹 复制hdfs上的文件_HDFS——如何将文件从HDFS复制到本地 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

下面兩個命令是把文件從HDFS上下載到本地的命令。

get

使用方法:Hadoop fs -get [-ignorecrc] [-crc]

復制文件到本地文件系統。可用-ignorecrc選項復制CRC校驗失敗的文件。使用-crc選項復制文件以及CRC信息。

示例:

hadoop fs -get /user/hadoop/file localfile

hadoop fs -get hdfs://host:port/user/hadoop/file localfile

返回值:

成功返回0,失敗返回-1。

copyToLocal

使用方法:hadoop fs -copyToLocal [-ignorecrc] [-crc] URI

除了限定目標路徑是一個本地文件外,和get命令類似。

也可以用如下的程序可實現將HDFS上的文件下載到本地。

import java.net.URI;

import java.io.OutputStream;

import java.io.BufferedInputStream;

import java.io.FileInputStream;

import java.io.FileOutputStream;

import org.apache.hadoop.conf.Configuration;

import org.apache.hadoop.fs.FileSystem;

import org.apache.hadoop.fs.FSDataInputStream;

import org.apache.hadoop.fs.Path;

import org.apache.hadoop.io.IOUtils;

public class FileCopy2Local

{

public static void main(String[] args) throws Exception

{

String dest = "hdfs://localhost:9000/user/laozhao0/cite2.txt";

String local = "/home/laozhao0/cite2.txt";

Configuration conf = new Configuration();

FileSystem fs = FileSystem.get(URI.create(dest),conf);

FSDataInputStream fsdi = fs.open(new Path(dest));

OutputStream output = new FileOutputStream(local);

IOUtils.copyBytes(fsdi,output,4096,true);

}

}

相關閱讀:

總結

以上是生活随笔為你收集整理的到另一个文件夹 复制hdfs上的文件_HDFS——如何将文件从HDFS复制到本地的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。