Comment copier un fichier de HDFS vers le système de fichiers local. Il n'y a pas d'emplacement physique d'un fichier sous le fichier, pas même de répertoire. comment puis-je les déplacer dans mon local pour d'autres validations.Je suis essayé via winscp.
135
Dans Hadoop 2.0,
où,
hdfs_input_file_path
peut-être obtenu dehttp://<<name_node_ip>>:50070/explorer.html
output_path
est le chemin local du fichier dans lequel le fichier doit être copié.vous pouvez également utiliser
get
à la place decopyToLocal
.la source
Afin de copier des fichiers de HDFS vers le système de fichiers local, la commande suivante peut être exécutée:
hadoop dfs -copyToLocal <input> <output>
<input>
: le chemin du répertoire HDFS (par exemple / mydata) que vous souhaitez copier<output>
: le chemin du répertoire de destination (par exemple ~ / Documents)la source
hadoop fs -ls
?vous pouvez accomplir de ces deux manières.
Ex:
Mes fichiers sont situés dans /sourcedata/mydata.txt Je veux copier le fichier dans le système de fichiers local dans ce chemin / user / ravi / mydata
la source
Si votre «fichier» source est divisé entre plusieurs fichiers (peut-être à la suite de map-reduction) qui vivent dans la même arborescence de répertoires, vous pouvez le copier dans un fichier local avec:
la source
Cela a fonctionné pour moi sur mon instance de VM d'Ubuntu.
hdfs dfs -copyToLocal [répertoire hadoop] [répertoire local]
la source
si vous utilisez docker, vous devez suivre les étapes suivantes:
copiez le fichier de hdfs vers namenode (hadoop fs -get output / part-r-00000 / out_text). "/ out_text" sera stocké sur le namenode.
copiez le fichier de namenode sur le disque local en (docker cp namenode: / out_text output.txt)
output.txt sera là dans votre répertoire de travail actuel
la source
la source