hdfs命令格式化老是错误,无法解决怎么办啊
请大佬看看还是环境变量上的问题吗

解决方案 »

  1.   

    前后目录名都对不上。你前面设置的hadoop_home,后面export path=$path:$hadoophome/bin,一个有下划线,一个没有下划线
      

  2.   

    检查你的安装目录对不对,有没有source;echo $PATH看输出里面有没有你的hadoop
      

  3.   

    这是在hadoop2.7.3里面echo $PATH的结果:/opt/hadoop-2.7.3$bin:/usr/javaek1.8.0_11$bin:/usrPb64I-3.3/bin:/usr/local/sbin:/usr/local/bin:/sbin:/bin:/usr/sbin:/usr/bin:/root/bin,我也看不懂。。
      

  4.   

    这些就是你指令的来源,比如ls  cd 这些指令都是在这些某个目录下面,所以你的hdfs指令也需要写在PATH里面,
    正常应该是opt/hadoop-2.7.3/bin   /usr/java/jdk1.8.0_11/bin  但是我不知道你这为什么会显示成$bin   
    实在不行 你就/opt/hadoop-2.7.3/bin/hdfs  这样去执行吧
      

  5.   

    找不到hdsf文件,用find命令找一下hdsf文件,然后把文件目录放到path中