一、准备工作
首先我们需要在 windows 上做一些配置然后才能在 Windows 上直接操作 hdfs,首先需要在 windows 上解压之前传到 server 的tar 压缩包,放到一个没有中文的目录中,防止出现编码错误,然后配置环境变量:
HADOOP_HOME D:\hadoop-2.7.3\hadoop-2.7.3(也就是解压之后hadoop的根目录)
PATH %HADOOP_HOME%\bin
PATH %HADOOP_HOME%\sbin
因为我们使用的是 Linux 下的软件,所以需要一些依赖文件:hadoop.dll、libwinutils.lib、winutils.exe。将这些文件粘贴到 C:\Windows\System32 目录下,然后将这些文件再粘贴到 Hadoop 根目录下的 bin 文件夹内。
最后一定要重启电脑,一个大坑,,,
二、安装 eclipse 或者 idea Hadoop 插件
安装了插件之后编辑器会多一个窗口,首先进行配置,我是用的是 idea ,eclipse 也差不多。
配置好之后测试一定是通不过的,这个很迷,直接确定,然后连接就好了,连接成功之后出现 hdfs 的目录结构,可以直接在里面操作 hdfs,就跟正常的文件目录一样。






网友评论