此页面上的内容需要较新版本的 Adobe Flash Player。

获取 Adobe Flash Player

您现在的位置: 智可网 - 新技术 - Hadoop - 正文
HDFS客户端的权限错误:Permission denied(1)
教程录入:李隆权    责任编辑:quan 作者:佚名 文章来源:linuxidc

搭建了一个Hadoop的环境,Hadoop集群环境部署在几个Linux服务器上,现在想使用Windows上的Java客户端来操作集群中的HDFS文件,但是在客户端运行时出现了如下的认证错误,被折磨了几天,问题终得以解决。以此文记录问题的解决过程。

(如果想看最终解决问题的方法拉到最后,如果想看我的问题解决思路请从上向下看)

问题描述

上传文件的代码:

  1. private static void uploadToHdfs() throws FileNotFoundException,IOException {
  2. //我的文件地址
  3. String localSrc = "E:\\快盘\\技术文档\\hadoop\\HDFS初步研究.pdf";
  4. //存放在云端的目的地址
  5. String dest = "hdfs://192.168.2.156:9000/user/HDFS初步研究.pdf";
  6. InputStream in = new BufferedInputStream(new FileInputStream(localSrc));
  7. //得到配置对象
  8. Configuration conf = new Configuration();
  9. // conf.set("fs.default.name","hdfs://192.168.2.156:9000");
  10. //文件系统
  11. FileSystem fs = FileSystem.get(URI.create(dest), conf);
  12. //输出流
  13. OutputStream out = fs.create(new Path(dest), new Progressable() {
  14. @Override
  15. public void progress() {
  16. System.out.println("上传完一个设定缓存区大小容量的文件!");
  17. }
  18. });
  19. //连接两个流,形成通道,使输入流向输出流传输数据
  20. IOUtils.copyBytes(in, out, 4096true);
  21. }

错误的详细描述如下

org.apache.hadoop.security.AccessControlException: org.apache.hadoop.security .AccessControlException: Permission denIEd: user=Administrator, Access=WRITE, inode="hadoop": hadoop:supergroup:rwxr-xr-x

其实这个错误的原因很容易看出来,用户Administator在hadoop上执行写操作时被权限系统拒绝.

解决问题的过程

看到这个错误的,第一步就是将这个错误直接入放到百度google里面进行搜索。找到了N多篇文章,但是主要的思路就如此篇文章所写的两个解决办法:http://www.linuxidc.com/Linux/2014-08/105334.htm

1、在hdfs的配置文件中,将dfs.permissions修改为False

2、执行这样的操作 hadoop fs -chmod 777 /user/hadoop

对于上面的第一个方法,我试了行不通,不知道是自己设置错误还是其他原因,对我此法不可行,第二个方法可行。第二个方法是让我们来修改HDFS中相应文件夹的权限,后面的/user/hadoop这个路径为HDFS中的文件路径,这样修改之后就让我们的administrator有在HDFS的相应目录下有写文件的权限(所有的用户都是写权限)。

虽然上面的第二步可以解决问题了,上传之后的文件所有者为Administrator,但是总感觉这样的方法不够优雅,而且这样修改权限会有一定的安全问题,总之就是看着不爽,就在想有没有其他的办法?

分享
打赏我
打开支付宝"扫一扫" 打开微信"扫一扫"
客户端
"扫一扫"下载智可网App
意见反馈
HDFS客户端的权限错误:Permission denied(1)
作者:佚名 来源:linuxidc

搭建了一个Hadoop的环境,Hadoop集群环境部署在几个Linux服务器上,现在想使用Windows上的Java客户端来操作集群中的HDFS文件,但是在客户端运行时出现了如下的认证错误,被折磨了几天,问题终得以解决。以此文记录问题的解决过程。

(如果想看最终解决问题的方法拉到最后,如果想看我的问题解决思路请从上向下看)

问题描述

上传文件的代码:

  1. private static void uploadToHdfs() throws FileNotFoundException,IOException {
  2. //我的文件地址
  3. String localSrc = "E:\\快盘\\技术文档\\hadoop\\HDFS初步研究.pdf";
  4. //存放在云端的目的地址
  5. String dest = "hdfs://192.168.2.156:9000/user/HDFS初步研究.pdf";
  6. InputStream in = new BufferedInputStream(new FileInputStream(localSrc));
  7. //得到配置对象
  8. Configuration conf = new Configuration();
  9. // conf.set("fs.default.name","hdfs://192.168.2.156:9000");
  10. //文件系统
  11. FileSystem fs = FileSystem.get(URI.create(dest), conf);
  12. //输出流
  13. OutputStream out = fs.create(new Path(dest), new Progressable() {
  14. @Override
  15. public void progress() {
  16. System.out.println("上传完一个设定缓存区大小容量的文件!");
  17. }
  18. });
  19. //连接两个流,形成通道,使输入流向输出流传输数据
  20. IOUtils.copyBytes(in, out, 4096true);
  21. }

错误的详细描述如下

org.apache.hadoop.security.AccessControlException: org.apache.hadoop.security .AccessControlException: Permission denIEd: user=Administrator, Access=WRITE, inode="hadoop": hadoop:supergroup:rwxr-xr-x

其实这个错误的原因很容易看出来,用户Administator在hadoop上执行写操作时被权限系统拒绝.

解决问题的过程

看到这个错误的,第一步就是将这个错误直接入放到百度google里面进行搜索。找到了N多篇文章,但是主要的思路就如此篇文章所写的两个解决办法:http://www.linuxidc.com/Linux/2014-08/105334.htm

1、在hdfs的配置文件中,将dfs.permissions修改为False

2、执行这样的操作 hadoop fs -chmod 777 /user/hadoop

对于上面的第一个方法,我试了行不通,不知道是自己设置错误还是其他原因,对我此法不可行,第二个方法可行。第二个方法是让我们来修改HDFS中相应文件夹的权限,后面的/user/hadoop这个路径为HDFS中的文件路径,这样修改之后就让我们的administrator有在HDFS的相应目录下有写文件的权限(所有的用户都是写权限)。

虽然上面的第二步可以解决问题了,上传之后的文件所有者为Administrator,但是总感觉这样的方法不够优雅,而且这样修改权限会有一定的安全问题,总之就是看着不爽,就在想有没有其他的办法?