多多色-多人伦交性欧美在线观看-多人伦精品一区二区三区视频-多色视频-免费黄色视屏网站-免费黄色在线

國內最全IT社區平臺 聯系我們 | 收藏本站
阿里云優惠2
您當前位置:首頁 > 服務器 > Hadoop的distcp命令出現Permission denied錯誤

Hadoop的distcp命令出現Permission denied錯誤

來源:程序員人生   發布時間:2015-06-08 08:25:51 閱讀次數:8864次

Hadoop的distcp命令可以實現將文件從1個hdfs文件系統中拷貝到另外1個文件系統中,以下所示:

$ bin/hadoop distcp -overwrite hdfs://123.123.23.111:9000/hsd/t_url hdfs://123.123.23.156:9000/data/t_url
正常情況下應當出現以下運行結果:

Java HotSpot(TM) 64-Bit Server VM warning: Insufficient space for shared memory file: /tmp/hsperfdata_hugetable/16744 Try using the -Djava.io.tmpdir= option to select an alternate temp location. 15/04/29 20:35:07 INFO tools.DistCp: Input Options: DistCpOptions{atomicCommit=false, syncFolder=false, deleteMissing=false, ignoreFailures=false, maxMaps=20, sslConfigurationFile='null', copyStrategy='uniformsize', sourceFileListing=null, sourcePaths=[hdfs://192.168.34.135:9000/zyx/t_url], targetPath=hdfs://192.168.34.156:9000/data/t_url, targetPathExists=false, preserveRawXattrs=false} 15/04/29 20:35:07 INFO client.RMProxy: Connecting to ResourceManager at compute⑵3-06.local/192.168.34.135:8032 15/04/29 20:35:08 INFO Configuration.deprecation: io.sort.mb is deprecated. Instead, use mapreduce.task.io.sort.mb 15/04/29 20:35:08 INFO Configuration.deprecation: io.sort.factor is deprecated. Instead, use mapreduce.task.io.sort.factor 15/04/29 20:35:08 WARN conf.Configuration: bad conf file: element not <property> 15/04/29 20:35:08 WARN conf.Configuration: bad conf file: element not <property> 15/04/29 20:35:08 INFO client.RMProxy: Connecting to ResourceManager at compute⑵3-06.local/192.168.34.135:8032 15/04/29 20:35:09 INFO mapreduce.JobSubmitter: number of splits:21 15/04/29 20:35:10 INFO mapreduce.JobSubmitter: Submitting tokens for job: job_1429262156603_0032 15/04/29 20:35:10 INFO impl.YarnClientImpl: Submitted application application_1429262156603_0032 15/04/29 20:35:10 INFO mapreduce.Job: The url to track the job: http://compute⑵3-06.local:8088/proxy/application_1429262156603_0032/ 15/04/29 20:35:10 INFO tools.DistCp: DistCp job-id: job_1429262156603_0032 15/04/29 20:35:10 INFO mapreduce.Job: Running job: job_1429262156603_0032 15/04/29 20:35:21 INFO mapreduce.Job: Job job_1429262156603_0032 running in uber mode : false 15/04/29 20:35:21 INFO mapreduce.Job: map 0% reduce 0% 15/04/29 20:35:32 INFO mapreduce.Job: map 10% reduce 0% 15/04/29 20:35:33 INFO mapreduce.Job: map 18% reduce 0% 15/04/29 20:35:34 INFO mapreduce.Job: map 25% reduce 0% ……

但是我在運行的進程中出現了Permission denied毛病,具體以下:

Error: java.io.IOException: File copy failed: hdfs://192.168.34.135:9000/zyx/t_url/000031_0 --> hdfs://192.168.34.156:9000/data/000031_0 at org.apache.hadoop.tools.mapred.CopyMapper.copyFileWithRetry(CopyMapper.java:284) at org.apache.hadoop.tools.mapred.CopyMapper.map(CopyMapper.java:252) at org.apache.hadoop.tools.mapred.CopyMapper.map(CopyMapper.java:50) at org.apache.hadoop.mapreduce.Mapper.run(Mapper.java:145) at org.apache.hadoop.mapred.MapTask.runNewMapper(MapTask.java:784) at org.apache.hadoop.mapred.MapTask.run(MapTask.java:341) at org.apache.hadoop.mapred.YarnChild$2.run(YarnChild.java:168) at java.security.AccessController.doPrivileged(Native Method) at javax.security.auth.Subject.doAs(Subject.java:415) at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1642) at org.apache.hadoop.mapred.YarnChild.main(YarnChild.java:163) Caused by: java.io.IOException: Couldn't run retriable-command: Copying hdfs://192.168.34.135:9000/zyx/t_url/000031_0 to hdfs://192.168.34.156:9000/data/000031_0 at org.apache.hadoop.tools.util.RetriableCommand.execute(RetriableCommand.java:101) at org.apache.hadoop.tools.mapred.CopyMapper.copyFileWithRetry(CopyMapper.java:280) ... 10 more Caused by: org.apache.hadoop.security.AccessControlException: Permission denied: user=hugetable, access=WRITE, inode="/data":root:supergroup:drwxr-xr-x at org.apache.hadoop.hdfs.server.namenode.FSPermissionChecker.checkFsPermission(FSPermissionChecker.java:271) at org.apache.hadoop.hdfs.server.namenode.FSPermissionChecker.check(FSPermissionChecker.java:257) at org.apache.hadoop.hdfs.server.namenode.FSPermissionChecker.check(FSPermissionChecker.java:238) at org.apache.hadoop.hdfs.server.namenode.FSPermissionChecker.checkPermission(FSPermissionChecker.java:179) at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.checkPermission(FSNamesystem.java:5584) at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.checkPermission(FSNamesystem.java:5566) at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.checkAncestorAccess(FSNamesystem.java:5540) at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.startFileInternal(FSNamesystem.java:2282) at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.startFileInt(FSNamesystem.java:2235) at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.startFile(FSNamesystem.java:2188) at org.apache.hadoop.hdfs.server.namenode.NameNodeRpcServer.create(NameNodeRpcServer.java:505) at org.apache.hadoop.hdfs.protocolPB.ClientNamenodeProtocolServerSideTranslatorPB.create(ClientNamenodeProtocolServerSideTranslatorPB.java:354) at org.apache.hadoop.hdfs.protocol.proto.ClientNamenodeProtocolProtos$ClientNamenodeProtocol$2.callBlockingMethod(ClientNamenodeProtocolProtos.java) at org.apache.hadoop.ipc.ProtobufRpcEngine$Server$ProtoBufRpcInvoker.call(ProtobufRpcEngine.java:585) at org.apache.hadoop.ipc.RPC$Server.call(RPC.java:1026)
從命令中可以很明顯的看出來,是權限不夠,“supergroup:drwxr-x-r-x”,通過hadoop fs -ls /來查看,可見對組外的其他用戶的確沒有寫權限(drwxr-xr-x的最后3個是組外的其他用戶權限,目前只有r:read和x:executable兩個權限)。可見用戶對hdfs文件沒有寫權限。


可以通過chmod 來修改權限:

具體以下:

$ hadoop fs -chmod 777 /lgh $ hadoop fs -chmod 777 /data
上述代碼是給hdfs文件/lgh和/data兩個文件夾賦予777權限(777權限即所有用戶的所有權限),運行完了再次履行hadoop fs /可見權限已全部賦予上去了。



全文完,轉載請注明出處:http://blog.csdn.net/ghuil/article/details/45372469


生活不易,碼農辛苦
如果您覺得本網站對您的學習有所幫助,可以手機掃描二維碼進行捐贈
程序員人生
------分隔線----------------------------
分享到:
------分隔線----------------------------
關閉
程序員人生
主站蜘蛛池模板: 国产成人久久精品区一区二区 | 欧美久久久久久久一区二区三区 | 全国男人的天堂网 | 欧美三级手机在线 | 久久精品123| 中文字幕久久久久一区 | 欧美午夜理伦三级理论三级 | 亚洲一区第一页 | 人与性www | 日本免费爱爱视频 | 亚洲精品视频免费 | 国产永久免费爽视频在线 | 福利国产在线 | 欧美一级一毛片 | haose16在线永久免费 | 成人亲子乱子伦视频 | 久久精品国产久精国产 | 日韩欧美自拍 | 最新国产在线播放 | 久久精品视频国产 | 泡泡影视福利影院 | 亚洲欧洲综合 | 亚洲欧美日韩另类精品一区二区三区 | 免费a一毛片 | 亚洲国产视频在线观看 | 日本特级全黄一级毛片 | 在线免费视频国产 | 欧美日本韩国一区 | 一区二区三区四区无限乱码在线观看 | 周妍希国产福利在线观看 | 亚洲国产精品久久网午夜 | 精品一区二区三区四区乱码 | 国产欧美在线观看不卡 | 最新lutube亚洲看片在线观看 | 中国明星freesexhd图片 | 国产福利精品在线 | 久久性生大片免费观看性 | 亚洲国产成人久久一区www妖精 | 亚洲精品国产啊女成拍色拍 | 叼嘿视频在线观看 | 精品在线播放 |