我正在尝试在python中使用subprocess.Popen运行hadoop distcp命令并获取错误-输入无效。如果我作为Hadoop命令运行,则同一命令运行良好。
Hadoop命令:
hadoop distcp -log /user/name/distcp_log -skipcrccheck -update hdfs://xxxxx:8020/sourceDir hdfs://xxxxx:8020/destDir
在python中:
from subprocess import Popen, PIPE
proc1 = Popen(['hadoop','distcp','-log /user/name/distcp_log -skipcrccheck -update', 'hdfs://xxxxx:8020/sourceDir', 'hdfs://xxxxx:8020/destDir'], stdout=subprocess.PIPE)
日志消息:
INFO tools.OptionsParser: parseChunkSize: blocksperchunk false
INFO tools.DistCp: Input Options: DistCpOptions{atomicCommit=false, syncFolder=false, deleteMissing=false, ignoreFailures=false, overwrite=false, append=false, useDiff=false, useRdiff=false, fromSnapshot=null, toSnapshot=null, skipCRC=false, blocking=true, numListstatusThreads=0, maxMaps=20, mapBandwidth=100, sslConfigurationFile='null', copyStrategy='uniformsize', preserveStatus=[], preserveRawXattrs=false, atomicWorkPath=null, logPath=null, sourceFileListing=null, sourcePaths=[-log /user/name/distcp_log -skipcrccheck -update, hdfs://xxxxx:8020/sourceDir], targetPath=hdfs://xxxxx:8020/destDir, targetPathExists=true, filtersFile='null', blocksPerChunk=0, copyBufferSize=8192}
ERROR tools.DistCp: Invalid input:
org.apache.hadoop.tools.CopyListing$InvalidInputException: -log /user/name/distcp_log -skipcrccheck -update doesn't exist
它将选项视为源目录。 如何告诉子进程这些是选项,而不应视为源(sourcePaths = [-log / user / name / distcp_log -skipcrccheck -update,hdfs:// xxxxx:8020 / sourceDir])?
我正在使用Python2.7,但无权访问pip安装及其Kerberos群集。 想要运行此命令以进行集群内传输,但在此之前想在群集中尝试使用此简单命令。
谢谢
答案 0 :(得分:3)
将命令行的 all 个参数拆分为Popen第一个参数列表的单独元素:
from subprocess import Popen, PIPE
proc1 = Popen(['hadoop','distcp','-log', '/user/name/distcp_log', '-skipcrccheck', '-update', 'hdfs://xxxxx:8020/sourceDir', 'hdfs://xxxxx:8020/destDir'], stdout=subprocess.PIPE)
Here,您可以找到Popen
文档,说args
应该是通过用' '
分隔所有参数而创建的列表。