我有一个Python程序,该程序位于远程服务器上,运行时会将文件上传到AWS存储桶。如果我将SSH SSH到服务器上并使用命令sudo python3 /path/to/backup.py
运行,它将按预期工作。
我正在编写一个Python程序来自动化一个更大的过程,其中包括运行backup.py。我使用paramiko库创建了一个函数来执行此操作。这是命令运行的地方
ssh_stdin, ssh_stdout, ssh_stderr = self.ssh.exec_command('sudo python3 /path/to/backup.py', 1800)
logging.debug(f'ssh_stdout: {ssh_stdout.readline()}')
logging.debug(f'ssh_stderr: {ssh_stderr.readline()}')
我的自动化给了我这个输出:
ssh_stdout: Tue, 19 May 2020 14:36:43 INFO The COS endpoint is 9.11.200.206, writing to vault: SD_BACKUP_4058
此后该程序不执行任何操作。当我登录到服务器并检查backup.py
的日志时,可以看到它仍在运行,并且似乎正坐在文件上传位置。这是它停留在的代码:
s3_client.upload_file(
Filename=BACKUP,
Bucket=BUCKET_NAME,
Key=SPLIT_FILE_NAME,
Callback=pp(BACKUP),
Config=config)
我不明白为什么自动化程序启动时它会卡在这里,而不是我从终端中的命令行运行时为什么会卡在这里。我在日志中看不到任何对我有帮助的东西。它似乎只是停留在执行它的那一点上。可能与回调未返回有关?
答案 0 :(得分:1)
您仅读取输出的一行。
logging.debug(f'ssh_stdout: {ssh_stdout.readline()}')
如果远程程序产生大量输出,则在其输出缓冲区填满后,程序将在下次尝试写入某些输出时挂起。
如果要结束程序,则必须继续读取输出。
最简单的方法是使用readlines
或read
:
print(stdout.read())
但是对于像您这样的大型输出而言,这效率很低。
相反,您可以逐行读取输出:
for line in stdout:
print(line.strip())
当命令还产生错误输出时,情况变得更加复杂,因为此时您必须读取两个输出流。 参见Paramiko ssh die/hang with big output。