最近,我在通过蟒蛇运行python时遇到了以下问题:
我的脚本旨在将数据提交到云,等待作业完成并检索结果。这个问题从一周前开始出现。
python脚本是通过anaconda cmd运行的,我也尝试过直接通过spyder运行,同样的问题仍然存在。 我尝试运行没有此问题的旧批次,但问题仍然存在。
奇怪的是,有时它会检索全部结果,有时却没有。提交的作业大小或时间之间没有关联,我尝试使用288和1440作业,它完全检索了1440,但未检索到288。所有数据都是同一类型,都遵循相同的命名约定,并且所有作业可在几分钟内在云上完成。
我知道问题不在云上,因为我可以手动检索数据而没有任何问题。这效率不高,因为我需要运行十万多个批次。尚未对云提供商进行任何更新以引起此更改。
我看到this关于间谍程序导致互联网中断的信息。我在Windows 7上使用的是spyder 3.3.3,python 3.7.3。
我必须澄清,我不会像链接的问题一样出现互联网缓慢或中断的情况。
想知道是否还有其他人遇到此连接问题,以及如何绕过此问题
您还可以在下面看到脚本:
import glob
import os
#import time
#import shutil
#Create a string of all .json filenames
AllFiles = glob.glob('*.json')
AllFiles= '" "'.join(AllFiles)
AllFiles = '"' + AllFiles + '"'
#formulate and execute command
if AllFiles != "":
command = 'a-b-x12 analyze -p -v 7.0.4 -d ./folder/file.json -l "type" -o ../3-folder -a ' + AllFiles
os.popen(command)
#time.sleep(200)
#for filename in AllFiles:
# f = os.path.basename(filename)
# src = os.path.dirname(os.path.abspath(filename)) + '\\' + f
# dst = os.path.dirname(os.path.abspath(filename)) + '\\AnalyzedFiles\\' + f
# shutil.move(src, dst
)