我有一个数据流作业,未能启动工作器,并出现以下错误:
File "/usr/lib/python2.7/runpy.py", line 174, in _run_module_as_main "__main__", fname, loader, pkg_name)
File "/usr/lib/python2.7/runpy.py", line 72, in _run_code exec code in run_globals
File "/usr/local/lib/python2.7/dist-packages/dataflow_worker/start.py", line 28, in <module>
from dataflow_worker import batchworker
File "/usr/local/lib/python2.7/dist-packages/dataflow_worker/batchworker.py", line 57, in <module>
from apache_beam.runners.dataflow.internal.dependency import _dependency_file_copy
ImportError: No module named dependency
但是我可以在另一台计算机上使用完全相同的代码(也具有相同的setup.py文件)成功运行相同的作业,我怀疑数据流项目的配置存在问题。
答案 0 :(得分:0)
如果具有完全相同的代码(也具有相同的setup.py文件)的相同作业可以在一个云项目中成功运行,但在另一个项目中失败,则失败的项目可能存在问题。最好的解决方法是按照Report Bugs and Request Features with Issue Trackers上的说明在公共问题跟踪器中将此问题报告为问题,以寻求Google的支持与您一起研究该项目。