我们对livy
的自包含pyspark
模块的简单发布请求可以正常工作。但是,我们有多个pyspark
模块使用的可重用组件。此外,我们的所有代码都是使用main.py
参数从--job
模块触发的。
下面是文件夹结构:
main.py
jobs.zip
jobs
job1
__init__.py
job2
__init__.py
以下spark-submit
命令运行正常。但是,我们试图找出如何使用--job
传递livy api
参数。
/usr/local/spark/bin/spark-submit \
--py-files jobs.zip \
src/main.py \
--job value1
答案 0 :(得分:1)
使用下面的示例JSON,调用REST API到 /批次端点,
bool hasJumped = false;
// Update is called once per frame
void Update()
{
if (controller.isGrounded)
{
if (Input.GetKey(KeyCode.W))
{
anim.SetBool("running", true);
moveDirection = new Vector3(0, 0, 1);
moveDirection *= speed;
}
if (Input.GetKeyUp(KeyCode.W))
{
anim.SetBool("running", false);
moveDirection = new Vector3(0, 0, 0);
}
if (Input.GetKeyDown(KeyCode.Space))
{
anim.SetBool("jump", true);
hasJumped = true;
moveDirection.y = jumpSpeed;
}
else
{
anim.SetBool("jump", false);
}
}
else
{
if (hasJumped && Input.GetKeyDown(KeyCode.Space))
{
Debug.Log("Second Jump");
anim.SetBool("jump", true);
hasJumped = false;
moveDirection.y = jumpSpeed;
}
}
moveDirection.y -= gravity * Time.deltaTime;
controller.Move(moveDirection * Time.deltaTime);
}
引用:https://livy.incubator.apache.org/docs/latest/rest-api.html