如何在HDFS中编写黄瓜JSON报告

时间:2018-12-24 08:35:18

标签: scala apache-spark cucumber hdfs

我正在将黄瓜和斯卡拉一起使用,并在下面的罐子中使用

cucumber-junit-1.2.0.jar 黄瓜芯1.2.0.jar cummon-html-0.2.3.jar 黄瓜-jvm-deps-1.0.3.jar cumber-java-1.2.0.jar

我在大数据测试中使用的是黄瓜框架,并使用spark读取/写入/处理和数据。

我使用的是cli cli.Main方法来运行我的功能

import cucumber.api.cli.Main

glue = args(0)
gluePath = args(1)
tag = args(2)
tagName = args(3)
val fileNames = args(4)
val arrFileNames = fileNames.split(",")
arrFileNames.foreach(x => sqlContext.sparkContext.addFile(x))
plugin = "-p"
pluginNameAndPath = "com.cucumber.listener.ExtentCucumberFormatter:hdfs:///tmp/target/cucumber-reports/report.html"
pluginNameAndPathJson = "json:hdfs:///tmp/target/cucumber-reports/report.json"
Main.main(  Array(glue,gluePath,tag,tagName,plugin,pluginNameAndPath,plugin,pluginNameAndPathJson,SparkFiles.get("xxx.feature")

在上面的代码中,当我以群集模式运行时,它成功运行,但是在给定的HDFS位置未生成黄瓜报告。

但是当我在客户端模式下运行(没有hdfs:///)时,它成功运行并在本地节点上创建了黄瓜报告。

似乎黄瓜没有hdfs文件系统,因此无法在hdfs中创建文件

任何人都可以通过提供hdfs路径或其他方法来帮助创建黄瓜报告吗?

0 个答案:

没有答案