我正在将黄瓜和斯卡拉一起使用,并在下面的罐子中使用
cucumber-junit-1.2.0.jar 黄瓜芯1.2.0.jar cummon-html-0.2.3.jar 黄瓜-jvm-deps-1.0.3.jar cumber-java-1.2.0.jar
我在大数据测试中使用的是黄瓜框架,并使用spark读取/写入/处理和数据。
我使用的是cli cli.Main方法来运行我的功能
import cucumber.api.cli.Main
glue = args(0)
gluePath = args(1)
tag = args(2)
tagName = args(3)
val fileNames = args(4)
val arrFileNames = fileNames.split(",")
arrFileNames.foreach(x => sqlContext.sparkContext.addFile(x))
plugin = "-p"
pluginNameAndPath = "com.cucumber.listener.ExtentCucumberFormatter:hdfs:///tmp/target/cucumber-reports/report.html"
pluginNameAndPathJson = "json:hdfs:///tmp/target/cucumber-reports/report.json"
Main.main( Array(glue,gluePath,tag,tagName,plugin,pluginNameAndPath,plugin,pluginNameAndPathJson,SparkFiles.get("xxx.feature")
在上面的代码中,当我以群集模式运行时,它成功运行,但是在给定的HDFS位置未生成黄瓜报告。
但是当我在客户端模式下运行(没有hdfs:///)时,它成功运行并在本地节点上创建了黄瓜报告。
似乎黄瓜没有hdfs文件系统,因此无法在hdfs中创建文件
任何人都可以通过提供hdfs路径或其他方法来帮助创建黄瓜报告吗?