我遇到电子问题在Windows上运行版本构建,Mac
主要流程中出现Javascript错误
import org.apache.hadoop.hbase.{HBaseConfiguration, HTableDescriptor}
import org.apache.hadoop.hbase.client.HBaseAdmin
import org.apache.hadoop.hbase.mapreduce.TableInputFormat
import org.apache.hadoop.hbase.mapreduce.TableOutputFormat
import org.apache.hadoop.mapreduce.OutputFormat
import org.apache.hadoop.hbase.client.Mutation
import org.apache.hadoop.fs.Path
import org.apache.hadoop.hbase.HColumnDescriptor
import org.apache.hadoop.hbase.util.Bytes
import org.apache.hadoop.hbase.client.Put;
import org.apache.hadoop.hbase.client.HTable;
import org.apache.hadoop.hbase.io.ImmutableBytesWritable
import org.apache.hadoop.conf.Configuration
import scala.collection.mutable
import java.io.{IOException, File, ByteArrayOutputStream}
import org.apache.hadoop.hbase.util.Bytes
import org.apache.spark.HashPartitioner
val tableName = "test"
val cfIndex = "cf".getBytes()
val colIndexId = "c1".getBytes()
val RDD = sc.parallelize(List(("1","2"),("1","2"),("1","3"), ("3","3")),2).repartition(2).mapPartitions { part =>
val tableName = "test"
val cfIndex = "cf".getBytes()
val colIndexId = "c01".getBytes()
part.map { case(k,v) =>
val put = new Put(k.getBytes())
put.add(cfIndex, colIndexId, v.getBytes())
(k, put)
}
}
答案 0 :(得分:1)
问题应该与构建可部署软件包的电子版本有关。有关详细信息,请参阅此link。
我对使用' electron-packager-interactive'(epi)npm包构建的软件包有类似的错误。随着我调试更多,我发现默认情况下我的epi包使用了' 0.34.1'版。因此,升级到更高版本的< 0.35.0'已经解决了错误。