如何在Spark中使用ASCII函数

时间:2019-06-25 11:36:16

标签: apache-spark hadoop apache-spark-sql

在使用Scala来使用Spark函数ASCII(sparkSQl字符串函数)时需要帮助

import org.apache.spark.sql.SparkSession
import spark.implicits._
import org.apache.spark.sql.functions

val a = sc.parallelize(Array("Santosh","Adithya"))
select ascii('Santosh')

我需要santosh的ascii值和rdd a的ascii值

1 个答案:

答案 0 :(得分:3)

ascii是spark-sql API的一部分,只能在DataFrames / Datasets上使用。

使用将您的RDD转换为数据集,然后使用ascii函数

import spark.implicits._
val a = sc.parallelize(Array("Santosh","Adithya"))

case class Person(val fullName: String)
val ds = a.map(Person).toDS.selectExpr("ascii(fullName)")
ds.show