加入收藏 | 设为首页 | 会员中心 | 我要投稿 李大同 (https://www.lidatong.com.cn/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 综合聚焦 > 服务器 > 安全 > 正文

scala – 将带有struct-type键的映射传递给Spark UDF

发布时间:2020-12-16 18:51:37 所属栏目:安全 来源:网络整理
导读:我想写一个Spark 1.6 UDF,它采用以下映射: case class MyRow(mapping: Map[(Int,Int),Double])val data = Seq( MyRow(Map((1,1) - 1.0)))val df = sc.parallelize(data).toDF()df.printSchema()root |-- mapping: map (nullable = true) | |-- key: struct
我想写一个Spark 1.6 UDF,它采用以下映射:

case class MyRow(mapping: Map[(Int,Int),Double])

val data = Seq(
  MyRow(Map((1,1) -> 1.0))
)
val df = sc.parallelize(data).toDF()

df.printSchema()

root
 |-- mapping: map (nullable = true)
 |    |-- key: struct
 |    |-- value: double (valueContainsNull = false)
 |    |    |-- _1: integer (nullable = false)
 |    |    |-- _2: integer (nullable = false)

(作为旁注:我发现上面的输出很奇怪,因为键的类型打印在值的类型下面,为什么会这样?)

现在我将我的UDF定义为:

val myUDF = udf((inputMapping: Map[(Int,Double]) =>
  inputMapping.map { case ((i1,i2),value) => ((i1 + i2),value) }
)

df
  .withColumn("udfResult",myUDF($"mapping"))
  .show()

但这给了我:

java.lang.ClassCastException: org.apache.spark.sql.catalyst.expressions.GenericRowWithSchema cannot be cast to scala.Tuple2

所以我尝试用自定义案例类替换(Int,因为如果我想将结构传递给UDF,我通常会这样做:

case class MyTuple2(i1: Int,i2: Int)
val myUDF = udf((inputMapping: Map[MyTuple2,Double]) => 
  inputMapping.map { case (MyTuple2(i1,value) }
)

这奇怪地给出了:

org.apache.spark.sql.AnalysisException: cannot resolve 'UDF(mapping)' due to data type mismatch: argument 1 requires map<struct<i1:int,i2:int>,double> type,however,'mapping' is of map<struct<_1:int,_2:int>,double> type.

由于类型匹配,我不理解上述异常.

我发现的唯一(丑陋)解决方案是传递org.apache.spark.sql.Row然后“提取”结构的元素:

val myUDF = udf((inputMapping: Map[Row,Double]) => inputMapping
  .map { case (key,value) => ((key.getInt(0),key.getInt(1)),value) } // extract Row into Tuple2
  .map { case ((i1,value) }
)

解决方法

据我所知,在这种情况下没有转义Row的使用:地图中使用的元组(或案例类)(或另一个元组/案例类/数组……)是一个嵌套结构,因此它传递给UDF时将表示为一行.

我可以建议的唯一改进是使用Row.unapply来简化代码:

val myUDF = udf((inputMapping: Map[Row,Double]) => inputMapping
  .map { case (Row(i1: Int,i2: Int),value) => (i1 + i2,value) }
)

(编辑:李大同)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    推荐文章
      热点阅读