scala – 如何将函数应用于Spark DataFrame的列?
发布时间:2020-12-16 19:18:18 所属栏目:安全 来源:网络整理
导读:我们假设我们有一个Spark DataFrame df.getClassClass[_ : org.apache.spark.sql.DataFrame] = class org.apache.spark.sql.DataFrame 使用以下架构 df.printSchemaroot|-- rawFV: string (nullable = true)|-- tk: array (nullable = true)| |-- element: s
我们假设我们有一个Spark DataFrame
df.getClass Class[_ <: org.apache.spark.sql.DataFrame] = class org.apache.spark.sql.DataFrame 使用以下架构 df.printSchema root |-- rawFV: string (nullable = true) |-- tk: array (nullable = true) | |-- element: string (containsNull = true) 鉴于tk列的每一行都是一个字符串数组,如何编写一个Scala函数来返回每行中的元素数量? 解决方法
您不必编写自定义函数,因为有一个:
import org.apache.spark.sql.functions.size df.select(size($"tk")) 如果你真的想要你可以写一个udf: import org.apache.spark.sql.functions.udf val size_ = udf((xs: Seq[String]) => xs.size) 甚至创建自定义表达式,但实际上没有任何意义. (编辑:李大同) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |