scala – 如果一列是另一列的成员,如何过滤Spark数据帧
发布时间:2020-12-16 18:24:26 所属栏目:安全 来源:网络整理
导读:我有一个包含两列的数据帧(一个字符串和一个字符串数组): root |-- user: string (nullable = true) |-- users: array (nullable = true) | |-- element: string (containsNull = true) 如何过滤数据框,以便结果数据框只包含用户在用户中的行? 解决方法 当
我有一个包含两列的数据帧(一个字符串和一个字符串数组):
root |-- user: string (nullable = true) |-- users: array (nullable = true) | |-- element: string (containsNull = true) 如何过滤数据框,以便结果数据框只包含用户在用户中的行? 解决方法
当然,这是可能的,而不是那么难.为此,您可以使用UDF.
import org.apache.spark.sql.functions._ import org.apache.spark.sql.types._ val df = sc.parallelize(Array( ("1",Array("1","2","3")),("2",("3","2")) )).toDF("user","users") val inArray = udf((id: String,array: scala.collection.mutable.WrappedArray[String]) => array.contains(id),BooleanType) df.where(inArray($"user",$"users")).show() 输出是: +----+------------+ |user| users| +----+------------+ | 1| [1,2,3]| | 2|[1,3]| +----+------------+ (编辑:李大同) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |