加入收藏 | 设为首页 | 会员中心 | 我要投稿 李大同 (https://www.lidatong.com.cn/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 综合聚焦 > 服务器 > 安全 > 正文

scala – 如果一列是另一列的成员,如何过滤Spark数据帧

发布时间:2020-12-16 18:24:26 所属栏目:安全 来源:网络整理
导读:我有一个包含两列的数据帧(一个字符串和一个字符串数组): root |-- user: string (nullable = true) |-- users: array (nullable = true) | |-- element: string (containsNull = true) 如何过滤数据框,以便结果数据框只包含用户在用户中的行? 解决方法 当
我有一个包含两列的数据帧(一个字符串和一个字符串数组):

root
 |-- user: string (nullable = true)
 |-- users: array (nullable = true)
 |    |-- element: string (containsNull = true)

如何过滤数据框,以便结果数据框只包含用户在用户中的行?

解决方法

当然,这是可能的,而不是那么难.为此,您可以使用UDF.

import org.apache.spark.sql.functions._
import org.apache.spark.sql.types._

val df = sc.parallelize(Array(
  ("1",Array("1","2","3")),("2",("3","2"))
)).toDF("user","users")

val inArray = udf((id: String,array: scala.collection.mutable.WrappedArray[String]) => array.contains(id),BooleanType)

df.where(inArray($"user",$"users")).show()

输出是:

+----+------------+
|user|       users|
+----+------------+
|   1|   [1,2,3]|
|   2|[1,3]|
+----+------------+

(编辑:李大同)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    推荐文章
      热点阅读