加入收藏 | 设为首页 | 会员中心 | 我要投稿 李大同 (https://www.lidatong.com.cn/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 综合聚焦 > 服务器 > 安全 > 正文

scala – 在Spark SQL中连接两个DataFrame并仅选择一个列

发布时间:2020-12-16 09:26:02 所属栏目:安全 来源:网络整理
导读:我在Spark SQL中有两个DataFrame(D1和D2). 我试图内部加入他们两个D1.join(D2,“一些列”) 并获取仅D1的数据,而不是完整的数据集. D1和D2都具有相同的列. 有人可以帮我这个吗? 我正在使用Spark 1.6. 解决方法 假设您要加入“id”列.然后你可以写: val sqlC
我在Spark SQL中有两个DataFrame(D1和D2).

我试图内部加入他们两个D1.join(D2,“一些列”)
并获取仅D1的数据,而不是完整的数据集.

D1和D2都具有相同的列.

有人可以帮我这个吗?

我正在使用Spark 1.6.

解决方法

假设您要加入“id”列.然后你可以写:

val sqlContext = new org.apache.spark.sql.SQLContext(sc)
import sqlContext.implicits._    
d1.as("d1").join(d2.as("d2"),$"d1.id" === $"d2.id").select($"d1.*")

(编辑:李大同)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    推荐文章
      热点阅读