加入收藏 | 设为首页 | 会员中心 | 我要投稿 李大同 (https://www.lidatong.com.cn/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 编程开发 > Java > 正文

java – foreach函数在Spark DataFrame中不起作用

发布时间:2020-12-15 04:37:14 所属栏目:Java 来源:网络整理
导读:根据DataFrames API,定义是: public void foreach(scala.Function1Row,scala.runtime.BoxedUnit f) 将函数f应用于所有行. 但是当我想要的时候 Dataframe df = sql.read() .format("com.databricks.spark.csv") .option("header","true") .load("file:///hom
根据DataFrames API,定义是:

public void foreach(scala.Function1<Row,scala.runtime.BoxedUnit> f)

将函数f应用于所有行.

但是当我想要的时候

Dataframe df = sql.read()
    .format("com.databricks.spark.csv")
    .option("header","true")
    .load("file:///home/hadoop/Desktop/examples.csv");

df.foreach(x->
{
   System.out.println(x);
});

我收到编译时错误.有什么错吗?

解决方法

您可以将其转换为Java RDD,以便使用lambda,如下所示:

df.toJavaRDD().foreach(x->
   System.out.println(x)
);

(编辑:李大同)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    推荐文章
      热点阅读