java – foreach函数在Spark DataFrame中不起作用
发布时间:2020-12-15 04:37:14 所属栏目:Java 来源:网络整理
导读:根据DataFrames API,定义是: public void foreach(scala.Function1Row,scala.runtime.BoxedUnit f) 将函数f应用于所有行. 但是当我想要的时候 Dataframe df = sql.read() .format("com.databricks.spark.csv") .option("header","true") .load("file:///hom
根据DataFrames API,定义是:
public void foreach(scala.Function1<Row,scala.runtime.BoxedUnit> f) 将函数f应用于所有行. 但是当我想要的时候 Dataframe df = sql.read() .format("com.databricks.spark.csv") .option("header","true") .load("file:///home/hadoop/Desktop/examples.csv"); df.foreach(x-> { System.out.println(x); }); 我收到编译时错误.有什么错吗? 解决方法
您可以将其转换为Java RDD,以便使用lambda,如下所示:
df.toJavaRDD().foreach(x-> System.out.println(x) ); (编辑:李大同) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |
相关内容
- 详解JVM类加载机制及类缓存问题的处理方法
- java – 如何使用RandomAccessFile读取UTF8编码文件?
- Java基础知识1
- java – LibGDX:从json文件读取到ArrayList
- ANNOTATION PROCESSING 101 by Hannes Dorfmann — 10 Jan
- java – 使用Appium和Gradle进行Android测试
- java – 从文件夹及其子文件夹中查找特定文件类型
- opencv – java中的CascadeClassifier找不到带网络摄像头的
- Java使用Socket判断某服务能否连通代码实例
- Java多线程-----Thread常用方法