scala – ‘spark.driver.maxResultSize’的范围
我正在运行Spark作业来聚合数据.我有一个名为Profile的自定义数据结构,它基本上包含一个mutable.HashMap [Zone,Double].我想使用以下代码合并共享给定密钥(UUID)的所有配置文件:
def merge = (up1: Profile,up2: Profile) => { up1.addWeights(up2); up1} val aggregated = dailyProfiles .aggregateByKey(new Profile(),3200)(merge,merge).cache() 奇怪的是,Spark失败并出现以下错误:
显而易见的解决方案是增加“spark.driver.maxResultSize”,但有两件事让我困惑. >太多巧合,我得到1024.0大于1024.0 有谁知道为什么我收到这个错误? 解决方法
检查添加的Apache Spark代码片段,获取此错误非常有趣且非常罕见. (编辑:李大同) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |