加入收藏 | 设为首页 | 会员中心 | 我要投稿 李大同 (https://www.lidatong.com.cn/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 综合聚焦 > 服务器 > 安全 > 正文

scala – 如何在Apache Spark 2中关闭生成代码的日志记录?

发布时间:2020-12-16 19:23:55 所属栏目:安全 来源:网络整理
导读:我最近将项目升级到Apache Spark 2.1.0. 代码生成功能将生成的代码内容写入标准输出.例如: // Class file version = 49.0 (J2SE 5.0)package org.apache.spark.sql.catalyst.expressions;public class GeneratedClass extends codegen.GeneratedClass {// E
我最近将项目升级到Apache Spark 2.1.0.

代码生成功能将生成的代码内容写入标准输出.例如:

// Class file version = 49.0 (J2SE 5.0)

package org.apache.spark.sql.catalyst.expressions;

public class GeneratedClass extends codegen.GeneratedClass {

// Enclosing/enclosed types:
//   GeneratedClass { final class GeneratedClass$GeneratedIterator }

public Object generate(Object[] p1) {
    new             GeneratedClass$GeneratedIterator
    dup            
    aload           [this]
    aload           [Object[] p1]
    invokespecial   GeneratedClass$GeneratedIterator(GeneratedClass,Object[])
    areturn        
}

虽然我找到了选项spark.sql.codegen.wholeStage来启用/禁用代码生成,但我还没有找到任何选项来关闭生成代码的输出.

这是通过火花选项控制的吗?记录配置?

解决方法

import org.slf4j.LoggerFactory;
import ch.qos.logback.classic.Level;
import ch.qos.logback.classic.Logger;

Logger root = (Logger)LoggerFactory.getLogger(Logger.ROOT_LOGGER_NAME);
root.setLevel(Level.INFO);

(编辑:李大同)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    推荐文章
      热点阅读