加入收藏 | 设为首页 | 会员中心 | 我要投稿 李大同 (https://www.lidatong.com.cn/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 编程开发 > Java > 正文

Java 8流 – stackoverflow异常

发布时间:2020-12-14 16:26:09 所属栏目:Java 来源:网络整理
导读:运行以下代码示例以: “线程中的异常”主要“ java.lang.StackOverflowError” import java.util.stream.IntStream;import java.util.stream.Stream;public class TestStream { public static void main(String[] args) { StreamString reducedStream = Int
运行以下代码示例以:
“线程中的异常”主要“ java.lang.StackOverflowError”
import java.util.stream.IntStream;
import java.util.stream.Stream;

public class TestStream {

    public static void main(String[] args) {
        Stream<String> reducedStream = IntStream.range(0,15000)
            .mapToObj(Abc::new)
            .reduce(
                Stream.of("Test"),(str,abc) -> abc.process(str),(a,b) -> {throw new IllegalStateException();}
        );
        System.out.println(reducedStream.findFirst().get());
    }

    private static class Abc { 
        public Abc(int id) {
        }

        public Stream<String> process(Stream<String> batch) {
            return batch.map(this::doNothing);
        }

        private String doNothing(String test) {
            return test;
        }
    }
}

究竟是什么导致了这个问题?这段代码的哪一部分是递归的,为什么?

解决方法

你的代码没有递归循环.您可以使用较小的数字测试IntStream范围(即1或100).在你的情况下,这是导致问题的实际堆栈大小限制.正如在一些评论中指出的,它的流程是进程.

流上的每个调用都会在原始文件周围创建一个新的包装流. ‘findFirst()’方法向前一个流请求元素,这些元素又要求先前的流元素.由于流不是真正的容器,而只是对结果元素的指针.

包装爆炸发生在reduce方法的“累加器”(str,abc) – > abc.process(STR)”.该方法的实现在先前操作的结果(str)上创建一个新的流包装器,进入下一个迭代,在结果(result(str))上创建一个新的包装器).所以累积机制是一个包装(递归)而不是一个appender(迭代)之一.因此,创建一个实际(扁平化)结果的新流,而不是参考潜在的结果将会阻止爆炸,即

public Stream<String> process(Stream<String> batch) {
        return Stream.of(batch.map(this::doNothing).collect(Collectors.joining()));
    }

这个方法只是一个例子,因为你的原始例子没有任何意义,因为它什么都不做,而且这个例子也不是.它只是一个例证.它基本上将由map方法返回的流的元素平坦化为单个字符串,并在此具体字符串上创建新流,而不是在流本身上,这与您的原始代码的区别.

您可以使用定义每个线程堆栈大小的“-Xss”参数调整堆栈大小.默认值取决于平台,另请参阅此问题‘What is the maximum depth of the java call stack?’但是,在增加时请小心,此设置适用于所有线程.

(编辑:李大同)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    推荐文章
      热点阅读