python管理大变量的分配/释放的策略是什么?
作为this question的后续版本,在(C)Python中似乎对小变量和大变量有不同的分配/取消分配策略. 引用从Numpy策略中释放内存的答案:
确实,这两种分配策略很容易显示.例如: >第一种策略:不将内存返还给操作系统
=>没有内存返回给操作系统 >第二种策略:释放的内存被分配给操作系统 当做相同的实验,但数组更大时:
=>内存已释放到操作系统 似乎使用第二种策略分配了大约大于8 * 10 ** 4字节的对象. 所以: >是否记录了这种行为? (以及分配策略更改的确切边界是什么?) 最佳答案
您观察到的不是CPython的策略,而是CPython版本正在使用的C运行时附带的内存分配器的策略.
当CPython通过malloc / free分配/释放内存时,它不会直接与底层操作系统通信,而是通过内存分配器的具体实现进行通信.在我的Linux上,它是the GNU Allocator. GNU分配器具有不同的所谓的竞技场,在这种竞技场中,内存不返回给操作系统,而是保留下来,因此无需与操作系统进行通讯即可重复使用.但是,如果请求大量内存(无论“大”的定义如何),分配器就不会使用来自arenas的内存,而是从OS请求内存,因此一旦释放就可以直接将其返回给OS.叫. CPython有自己的内存分配器-pymalloc,它在C-runtime-allocator的顶部构建.它针对居住在特殊舞台上的小物体进行了优化.与基础C-runtime-allocator相比,创建/释放这些对象时的开销较小.但是,大于512字节的对象不使用此领域,而是由C-runtime-allocator直接管理. 对于numpy的数组,情况甚至更加复杂,因为元数据(例如形状,数据类型和其他标志)和实际数据本身使用了不同的内存分配器: >对于元数据
我不确定这种设计的确切思想是什么:显然,有人希望从pymalloc的小对象优化中受益,而对于数据,这种优化将永远行不通,但随后可以使用 这就解释了您正在观察的行为:对于数据(其大小根据传入的大小参数而变化)将使用PyDataMem_NEW,它绕过CPython的内存分配器,您会看到C运行时分配器的原始行为. 应该尽量避免混合使用不同的分配/取消分配例程PyArray_malloc / PyDataMem_NEW’/ mallocandPyArray_free / PyDataMem_FREE / free`:即使它适用于OS Python版本,也可能因其他组合而失败. 例如,在Windows上,当使用不同的编译器版本构建扩展时,一个可执行文件可能具有来自不同C运行时的不同内存分配器,并且malloc / free可能与不同的C内存分配器通信,这可能导致难以跟踪错误. (编辑:李大同) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |