如何使用Python读取大文件
背景最近处理文本文档时(文件约2GB大小),出现 原味地址 .read()、 = open(,
read()会一次性读取文件的全部内容,如果文件有10G,内存就爆了,所以,要保险起见,可以反复调用 line
分块读取处理大文件是很容易想到的就是将大文件分割成若干小文件处理,处理完每个小文件后释放该部分内存。这里用了 read_in_chunks(filePath,chunk_size=1024*1024==
== =
chunk
使用With open()with语句打开和关闭文件,包括抛出一个内部块异常。
line
优化
with open(filename,
</span><span style="color: #0000ff">for</span> fLine <span style="color: #0000ff">in</span><span style="color: #000000"> f:
</span><span style="color: #0000ff">pass</span> </pre>
结论
(编辑:李大同) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |