Java高效读取大文件实例分析

网友投稿 303 2023-03-01


Java高效读取大文件实例分析

1、概述

本教程将演示如何用java高效地读取大文件。Java——回归基础。

2、在内存中读取

读取文件行的标准方式是在内存中读取,Guava和ApacheCommonsIO都提供了如下所示快速读取文件行的方法:

Files.readLines(new File(path), Charsets.UTF_8);

FileUtils.readLinesTmEpbqTw(new File(path));

这种方法带来的问题是文件的所有行都被存放在内存中,当文件足够大时很快就会导致程序抛出OutOfMemoryError异常。

例如:读取一个大约1G的文件:

@Test

public void givenUsingGuava_whenIteratingAFile_thenWorks() throws IOException {

String path = ...

Files.readLines(new File(path), Charsets.UTF_8);

}

这种方式开始时只占用很少的内存:(大约消耗了0Mb内存)

[main] INFO org.baeldung.java.CoreJavaIoUnitTest - Total Memory: 128 Mb

[main] INFO org.baeldung.java.CoreJavaIoUnitTest - Free Memory: 116 Mb

然而,当文件全部读到内存中后,我们最后可以看到(大约消耗了2GB内存):

[main] INFO org.baeldung.java.CoreJavaIoUnitTest - Total Memory: 2666 Mb

[main] INFO org.baeldung.java.CoreJavaIoUnitTest - Free Memory: 490 Mb

这意味这一过程大约耗费了2.1GB的内存——原因很简单:现在文件的所有行都被存储在内存中。

把文件所有的内容都放在内存中很快会耗尽可用内存——不论实际可用内存有多大,这点是显而易见的。

此外,我们通常不需要把文件的所有行一次性地放入内存中——相反,我们只需要遍历文件的每一行,然后做相应的处理,处理完之后把它扔掉。所以,这正是我们将要做的——通过行迭代,而不是把所有行都放在内存中。

3、文件流

现在让我们看下这种解决方案——我们将使用java.util.Scanner类扫描文件的内容,一行一行连续地读取:

FileInputStream inputStream = null;

Scanner sc = null;

try {

inputStream = new FileInputStream(path);

sc = new Scanner(inputStream, "UTF-8");

while (sc.hasNextLine()) {

String line = sc.nextLine();

// System.out.println(line);

}

// note that Scanner suppresses exceptions

if (sc.ioException() != null) {

throw sc.ioException();

}

} finally {

if (inputStream != null) {

inputStream.close();

}

if (sc != null) {

sc.close();

}

}

这种方案将会遍历文件中的所有行——允许对每一行进行处理,而不保持对它的引用。总之没有把它们存放在内存中:(大约消耗了150MB内存)

[main]INFOorg.baeldung.java.CoreJavaIoUnitTest-TotalMemory:763Mb

[main]INFOorg.baeldung.java.CoreJavaIoUnitTest-FreeMemory:605Mb

4、ApacheCommonsIO流

同样也可以使用CommonsIO库实现,利用该库提供的自定义LineIterator:

LineIterator it = FileUtils.lineIterator(theFile, "UTF-8");

try {

while (it.hasNext()) {

String line = it.nextLine();

// do something with line

}

} finally {

LineIterator.closeQuietly(it);

}

由于整个文件不是全部存放在内存中,这也就导致相当保http://守的内存消耗:(大约消耗了150MB内存)

[main]INFOo.b.java.CoreJavaIoIntegrationTest-TotalMemory:752Mb

[main]INFOo.b.java.CoreJavaIoIntegrationTest-FreeMemory:564Mb

5、结论

这篇短文介绍了如何在不重复读取与不耗尽内存的情况下处理大文件——这为大文件的处理提供了一个有用的解http://决办法。

所有这些例子的实现和代码片段都可以在我的github项目上获取到——这是一个基于Eclipse的项目,所以它应该很容易被导入和运行。

以上就是本文关于Java高效读取大文件实例分析的全部内容,希望对大家有所帮助。感兴趣的朋友可以继续参阅本站其他相关专题,如有不足之处,欢迎留言指出。感谢朋友们对本站的支持!


版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。

上一篇:api文档与模拟数据接口(api文档与模拟数据接口的区别)
下一篇:接口 测试用例关系(接口测试用例设计案例)
相关文章

 发表评论

暂时没有评论,来抢沙发吧~