温馨提示×

温馨提示×

您好,登录后才能下订单哦!

密码登录×
登录注册×
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》

Java如何使用Jackson编写大型JSON文件

发布时间:2022-02-24 14:24:47 来源:亿速云 阅读:389 作者:小新 栏目:开发技术

小编给大家分享一下Java如何使用Jackson编写大型JSON文件,相信大部分人都还不怎么了解,因此分享这篇文章给大家参考一下,希望大家阅读完这篇文章后大有收获,下面让我们一起去了解一下吧!

有时您需要将大量数据导出为 JSON 到一个文件。也许是“将所有数据导出到 JSON”,或者 GDPR“可移植性权利”,您实际上需要这样做。

与任何大型数据集一样,您不能将其全部放入内存并将其写入文件。这需要一段时间,它从数据库中读取大量条目,您需要小心不要使此类导出使整个系统过载或耗尽内存。

幸运的是,在 JacksonSequenceWriter和可选的管道流的帮助下,这样做相当简单。这是它的样子:

private ObjectMapper jsonMapper =new ObjectMapper(); private ExecutorService executorService = Executors.newFixedThreadPool(5);   @Async public ListenableFuture<Boolean> export(UUID customerId) {     try (PipedInputStream in =new PipedInputStream();             PipedOutputStream pipedOut =new PipedOutputStream(in);             GZIPOutputStream out =new GZIPOutputStream(pipedOut)) {               Stopwatch stopwatch = Stopwatch.createStarted();           ObjectWriter writer = jsonMapper.writer().withDefaultPrettyPrinter();           try(SequenceWriter sequenceWriter = writer.writeValues(out)) {             sequenceWriter.init(true);                       Future<?> storageFuture = executorService.submit(() ->                    storageProvider.storeFile(getFilePath(customerId), in));               int batchCounter =0;             while (true) {                 List<Record> batch = readDatabaseBatch(batchCounter++);                 for (Record record : batch) {                     sequenceWriter.write(entry);                 }                 if (batch.isEmpty()) {                     // if there are no more batches, stop.                     break;                 }             }               // wait for storing to complete             storageFuture.get();               // send the customer a notification and a download link             notifyCustomer(customerId);         }            logger.info("Exporting took {} seconds", stopwatch.stop().elapsed(TimeUnit.SECONDS));           return AsyncResult.forValue(true);     }catch (Exception ex) {         logger.error("Failed to export data", ex);         return AsyncResult.forValue(false);     } }

代码做了几件事:

  • 使用 SequenceWriter 连续写入记录。它使用 OutputStream 进行初始化,所有内容都写入其中。这可以是简单的 FileOutputStream,也可以是下面讨论的管道流。请注意,这里的命名有点误导——writeValues(out)听起来你是在指示作者现在写点什么;相反,它将其配置为稍后使用特定的流。

  • SequenceWriter初始化true,意思是“包裹在数组中”。您正在编写许多相同的记录,因此它们应该在最终的 JSON 中表示一个数组。

  • 使用PipedOutputStreamPipedInputStreamSequenceWriter链接到InputStream然后传递给存储服务的 an 。如果我们明确地处理文件,就没有必要了——只需传递 aFileOutputStream就可以了。但是,您可能希望以不同的方式存储文件,例如在 Amazon S3 中,并且 putObject 调用需要一个 InputStream,从中读取数据并将其存储在 S3 中。因此,实际上,您正在写入直接写入 InputStream OutputStream,当尝试从中读取时,会将所有内容写入另一个 OutputStream

  • 存储文件是在单独的线程中调用的,这样写入文件不会阻塞当前线程,其目的是从数据库中读取。同样,如果使用简单的 FileOutputStream,则不需要这样做。

  • 整个方法被标记为@Async (spring) 以便它不会阻塞执行——它在准备好时被调用并完成(使用具有有限线程池的内部 Spring 执行程序服务)

  • 数据库批量读取代码这里没有显示,因为它因数据库而异。关键是,您应该批量获取数据,而不是 SELECT * FROM X

  • OutputStream 被包裹在 GZIPOutputStream 中,因为像 JSON 这样带有重复元素的文本文件可以从压缩中显着受益

主要工作是由 Jackson 的 SequenceWriter 完成的,需要清楚的点是 - 不要假设您的数据会适合内存。它几乎从不这样做,因此以批处理和增量写入的方式进行所有操作。

以上是“Java如何使用Jackson编写大型JSON文件”这篇文章的所有内容,感谢各位的阅读!相信大家都有了一定的了解,希望分享的内容对大家有所帮助,如果还想学习更多知识,欢迎关注亿速云行业资讯频道!

向AI问一下细节

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

AI