Что является более эффективным, чтобы скопировать папку с большим количеством файлов в Amazon S3, используя Hadoop API в java, FileUtil.copy() или DistCp.run()
Я пытаюсь создать копию папки с большим количеством файлов в Amazon S3. И исходный путь, и целевой путь находятся в ведре s3. Но я не знаю, какой вариант более эффективен, FileUtil. опция copy() или опция Distcp.run(). Оба варианта просты в реализации, я просто беспокоюсь об эффективности, так как слышал, что distcp создаст копию в файловой системе hadoop, а затем передаст ее в корзину s3.