Ошибка приложения openCV в hadoop 2.x (OutOfMemoryError)

Я хочу сделать программу, которая использует сопоставление с шаблоном на hadoop. Я использую хипи с ним.

Но я запускаю свою программу, я получил ошибку "OutOfMemoryError", как показано ниже.

CvException [org.opencv.core.CvException: cv:: Exception: /home/ubuntu/opencv/opencv-2.4.11/modules/core/src/alloc.cpp:52: ошибка: (-4) Не удалось выделить 67737604 байт в функции OutOfMemoryError ]

Если я проверил с небольшим количеством картинок, это хорошо работает как на локальном компьютере, так и на сервере. И если я проверил на своем локальном ПК, который настроен для автономного режима hadoop с 300 картинками (около 300 МБ), это тоже хорошо работает.

Но если я проверил на сервере с 300 картинками, он хорошо работал около 10~11 картинок, а затем вызывал подобные ошибки.

если вы хотите увидеть мой код, вы можете увидеть мой код в github

https://github.com/kangilkueon/graduation_portfolio/blob/master/templateMatchingHadoop.java

Можете ли вы дать мне помощь по этому поводу?

0 ответов

Другие вопросы по тегам