Ошибка приложения openCV в hadoop 2.x (OutOfMemoryError)
Я хочу сделать программу, которая использует сопоставление с шаблоном на hadoop. Я использую хипи с ним.
Но я запускаю свою программу, я получил ошибку "OutOfMemoryError", как показано ниже.
CvException [org.opencv.core.CvException: cv:: Exception: /home/ubuntu/opencv/opencv-2.4.11/modules/core/src/alloc.cpp:52: ошибка: (-4) Не удалось выделить 67737604 байт в функции OutOfMemoryError ]
Если я проверил с небольшим количеством картинок, это хорошо работает как на локальном компьютере, так и на сервере. И если я проверил на своем локальном ПК, который настроен для автономного режима hadoop с 300 картинками (около 300 МБ), это тоже хорошо работает.
Но если я проверил на сервере с 300 картинками, он хорошо работал около 10~11 картинок, а затем вызывал подобные ошибки.
если вы хотите увидеть мой код, вы можете увидеть мой код в github
https://github.com/kangilkueon/graduation_portfolio/blob/master/templateMatchingHadoop.java
Можете ли вы дать мне помощь по этому поводу?