Как избежать прерывания InterExptedIOException в Hbase?
При вводе данных в Hbase
, с использованием HTable.put
метод, я буду в конечном итоге с приведенным ниже исключением иногда. Но данные на самом деле были записаны Hbase
когда я проверил операцию получения для этого конкретного rowkey
,
В то же время я искал журналы в HMaster и HRegionservers
выявить проблему. Но не смог найти это.
Пожалуйста, помогите настроить Hbase
Конфигурации, чтобы избежать InterruptedIOException.
Hadoop Distribution: Apache
Version: HBase 1.2.6
Cluster size: 12nodes
java.io.InterruptedIOException: #17209, interrupted. currentNumberOfTask=1
at org.apache.hadoop.hbase.client.AsyncProcess.waitForMaximumCurrentTasks(AsyncProcess.java:1764)
at org.apache.hadoop.hbase.client.AsyncProcess.waitForMaximumCurrentTasks(AsyncProcess.java:1734)
at org.apache.hadoop.hbase.client.AsyncProcess.waitForAllPreviousOpsAndReset(AsyncProcess.java:1810)
at org.apache.hadoop.hbase.client.BufferedMutatorImpl.backgroundFlushCommits(BufferedMutatorImpl.java:240)
at org.apache.hadoop.hbase.client.BufferedMutatorImpl.flush(BufferedMutatorImpl.java:190)
at org.apache.hadoop.hbase.client.HTable.flushCommits(HTable.java:1434)
at org.apache.hadoop.hbase.client.HTable.put(HTable.java:1018)
Пожалуйста, помогите решить
С таким же исключением кто-то сталкивался. Но в этом потоке нет объяснения, какие конфигурации необходимо проверять, чтобы избежать этого.