Описание тега accumulo

The Apache Accumulo sorted, distributed key/value store is based on Google's BigTable design. It is built on top of Apache Hadoop, ZooKeeper, and Thrift. It features a few novel improvements on the BigTable design in the form of cell-level access labels and a server-side programming mechanism that can modify key/value pairs at various points in the data management process.
2 ответа

Странная ошибка при заполнении объекта мутации накопления 1.6 через spark-notebook

Используя spark-notebook для обновления накопительной таблицы. используя метод, указанный как в документации коду, так и в примере кода. Ниже дословно, что я положил в тетрадь, и ответы: val clientRqrdTble = new ClientOnRequiredTable val bwConfig = …
07 апр '15 в 17:30
1 ответ

Перебор накопительной таблицы со scala

У меня есть таблица в именованных записях на нескольких языках с несколькими семействами и определителями для row_id, в оболочке на основе накопителя это выглядит так. michaelp@accumulo records> scan 2016-10-17 16:27:55,359 [Shell.audit] INFO : m…
17 окт '16 в 20:42
0 ответов

Сбой после инициализации ZookeeperInstance в программе Java MPI Accumulo

Я пытаюсь создать Linux MPI Java-приложение для Accumulo - пересобрать OpenMPI самостоятельно, чтобы получить libmpi_java и mpi.jar. Аппаратное обеспечение Pretty std x86 /Centos. Я считаю, что основные настройки и настройки для Accumulo/Zookeeper х…
08 май '18 в 00:49
1 ответ

Максимальная длина имени таблицы в Accumulo

У меня есть случай, когда мне нужно динамически создавать накопительные таблицы на входах пользователей. Одна из проблем, с которыми я сталкиваюсь, - это где максимальная длина имени таблицы в накопителе? Если да, то что это?
1 ответ

Экспорт Geomesa не дает результатов, несмотря на наличие данных

Не могли бы вы помочь нам разобраться в проблеме при обращении к geomesa/Accumulo? Выпуск: Когда мы запрашиваем все поля с geomesa export -u A -p B -c catalog1 -f d1-json -F csv он возвращает данные (см. образец ниже). Когда мы добавляем подмножеств…
10 янв '17 в 14:23
0 ответов

Geomesa считает, что магазин требует времени

Я пытаюсь получить общее количество функций, имеющихся в хранилище данных. Вот мой пример кода: package com.hps; import java.util.Arrays; import java.util.Map; import org.geotools.data.DataStoreFinder; import org.geotools.data.FeatureSource; import …
22 апр '17 в 12:21
1 ответ

Пользовательский итератор Accumulo, применяемый во время сканирования и уплотнения

Я реализовал итератор (расширяющий WrappingIterator), который выполняет простую статистическую агрегацию и переписывание ключей и значений. По сути, я начинаю с ключей в этой форме: key qualifier:family value <id> <val1>|<val2>:&lt…
12 май '16 в 20:25
1 ответ

Как запросить функцию gemesa-аккумулято с помощью командной строки

Я загрузил данные в Geomesa Acumulo, используя SFT и конвертеры. Данные были загружены успешно, и я могу визуализировать те же данные с помощью плагина GeoServer. Я хочу отфильтровать данные объектов с помощью командной строки, но не могу найти ника…
06 мар '17 в 12:13
1 ответ

Тесты по ошибке: тест (org.apache.accumulo.examples.simple.filedata.ChunkInputFormatTest)

Когда я создаю простой пример проекта maven, включенный в накопитель 1.4.3-cdh43.tar.gz Я использую NetBeans, установленный на платформу Java JDK1.6.0.32. Я получаю тестовые сбои для тестов по ошибке: тест (org.apache.accumulo.examples.simple.fileda…
11 фев '14 в 15:33
2 ответа

Накопленное регулярное выражение на примере egrep

Проблема: данные из одного конкретного источника в наш экземпляр накопления не возвращаются нашему клиентскому приложению через подмножество наших поисковых интерфейсов. Когда мы используем метод поиска "A", мы получаем результаты, но когда мы испол…
13 июн '14 в 20:52
2 ответа

Использование итераторов и объединителей Accumulo для агрегирования значений из нескольких строк

Я хотел знать, возможно ли выполнять операции агрегации для значений, хранящихся в нескольких строках. Например, у меня есть следующая таблица rowID colFam colQual value 00000 0000 A 12 00000 0001 B Test 00001 0000 A 35 00001 0001 B Foo 00002 0000 A…
20 апр '17 в 09:34
2 ответа

Как удалить экземпляр накопления?

Я создал экземпляр при инициализации накопителя с помощью вызова накопителя init. Но теперь я хочу удалить этот экземпляр, а также хочу создать новый экземпляр. Может ли кто-нибудь помочь сделать это?
06 авг '12 в 08:19
2 ответа

Accumulo и MapReduce: невозможно найти ячейки для указанных диапазонов

Я пишу задание MapReduce, которое получает информацию от Accumulo. Я использую AccumuloInputFormat с RegExFilter. Когда я запускаю задание, оно без проблем подключается к Accumulo, но после того, как соединение установлено, я вижу следующее предупре…
10 янв '14 в 19:51
1 ответ

Читать из Accumulo с Spark Shell

Я пытаюсь использовать оболочку искры для подключения к таблице Accumulo Я загружаю спарк и библиотеки мне нужно вот так: $ bin / spark-shell --jars /data/bigdata/installs/accumulo-1.7.2/lib/accumulo-fate.jar:/data/bigdata/installs/accumulo-1.7.2/li…
18 июл '16 в 16:36
1 ответ

Почему использование памяти моего исполнителя зависло на 0?

У меня довольно простая работа Spark, которая выглядит так: JavaPairRDD<Key,Value> rawData = newAccumuloRDD(...); JavaPairRDD<Key,Value> indexSrc = rawData.filter(new IndexFilter()).cache(); JavaPairRDD<Key,Value> indexEntries = in…
13 май '15 в 23:38
2 ответа

Как узнать количество запущенных планшетов в накопителе?

Я пытаюсь узнать количество планшетов серверов. Любая команда, чтобы получить так. Что содержит Augsulo/tables/!0? Можно ли просмотреть данные insisde!0?
29 янв '15 в 09:01
1 ответ

Задание Accumulo MapReduce завершается с ошибкой java.io.EOFException с использованием AccumuloRowInputFormat

Все мои картографы терпят неудачу за исключением ниже. Я показал только последний провал для краткости. Почему это происходит и как мне это исправить? 16/09/21 17:01:57 INFO mapred.JobClient: Task Id : attempt_201609151451_0044_m_000002_2, Status : …
21 сен '16 в 17:13
1 ответ

Выполнение метода сброса, для отправки мутаций в накопитель без закрытия писателя

Я записываю данные в накопительное хранилище изначально, используя Geomesa Native Client. Вот мой код Java package org.locationtech.geomesa.api; import com.google.common.base.Function; import com.google.common.collect.ImmutableMap; import com.google…
04 апр '17 в 08:46
0 ответов

Почему скорость приема пищи постепенно падает в накоплении?

Я пытаюсь сравнить Accumulo на моем тестовом кластере с 3 узлами. Я написал работу по сокращению карты, которая считывает документы json из кластера упругого поиска и встраивает их в накопление. Когда я запускаю процесс проглатывания, скорость прогл…
17 мар '15 в 13:47
1 ответ

Ввод нескольких таблиц для mapreduce

Я имею в виду сделать mapreduce, используя в качестве входных данных таблицы накопления.Есть ли способ иметь 2 разных таблиц в качестве входных данных, так же, как он существует для ввода нескольких файлов, таких как addInputPath?Или возможно иметь …
26 июн '17 в 08:41