Описание тега accumulo
The Apache Accumulo sorted, distributed key/value store is based on Google's BigTable design. It is built on top of Apache Hadoop, ZooKeeper, and Thrift. It features a few novel improvements on the BigTable design in the form of cell-level access labels and a server-side programming mechanism that can modify key/value pairs at various points in the data management process.
2
ответа
Странная ошибка при заполнении объекта мутации накопления 1.6 через spark-notebook
Используя spark-notebook для обновления накопительной таблицы. используя метод, указанный как в документации коду, так и в примере кода. Ниже дословно, что я положил в тетрадь, и ответы: val clientRqrdTble = new ClientOnRequiredTable val bwConfig = …
07 апр '15 в 17:30
1
ответ
Перебор накопительной таблицы со scala
У меня есть таблица в именованных записях на нескольких языках с несколькими семействами и определителями для row_id, в оболочке на основе накопителя это выглядит так. michaelp@accumulo records> scan 2016-10-17 16:27:55,359 [Shell.audit] INFO : m…
17 окт '16 в 20:42
0
ответов
Сбой после инициализации ZookeeperInstance в программе Java MPI Accumulo
Я пытаюсь создать Linux MPI Java-приложение для Accumulo - пересобрать OpenMPI самостоятельно, чтобы получить libmpi_java и mpi.jar. Аппаратное обеспечение Pretty std x86 /Centos. Я считаю, что основные настройки и настройки для Accumulo/Zookeeper х…
08 май '18 в 00:49
1
ответ
Максимальная длина имени таблицы в Accumulo
У меня есть случай, когда мне нужно динамически создавать накопительные таблицы на входах пользователей. Одна из проблем, с которыми я сталкиваюсь, - это где максимальная длина имени таблицы в накопителе? Если да, то что это?
23 мар '17 в 06:27
1
ответ
Экспорт Geomesa не дает результатов, несмотря на наличие данных
Не могли бы вы помочь нам разобраться в проблеме при обращении к geomesa/Accumulo? Выпуск: Когда мы запрашиваем все поля с geomesa export -u A -p B -c catalog1 -f d1-json -F csv он возвращает данные (см. образец ниже). Когда мы добавляем подмножеств…
10 янв '17 в 14:23
0
ответов
Geomesa считает, что магазин требует времени
Я пытаюсь получить общее количество функций, имеющихся в хранилище данных. Вот мой пример кода: package com.hps; import java.util.Arrays; import java.util.Map; import org.geotools.data.DataStoreFinder; import org.geotools.data.FeatureSource; import …
22 апр '17 в 12:21
1
ответ
Пользовательский итератор Accumulo, применяемый во время сканирования и уплотнения
Я реализовал итератор (расширяющий WrappingIterator), который выполняет простую статистическую агрегацию и переписывание ключей и значений. По сути, я начинаю с ключей в этой форме: key qualifier:family value <id> <val1>|<val2>:<…
12 май '16 в 20:25
1
ответ
Как запросить функцию gemesa-аккумулято с помощью командной строки
Я загрузил данные в Geomesa Acumulo, используя SFT и конвертеры. Данные были загружены успешно, и я могу визуализировать те же данные с помощью плагина GeoServer. Я хочу отфильтровать данные объектов с помощью командной строки, но не могу найти ника…
06 мар '17 в 12:13
1
ответ
Тесты по ошибке: тест (org.apache.accumulo.examples.simple.filedata.ChunkInputFormatTest)
Когда я создаю простой пример проекта maven, включенный в накопитель 1.4.3-cdh43.tar.gz Я использую NetBeans, установленный на платформу Java JDK1.6.0.32. Я получаю тестовые сбои для тестов по ошибке: тест (org.apache.accumulo.examples.simple.fileda…
11 фев '14 в 15:33
2
ответа
Накопленное регулярное выражение на примере egrep
Проблема: данные из одного конкретного источника в наш экземпляр накопления не возвращаются нашему клиентскому приложению через подмножество наших поисковых интерфейсов. Когда мы используем метод поиска "A", мы получаем результаты, но когда мы испол…
13 июн '14 в 20:52
2
ответа
Использование итераторов и объединителей Accumulo для агрегирования значений из нескольких строк
Я хотел знать, возможно ли выполнять операции агрегации для значений, хранящихся в нескольких строках. Например, у меня есть следующая таблица rowID colFam colQual value 00000 0000 A 12 00000 0001 B Test 00001 0000 A 35 00001 0001 B Foo 00002 0000 A…
20 апр '17 в 09:34
2
ответа
Как удалить экземпляр накопления?
Я создал экземпляр при инициализации накопителя с помощью вызова накопителя init. Но теперь я хочу удалить этот экземпляр, а также хочу создать новый экземпляр. Может ли кто-нибудь помочь сделать это?
06 авг '12 в 08:19
2
ответа
Accumulo и MapReduce: невозможно найти ячейки для указанных диапазонов
Я пишу задание MapReduce, которое получает информацию от Accumulo. Я использую AccumuloInputFormat с RegExFilter. Когда я запускаю задание, оно без проблем подключается к Accumulo, но после того, как соединение установлено, я вижу следующее предупре…
10 янв '14 в 19:51
1
ответ
Читать из Accumulo с Spark Shell
Я пытаюсь использовать оболочку искры для подключения к таблице Accumulo Я загружаю спарк и библиотеки мне нужно вот так: $ bin / spark-shell --jars /data/bigdata/installs/accumulo-1.7.2/lib/accumulo-fate.jar:/data/bigdata/installs/accumulo-1.7.2/li…
18 июл '16 в 16:36
1
ответ
Почему использование памяти моего исполнителя зависло на 0?
У меня довольно простая работа Spark, которая выглядит так: JavaPairRDD<Key,Value> rawData = newAccumuloRDD(...); JavaPairRDD<Key,Value> indexSrc = rawData.filter(new IndexFilter()).cache(); JavaPairRDD<Key,Value> indexEntries = in…
13 май '15 в 23:38
2
ответа
Как узнать количество запущенных планшетов в накопителе?
Я пытаюсь узнать количество планшетов серверов. Любая команда, чтобы получить так. Что содержит Augsulo/tables/!0? Можно ли просмотреть данные insisde!0?
29 янв '15 в 09:01
1
ответ
Задание Accumulo MapReduce завершается с ошибкой java.io.EOFException с использованием AccumuloRowInputFormat
Все мои картографы терпят неудачу за исключением ниже. Я показал только последний провал для краткости. Почему это происходит и как мне это исправить? 16/09/21 17:01:57 INFO mapred.JobClient: Task Id : attempt_201609151451_0044_m_000002_2, Status : …
21 сен '16 в 17:13
1
ответ
Выполнение метода сброса, для отправки мутаций в накопитель без закрытия писателя
Я записываю данные в накопительное хранилище изначально, используя Geomesa Native Client. Вот мой код Java package org.locationtech.geomesa.api; import com.google.common.base.Function; import com.google.common.collect.ImmutableMap; import com.google…
04 апр '17 в 08:46
0
ответов
Почему скорость приема пищи постепенно падает в накоплении?
Я пытаюсь сравнить Accumulo на моем тестовом кластере с 3 узлами. Я написал работу по сокращению карты, которая считывает документы json из кластера упругого поиска и встраивает их в накопление. Когда я запускаю процесс проглатывания, скорость прогл…
17 мар '15 в 13:47
1
ответ
Ввод нескольких таблиц для mapreduce
Я имею в виду сделать mapreduce, используя в качестве входных данных таблицы накопления.Есть ли способ иметь 2 разных таблиц в качестве входных данных, так же, как он существует для ввода нескольких файлов, таких как addInputPath?Или возможно иметь …
26 июн '17 в 08:41