Описание тега hawq
This tag is for questions about Pivotal HAWQ, a SQL on Hadoop implementation
1
ответ
Как подключиться к Pivotal HD (от Spark)?
Мне интересно узнать о способах подключения приложения Spark к Pivotal HD, реализации Hadoop. Как лучше всего подключиться к нему с помощью Spark? val jdbcDataFrame = sqlContext.read.format("jdbc").options( Map("url" -> "jdbc:postgresql:dbserver"…
11 сен '15 в 05:28
2
ответа
Данные HAWQ для репликации между кластерами
У меня есть требование, мне нужно ежедневно обновлять производственную базу данных HAWQ до среды QA. Как переместить ежедневную дельту в кластер QA из Production. Ценю твою помощь Спасибо Вееру
04 май '17 в 12:36
1
ответ
greenplum gpload: ошибка конфигурации файла YML
Когда я пытаюсь выполнить gpload в greenplum, он выдает ошибку. Входная команда: [gpadmin@mdw ~]$ gpload -f test.yml Ошибка, которую я получаю 2017-02-25 11:19:13|ERROR|configuration file error: expected <block end>, but found '?', line 9 Конф…
25 фев '17 в 11:34
0
ответов
Greenplum - Ошибка обновления оператора в столбце отметки времени
У нас есть исходная и целевая таблица в базе данных greenplum. мы сравниваем обе таблицы, используя скрипт sql. Но обновление здесь не работает. и он не обновляет столбец метки времени целевой таблицы относительно исходной таблицы. Ввод - структура …
05 июл '17 в 17:12
1
ответ
Установка Apache HAWQ на основе HDFS
Я хотел бы установить Apache HAWQ на основе Hadoop. Перед установкой HAWQ я должен установить Hadoop и настроить все мои узлы. У меня есть четыре узла, как показано ниже, и мой вопрос как удар. Должен ли я установить дистрибутив hadoop для hawq-mast…
16 фев '17 в 02:24
0
ответов
Попытка использовать Nextval, а также 'альтернативу Currval' в том же операторе select
Цель состоит в том, чтобы добавить новый столбец (x_event_code) с уникальными идентификаторами на основе 2 бизнес-условий. Table : tmp_event_cd ID Member First_Date Last_date 1 123455678 8/23/2014 8/24/2014 2 123455678 8/23/2014 8/24/2014 3 12345567…
13 авг '18 в 22:55
0
ответов
Возможно ли обменять раздел по умолчанию?
Я работаю над версией HAWQ 2.3.0. Я хочу обменять раздел по умолчанию между двумя таблицами, но получаю ошибку ниже: ОШИБКА: не удалось ОБМЕНИТЬ таблицу "sales_stg", так как у нее есть дочерние таблицы Используемый код:- Create table sales ( sales_i…
10 авг '18 в 07:49
3
ответа
Есть некоторые проблемы, когда мы тестируем hawq на нашем кластере hadoop
Hawq ssh'port по умолчанию 22. Как я могу указать другой порт, например, 333, 222? Когда мы создавали плагины pxf (hdfs, service hbase, hive), я получил сам пакет rpm, но когда я выполнил пакет pxf-service, я получил несколько ошибок: Сбой зависимос…
14 май '16 в 05:39
0
ответов
Greenplum - Недостаточно памяти
При попытке запроса из кластера gpdb. Ошибка выхода из памяти с кодом ошибки 53400. Информация о системе TOTAL RAM =30G SWAP =15G gp_vmem_protect_limit=8192MB TOTAL segment = 8 Primary, 8 mirror = 16 SEGMENT HOST=2 Получение ошибки: ERROR: Out of me…
02 сен '17 в 06:30
1
ответ
GPDB: отказано в доступе по SSH (открытый ключ)
При попытке ssh (от пользователя системы greenplum) один из datanode с хоста Master gpdb. env - gpdb 4.3.10 Получение ошибки [gpadmin@mdw ~]$ ssh datanode В доступе отказано (publickey,gssapi-keyex,gssapi-with-mic). [gpadmin@mdw ~]$ Мы пытались попр…
09 ноя '17 в 06:41
2
ответа
Как устранить ошибку, когда Hawq жалуется на: отсутствующие данные для столбца "SoldToAddr2"
У нас есть небольшой кластер основной системы hadoop-hawq. мы должны прочитать одну внешнюю таблицу. т.е. выберите * из ext_table Но когда я выпустил запрос в Hawq жалобы на следующую ошибку: Error Hawq complaints for : missing data for column "Sold…
03 дек '15 в 11:59
1
ответ
HAWQ - как выбрать узел для установки сегментов
У меня есть кластер из шести узлов, и я хочу установить на него базу данных HAWQ и PXF. Мой кластер выглядит так: Node1 - NameNode, ResourceManager, HiveMetastore, HiveClient Node2 - SNameNode, NodeManager Node3 - DataNode, NodeManager Node4 - DataN…
02 янв '18 в 15:07
0
ответов
Проблема с Tomcat на PXF/Hawq на Ambari
У меня развернуто 4 узла кластера с ambari, некоторое время назад я пытаюсь добавить PXF и Hawq, в 3 из 4 узлов все установлено и успешно, но на одном из узлов не удается запустить агент PXF, потому что он не может обнаружить tomcat, который зазвони…
20 окт '17 в 00:53
5
ответов
Повторно ли HAWQ использует процессы QE после завершения запроса?
Процессы Query Executor создаются на сегментах для выполнения запросов. Когда я делаю запрос, я вижу рабочие QE. Но когда запрос завершен, они все еще находятся в состоянии ожидания. Повторно ли HAWQ использует процессы QE после завершения запроса?
07 июл '16 в 07:58
1
ответ
Почему HAWQ не поддерживает индекс для таблиц без кучи в настоящее время?
Интересно, какие трудности он будет учитывать при поддержке индекса, таких как хранение индекса, обновление индекса и так далее.
28 дек '16 в 07:50
0
ответов
HAWQ - Ошибка при запросе внешней таблицы HDFS (PXF)
У меня проблема с PXF и внешней таблицей в HAWQ. У меня есть семь узлов данных в кластере (и семь сегментов HAWQ), и я установил PXF на каждом из них. Я создал таблицу на основе "Test PXF" на этом сайте. Создать табличную выписку: CREATE EXTERNAL TA…
04 янв '18 в 17:50
0
ответов
Ошибка установки HAWQ
Я не могу установить Hawq даже после выполнения шагов на веб-сайте HAWQ, для справки: https://github.com/apache/incubator-hawq Я получаю эту ошибку при запуске: ./configure --without-readline checking how to run the C++ preprocessor... g++ -E checki…
08 июн '18 в 19:42
1
ответ
Greenplum - как справиться с тупиком
При попытке запустить транзакцию SQL из Greenplum. получаю эту ошибку. Transaction (Process ID 52) was deadlocked on lock resources with another process and has been chosen as the deadlock victim. Rerun the transaction. Мы попытались: На SQL-сервере…
17 май '17 в 06:13
3
ответа
Как настроить Pivotal Hadoop
Мы работаем над Greenplum с установленным HAWQ. Я хотел бы запустить потоковую работу Hadoop. Однако, похоже, что hadoop не настроен или не запущен. Как я могу начать mapred, чтобы убедиться, что я могу использовать потоковую передачу hadoop?
21 окт '14 в 08:50
2
ответа
Как мне создать и прочитать Внешнюю таблицу в GPDB
У нас небольшой кластер gpdb. Когда я пытаюсь создать и прочитать мою первую Внешнюю таблицу, используя протокол gpfdist. Получение ошибки при чтении внешней таблицы: prod=# select * from ext_table prod-# ; ERROR: connection with gpfdist failed for …
16 июн '16 в 14:12