Обновление HDP3.0, застряло в "Переместить таблицы кустов".. /etc/hive/conf/hive-env.sh: строка 46: [:!=: Ожидается унарный оператор

Я пытаюсь обновить HDP 2.6 до 3.0, и я застрял на шаге "Переместить таблицы кустов". Я выполнил все необходимые условия. Пожалуйста, помогите в этом отношении..

Пожалуйста, найдите журнал ошибок... 2019-02-04 20:12:46,631 - действие с аффиксом "pre_actionexecute" отсутствует 2019-02-04 20:12:46,632 - Задача. Тип: EXECUTE, Scrmydomaint: scrmydomaints/post_upgrade.py - Функция: move_tables 2019-02-04 20:12:46,795 - Действие afix 'pre_move_tables' отсутствует 2019-02-04 20:12:46,811 - Использование hadoop conf dir: /usr/hdp/3.0.1.0-187/hadoop/conf 2019-02-04 20:12:46,832 - вызов [ambari-python-wrap /usr/bin/hdp-select status hive-server2'] {'timeout': 20} hive-server2 - 3.0.1.0-187 2019-02-04 20:12:46,849 - возвращен вызов (0, 'hive-server2 - 3.0.1.0-187') 2019-02-04 20:12:46,850 - Информация о версии функции стека: стек кластера =3.0, стек команд = нет, версия команды =3.0.1.0-187, направление обновления = обновление -> 3.0.1.0-187 2019-02-04 20:12:46,864 - файл ['/var/lib/ambari-agent/cred/lib/CredentialUtil.jar'] {'content': DownloadSource(mydomain:8080/resources/CredentialUtil.jar'), 'mode': 0755} 2019-02-04 20:12:46,888 - Не загружается файл с http://mydomain-ipaddress186.corp.mydomain.com:8080/resources/CredentialUtil.jar, потому что /var/lib/ambari-agent/tmp/CredentialUtil.jar уже существует SLF4J: Не удалось загрузить класс "org.slf4j.impl.StaticLoggerBinder". SLF4J: По умолчанию используется логгер без операций (NOP). SLF4J: Для получения дополнительной информации см. http://www.slf4j.org/codes.html. 04 февраля 2019 20:12:47 org.apache.hadoop.util.NativeCodeLoader ВНИМАНИЕ: Невозможно загрузить библиотеку native-hadoop для вашей платформы... с использованием встроенных классов java, где это применимо hive123 2019-02-04 20:12:47,364 - HdfsResource['/user/hive'] {'security_enabled': False, 'hadoop_bin_dir': '/usr/hdp/3.0.1.0-187/hadoop/bin', 'keytab': [EMPTY], 'dfs_type': 'HDFS', 'default_fs': ' hdfs://mydomain-ipaddress138.corp.mydomain.com:8020', 'hdfs_resource_ignore_file': '/var/lib/ambari-agent/data/.hdfs_resource_ignore', 'hdfs_site': ..., 'kinit_path_local': 'kinit', 'princmydomainal_name': 'missing_princmydomainal', 'user': 'hdfs', 'owner': 'hive', 'hadoop_conf_dir': '/usr/hdp/3.0.1.0-187/hadoop/conf', 'type': 'directory', 'action': ['create_on_execute'], 'immutable_paths': [u'/mr-history/done', u'/warehouse/tablespace/managed/hive', u'/ склад / табличное пространство / внешний /hive', u'/app-logs', u'/tmp'], 'mode': 0755} 2019-02-04 20:12:47,371 - вызов [ 'ambari-sudo.sh su hdfs -l -s / bin / bash -c' curl -sS -L -w '"'" ' % {http_code} '"'" '-X GET' "'"' http://mydomain-ipaddress138.corp.mydomain.com:50070/webhdfs/v1/user/hive?op=GETFILESTATUS&user.name=hdfs '" '"' 1> / tmp / tmpXtKxfn 2> / tmp / tmpXtGHAn ''] {'logoutput': нет, 'quiet': False} 2019-02-04 20:12:47,420 - звонок возвращен (0, '') 2019-02-04 20:12:47,420 - возвращен get_user_call_output (0, u'{"FileStatus":{"accessTime":0,"blockSize":0,"childrenNum":2,"fileId":16544,"group" ":" HDFS", "длина": 0, "ModificationTime":1532607674651,"владелец": "улей","pathSuffix":"","разрешение":"755","репликация":0,"storagePolicy":0,"type":"DIRECTORY"}}200', u'') 2019-02-04 20:12:47,421 - HdfsResource['/warehouse/tablespace/external/hive'] {'security_enabled': False, 'hadoop_bin_dir': '/usr/hdp/3.0.1.0-187/hadoop/bin', 'keytab': [EMPTY], 'dfs_type': 'HDFS', 'default_fs': ' hdfs://mydomain-ipaddress138.corp.mydomain.com:8020', 'hdfs_resource_ignore_file': '/var/lib/ambari-agent/data/.hdfs_resource_ignore', 'hdfs_site': ..., 'kinit_path_local': 'kinit', 'princmydomainal_name': Мисс ing_princmydomainal', 'user': 'hdfs', 'owner': 'hive', 'group': 'hadoop', 'hadoop_conf_dir': '/usr/hdp/3.0.1.0-187/hadoop/conf', 'type': 'directory', 'action': ['create_on_execute'], 'immutable_paths': [u'/mr-history/done', u'/ склад / табличное пространство / управляемый / куст ', u' / склад / табличное пространство /external/hive', u'/app-logs', u'/tmp'], 'mode': 01777} 2019-02-04 20:12:47,421 - вызвать [' ambari-sudo.sh su hdfs -l - s / bin / bash -c 'curl -sS -L -w' "'"'% {http_code} '"'" '-X GET' "'"' http://mydomain-ipaddress138.corp.mydomain.com: 50070 / webhdfs / v1 / склад / табличное пространство / внешний / куст? Op = GETFILESTATUS & user.name = hdfs '"'" '1> / tmp / tmpRR36mQ 2> / tmp / tmpzV0iz3' '] {' logoutput ': нет, 'quiet': False} 2019-02-04 20:12:47,466 - возвращен вызов (0, '') 2019-02-04 20:12:47,466 - возвращен get_user_call_output (0, u'{"FileStatus":{"accessTime":0,"aclBit": правда," BLOCKSIZE ": 0," childrenNum ": 109," FILEID ":2001714," группа ":" Hadoop " "длина": 0, "ModificationTime":1549310578051," владелец ":" улей " "pathSuffix": "", "разрешение":"1777"," реплики ation":0,"storagePolicy":0,"type":"DIRECTORY"}}200', u'') 2019-02-04 20:12:47,467 - Skmydomainping операция для неуправляемого каталога DFS / warehouse / tablespace / external / hive, поскольку immutable_paths содержит его. 2019-02-04 20:12:47,467 - HdfsResource['/warehouse/tablespace/managed/hive'] {'security_enabled': False, 'hadoop_bin_dir': '/usr/hdp/3.0.1.0-187/hadoop/bin', 'keytab': [EMPTY], 'dfs_type': 'HDFS', 'default_fs': ' hdfs://mydomain-ipaddress138.corp.mydomain.com:8020', 'hdfs_resource_ignore_file': '/var/lib/ambari-agent/data/.hdfs_resource_ignore', 'hdfs_site': ..., 'kinit_path_local': 'kinit', 'princmydomainal_name': 'missing_princmydomainal', 'user': 'hdfs', 'owner': 'hive', 'group': 'hadoop', 'hadoop_conf_dir': '/usr/hdp/3.0.1.0-187/hadoop/conf', 'type': 'directory', 'action': ['create_on_execute'], 'immutable_paths': [u'/mr-history/done', u'/ склад / табличное пространство / управляемый / куст', u '/ склад / табличное пространство / внешний / куст', u'/app-logs', u'/tmp'], 'mode': 0700} 2019-02-04 20:12:47,468 - вызовите ['ambari-sudo.sh su hdfs -l -s / bin / bash -c' curl -sS -L -w '"'" '% {http_code}' "'"' -X GET '"'" ' http://mydomain-ipaddress138.corp.mydomain.com:50070/webhdfs/v1/warehouse/tablespace/managed/hive?op=GETFILESTATUS&user.name=hdfs TATUS & user.name = hdfs '"'"' 1>/tmp/tmpgyPHg6 2>/tmp/tmp47sejB''] {'logoutput': нет, 'quiet': False} 2019-02-04 20:12:47,513 - вызов возвращено (0, '') 2019-02-04 20:12:47,513 - возвращен get_user_call_output (0, u'{"FileStatus":{"accessTime":0,"aclBit":true,"blockSize":0,"childrenNum":109," FILEID ":2001716," группа ":" Hadoop", "длина": 0, "ModificationTime":1549310578036,"владелец": "улей","pathSuffix":"","разрешение":"700","replication":0,"storagePolicy":0,"type":"DIRECTORY"}}200', u'') 2019-02-04 20:12:47,513 - Skmydomainping операция для неуправляемой DFS каталог / склад / табличное пространство / управляемый / куст, так как immutable_paths содержит его. 2019-02-04 20:12:47,514 - вызовите ['ambari-sudo.sh su hdfs -l -s /bin/bash -c 'hdfs getconf -confKey dfs.namenode.acls.enabled 1>/tmp/tmp11ZZm6 2>/tmp/tmprWKuLC''] {'quiet': False} 2019-02-04 20:12:48,092 - возвращен вызов (0, '') 2019-02-04 20:12:48,093 - возвращен get_user_call_output (0, u'true', u'') 2019-02-04 20:12:48,093 - вызвать ['ambari-sudo.sh su hdfs -l -s /bin/bash -c 'hdfs getconf -confKey dfs.namenode.posix.acl.inheritance.enabled 1>/tmp/tmpvtqs28 2>/tmp/tmpfzETLf''] {'quiet': False} 2019-02-04 20:12:48,658 - возвращен вызов (0, '') 2019-02-04 20:12:48,658 - возвращен get_user_call_output (0, нет ', u'') 2019-02-04 20:12:48,659 - выполнить ['hdfs dfs -setfacl -m по умолчанию: пользователь:hive:rwx / склад / табличное пространство / внешний / куст '] {' пользователь ': 'hdfs'} 2019-02-04 20:12:50,176 - выполнить ['hdfs dfs -setfacl -m по умолчанию: пользователь:hive:rwx /warehouse/tablespace/managed/hive'] {'user': 'hdfs'} 2019-02-04 20:12:51,692 - HdfsResource[None] {'security_enabled': False, 'hadoop_bin_dir': '/usr/hdp/3.0.1.0-187/ Hadoop/bin', 'keytab': [EMPTY], 'dfs_type': 'HDFS', 'default_fs': ' hdfs://mydomain-ipaddress138.corp.mydomain.com:8020', 'hdfs_resource_ignore_file': '/var/lib/ambari-agent/data/.hdfs_resource_ignore', 'hdfs_site': ..., 'kinit_path_local': 'kinit', 'princmydomainal_name': 'missing_princmydomainal', 'user': 'hdfs', 'action': ['execute'], 'hadoop_conf_dir': '/usr/hdp/3.0.1.0-187/hadoop/conf', 'immutable_paths': [u'/mr-history/done', u'/ склад / табличное пространство /managed/hive', u'/warehouse/tablespace/external/hive', u'/app-logs', u'/tmp']} 2019-02-04 20:12:51,693 - Выполнить ['/usr/hdp/3.0.1.0-187/hive/bin/hive --config /etc/hive/conf --service strictmanagedmigration --hiveconf hive.strict.managed.tables=true -m автоматическая --modifyManagedTables --oldWarehouseRoot /apps/hive/warehouse'] {'environment': {'JAVA_HOME': u'/usr/jdk64/jdk1.8.0_112'}, 'user': 'hdfs'} /etc/hive/conf/hive-env.sh: строка 46: [:!=: ожидается унарный оператор SLF4J: Путь к классу содержит мультивоменные привязки SLF4J. SLF4J: Обнаружена привязка в [jar:file:/usr/hdp/3.0.1.0-187/hive/lib/log4j-slf4j-impl-2.10.0.jar!/Org/slf4j/impl/StaticLoggerBinder.class] SLF4J: Найдена привязка в [jar:file:/usr/hdp/3.0.1.0-187/hadoop/lib/slf4j-log4j12-1.7.25.jar!/Org/slf4j/impl/StaticLoggerBinder.class] SLF4J: см. http://www.slf4j.org/codes.html для объяснения. SLF4J: фактическая привязка имеет тип [org.apache.logging.slf4j.Log4jLoggerFactory] Traceback (последний вызов был последним): файл "/var/lib/ambari-agent/cache/stacks/HDP/3.0/services/HIVE/package/scrmydomaints/post_upgrade.py", строка 52, в файле HivePostUpgrade().execute()." / usr / lib / ambari-agent / lib / resource_management / library / scrmydomaint / scrmydomaint.py ", строка 353, в методе execute (env) Файл "/var/lib/ambari-agent/cache/stacks/HDP/3.0/services/HIVE/package/scrmydomaints/post_upgrade.py", строка 49, в файле move_tables user = params.hdfs_user) "/usr/lib/ambari-agent/lib/resource_management/core/ base.py", строка 166, в файле init self.env.run ()"/usr/lib/ambari-agent/lib/resource_management/core/ environment.py", строка 160, в файле run.action_run_action(ресурс, действие) Файл "/ usr / lib / ambari-agent / lib / resource_management / core / environment.py", строка 124, в файле run_action provider_action() "/usr/lib/ambari-agent/lib/resource_management/core/provider / system.py", строка 263, в action_run возвращает =self.resource.returns) Файл "/usr/lib/ambari-agent/lib/resource_management/core/ shell.py", строка 72, во внутреннем результате = файл функции (команда, **kwargs) "/ usr / lib / ambari- agent / lib / resource_management / core / shell.py ", строка 102, в selected_call попытки = попытки, try_sleep=try_sleep, timeout_kill_strategy=timeout_kill_strategy, возвращает = возвращает) Файл" / usr / lib / ambari-agent / lib / resource_management / core / shell.py ", строка 150, в файле _call_wrapper result = _call(команда, **kwargs_copy)" / usr / lib / ambari-agent / lib / resource_management / core / shell.py ", строка 314, в _call поднять ExecutionFailed(err_msg, code, out, err) resource_management.core.exceptions.ExecutionFailed: Выполнение '/usr/hdp/3.0.1.0-187/hive/bin/hive --config / etc / hive / conf --server strictmanagedmigration - -hiveconf hive.strict.managed.tables = true -m автоматически --modifyManagedTables --oldWarehouseRoot / apps / hive / warehouse 'вернул 255. /etc/hive/conf/hive-env.sh: строка 46: [:!=: ожидается унарный оператор SLF4J: путь к классу содержит мультимодом e SLF4J привязки. SLF4J: Обнаружена привязка в [jar:file:/usr/hdp/3.0.1.0-187/hive/lib/log4j-slf4j-impl-2.10.0.jar!/Org/slf4j/impl/StaticLoggerBinder.class] SLF4J: Найдена привязка в [jar:file:/usr/hdp/3.0.1.0-187/hadoop/lib/slf4j-log4j12-1.7.25.jar!/Org/slf4j/impl/StaticLoggerBinder.class] SLF4J: см. http://www.slf4j.org/codes.html для объяснения. SLF4J: фактическая привязка имеет тип [org.apache.logging.slf4j.Log4jLoggerFactory]

Команда не выполнена после 1 попытки

0 ответов

Другие вопросы по тегам