Apache Hive получает ошибку при использовании Python UDF
Я использую пользовательскую функцию Python в улье Apache, чтобы изменить символы из строчных букв в прописные. Я получаю сообщение об ошибке "Ошибка выполнения Hive при закрытии операторов".
Ниже приведен запрос, который я пробовал:
describe table1;
OK
item string
count int
city string
select * from table1;
aaa 1 tokyo
aaa 2 london
bbb 3 washington
ccc 4 moscow
ddd 5 bejing
Из вышеприведенной таблицы поле элемента и города должно измениться с нижнего регистра на верхний, а счетчик должен увеличиться на 10.
Используемый скрипт Python:
cat caseconvert.py
import sys
import string
for line in sys.stdin:
line = line.strip()
item,count,city=line.split('\t')
ITEM1=item.upper()
COUNT1=count+10
CITY1=city.upper()
print '\t'.join([ITEM1,str(COUNT1),FRUIT1])
Вставка данных таблицы1 в таблицу2
create table table2(ITEM1 string, COUNT1 int, CITY1 string) row format delimited fields terminated by ',';
add FILE caseconvert.py
insert overwrite table table2 select TRANSFORM(item,count,city) using 'python caseconvert.py' as (ITEM1,COUNT1,CITY1) from table1;
Если я выполняю, я получаю следующую ошибку. Я не мог отследить проблему. Могу ли я знать, что это идет не так?
Total MapReduce jobs = 3
Launching Job 1 out of 3
Number of reduce tasks is set to 0 since there's no reduce operator
Starting Job = job_201508151858_0014, Tracking URL = http://0.0.0.0:50030/jobdetails.jsp?jobid=job_201508151858_0014
Kill Command = /usr/lib/hadoop/bin/hadoop job -kill job_201508151858_0014
Hadoop job information for Stage-1: number of mappers: 1; number of reducers: 0
2015-08-15 22:24:06,212 Stage-1 map = 0%, reduce = 0%
2015-08-15 22:25:01,559 Stage-1 map = 100%, reduce = 100%
Ended Job = job_201508151858_0014 with errors
Error during job, obtaining debugging information...
Job Tracking URL: http://0.0.0.0:50030/jobdetails.jsp?jobid=job_201508151858_0014
Examining task ID: task_201508151858_0014_m_000002 (and more) from job job_201508151858_0014
Task with the most failures(4):
-----
Task ID:
task_201508151858_0014_m_000000
URL:
http://localhost.localdomain:50030/taskdetails.jsp?jobid=job_201508151858_0014&tipid=task_201508151858_0014_m_000000
-----
Diagnostic Messages for this Task:
java.lang.RuntimeException: Hive Runtime Error while closing operators
at org.apache.hadoop.hive.ql.exec.ExecMapper.close(ExecMapper.java:224)
at org.apache.hadoop.mapred.MapRunner.run(MapRunner.java:57)
at org.apache.hadoop.mapred.MapTask.runOldMapper(MapTask.java:417)
at org.apache.hadoop.mapred.MapTask.run(MapTask.java:332)
at org.apache.hadoop.mapred.Child$4.run(Child.java:268)
at java.security.AccessController.doPrivileged(Native Method)
at javax.security.auth.Subject.doAs(Subject.java:396)
at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1438)
at org.apache.hadoop.mapred.Child.main(Child.java:262)
Caused by: org.apache.hadoop.hive.ql.metadata.HiveException: [Error 20003]: An error occurred when trying to close the Operator running your custom script.
at org.apache.hadoop.hive.ql.exec.ScriptOperator.close(ScriptOperator.java:488)
at org.apache.hadoop.hive.ql.exec.Operator.close(Operator.java:570)
at org.apache.hadoop.hive.ql.exec.Operator.close(Operator.java:5
FAILED: Execution Error, return code 20003 from org.apache.hadoop.hive.ql.exec.MapRedTask. An error occurred when trying to close the Operator running your custom script.
MapReduce Jobs Launched:
Job 0: Map: 1 HDFS Read: 0 HDFS Write: 0 FAIL
Total MapReduce CPU Time Spent: 0 msec
1 ответ
В последней строке вашего скрипта Python, где вы печатаете вывод в STDOUT, вы вызываете FRUIT1, не определив его. Это должно быть CITY1. Вы также импортировали строку, но не использовали ее. Я написал бы сценарий немного по-другому:
import sys
import string
while True:
line = sys.stdin.readline()
if not line:
break
line = string.strip(line, '\n ')
item,count,city=string.split(line, '\t')
ITEM1=item.upper()
COUNT1=count+10
CITY1=city.upper()
print '\t'.join([ITEM1,str(COUNT1),CITY1])
Затем я бы использовал запрос CREATE TABLE AS SELECT (предполагая, что и TABLE1, и ваш скрипт на python живут в HDFS):
create table TABLE2
as select transform(item, count, city)
using 'hdfs:///user/username/caseconvert.py'
as (item1 string, count1 string, city1 string)
FROM TABLE1;
Это сработало для меня. Тем не менее, есть гораздо более простой способ сделать необходимые преобразования с помощью встроенных функций Hive:
upper (строка A) >>> возвращает строку, полученную в результате преобразования всех символов A в верхний регистр. Например, верхний ("fOoBaR") приводит к "FOOBAR".
И, конечно, для города вы можете сделать это: (город + 10) КАК город1.
Итак, TABLE2 можно создать следующим образом:
CREATE TABLE2
AS SELECT
UPPER(ITEM) AS ITEM1,
COUNT + 10 AS COUNT1,
UPPER CITY AS CITY1
FROM TABLE1;
Гораздо меньше проблем, чем написание пользовательских UDF.