Массовая загрузка JSON в HBase с использованием свиньи
Привет я ищу способ загрузить большое количество документов JSON по одному в строке
Каждая строка имеет формат:
'{id :"id123", "c1":"v1", "c2":"v2", "c3" :"v3"...}'
Каждый документ JSON может иметь неизвестное количество полей. Есть ли способ сделать это у свиньи? Я хочу загрузить поля в отдельные столбцы на hbase.
1 ответ
Вы, вероятно, хотите использовать UDF. Например, с Python и что вы предоставили:
UDF:
from com.xhaus.jyson import JysonCodec as json
from com.xhaus.jyson import JSONDecodeError
@outputSchema(
"rels:{t:('{id:chararray,c1:chararray, c2:chararray, c3:chararray...}')}"
)
def parse_json(line):
try:
parsed_json = json.loads(line)
except:
return None
return tuple(parsed_json.values())
свиньи:
REGISTER 'path-to-udf.py' USING jython AS py_udf ;
raw_data = LOAD 'path-to-your-data'
USING PigStorage('\n')
AS (line:chararray) ;
-- Parse lines using UDF
parsed_data = FOREACH cleanRawLogs GENERATE FLATTEN(py_f.parse_json(line)) ;