Массовая загрузка JSON в HBase с использованием свиньи

Привет я ищу способ загрузить большое количество документов JSON по одному в строке

Каждая строка имеет формат:

'{id :"id123", "c1":"v1", "c2":"v2", "c3" :"v3"...}'

Каждый документ JSON может иметь неизвестное количество полей. Есть ли способ сделать это у свиньи? Я хочу загрузить поля в отдельные столбцы на hbase.

1 ответ

Вы, вероятно, хотите использовать UDF. Например, с Python и что вы предоставили:

UDF:

from com.xhaus.jyson import JysonCodec as json
from com.xhaus.jyson import JSONDecodeError


@outputSchema(
    "rels:{t:('{id:chararray,c1:chararray, c2:chararray, c3:chararray...}')}"
)
def parse_json(line):
    try:
        parsed_json = json.loads(line)
    except:
       return None
    return tuple(parsed_json.values())

свиньи:

REGISTER 'path-to-udf.py' USING jython AS py_udf ;

raw_data = LOAD 'path-to-your-data'
           USING PigStorage('\n')
           AS (line:chararray) ;

-- Parse lines using UDF
parsed_data = FOREACH cleanRawLogs GENERATE FLATTEN(py_f.parse_json(line)) ;
Другие вопросы по тегам