Вложенный набор списков для панд DataFrame
У меня есть довольно грязный вложенный словарь, который я пытаюсь преобразовать во фрейм данных панд. Данные хранятся в словаре списков, содержащихся в более широком словаре, где следует каждая разбивка ключ / значение:{userID_key: {postID_key: [list of hash tags]}}
Вот более конкретный пример того, как выглядят данные:
{'user_1': {'postID_1': ['#fitfam',
'#gym',
'#bro'],
'postID_2': ['#swol',
'#anotherhashtag']},
'user_2': {'postID_78': ['#ripped',
'#bro',
'#morehashtags'],
'postID_1': ['#buff',
'#othertags']},
'user_3': ...and so on }
Я хочу создать фрейм данных, который дает мне счетчики частоты каждого хэштега для каждой пары (userID,postID), как показано ниже:
+------------+------------+--------+-----+-----+------+-----+
| UserID_key | PostID_key | fitfam | gym | bro | swol | ... |
+------------+------------+--------+-----+-----+------+-----+
| user_1 | postID_1 | 1 | 1 | 1 | 0 | ... |
| user_1 | postID_2 | 0 | 0 | 0 | 1 | ... |
| user_2 | postID_78 | 0 | 0 | 1 | 0 | ... |
| user_2 | postID_1 | 0 | 0 | 0 | 0 | ... |
| user_3 | ... | ... | ... | ... | ... | ... |
+------------+------------+--------+-----+-----+------+-----+
У меня был scikit-Learn's CountVectorizer
как идея, но он не сможет обработать вложенный словарь. Был бы признателен за любую помощь в получении этого желаемого формы.
1 ответ
Опираясь на мой ответ на другой вопрос, вы можете создавать и объединять субкадры, используя pd.concat
затем используйте stack
а также get_dummies
:
(pd.concat({k: pd.DataFrame.from_dict(v, orient='index') for k, v in dct.items()})
.stack()
.str.get_dummies()
.sum(level=[0, 1]))
#anotherhashtag #bro #buff #fitfam #gym #morehashtags #othertags #ripped #swol
user_1 postID_1 0 1 0 1 1 0 0 0 0
postID_2 1 0 0 0 0 0 0 0 1
user_2 postID_78 0 1 0 0 0 1 0 1 0
postID_1 0 0 1 0 0 0 1 0 0