Как создать фиктивную переменную и затем агрегировать с помощью scikit-learn?

Я знаю, что это легко реализовать с помощью пакета pandas, но поскольку он слишком мал и велик (170 000 x 5000), и в конце мне нужно снова использовать sklearn для обработки данных, мне интересно, есть ли способ сделать со склеарном. Я попробовал один горячий кодировщик, но застрял, чтобы связать манекены с 'id'.

df = pd.DataFrame({'id': [1, 1, 2, 2, 3, 3], 'item': ['a', 'a', 'c', 'b', 'a', 'b']})

   id item
0   1    a
1   1    a
2   2    c
3   2    b
4   3    a
5   3    b

dummy = pd.get_dummies(df, prefix='item', columns=['item'])
dummy.groupby('id').sum().reset_index()

   id  item_a  item_b  item_c
0   1       2       0       0
1   2       0       1       1
2   3       1       1       0

Обновить:

Теперь я здесь, и "идентификатор" утерян, как сделать агрегирование?

lab = sklearn.preprocessing.LabelEncoder()
labels = lab.fit_transform(np.array(df.item))
enc = sklearn.preprocessing.OneHotEncoder()
dummy = enc.fit_transform(labels.reshape(-1,1))

dummy.todense()

matrix([[ 1.,  0.,  0.],
        [ 1.,  0.,  0.],
        [ 0.,  0.,  1.],
        [ 0.,  1.,  0.],
        [ 1.,  0.,  0.],
        [ 0.,  1.,  0.]])

2 ответа

Решение

На случай, если кому-то понадобится ссылка в будущем, я оставлю здесь свое решение. Я использовал скудную разреженную матрицу.

Сначала сделайте группировку и посчитайте количество записей.

df = df.groupby(['id','item']).size().reset_index().rename(columns={0:'count'})

Это занимает некоторое время, но не дни.

Тогда используйте сводную таблицу, решение которой я нашел здесь.

from scipy.sparse import csr_matrix

def to_sparse_pivot(df, id, item, count):
    id_u = list(df[id].unique())
    item_u = list(np.sort(df[item].unique()))
    data = df[count].tolist()
    row = df[id].astype('category', categories=id_u).cat.codes
    col = df[item].astype('category', categories=item_u).cat.codes
    return csr_matrix((data, (row, col)), shape=(len(id_u), len(item_u)))

Затем вызовите функцию

result = to_sparse_pivot(df, 'id', 'item', 'count')

OneHotEncoder требует целых чисел, так что вот один из способов сопоставить ваши элементы уникальному целому числу. Поскольку сопоставление является взаимно-однозначным, мы также можем обратить этот словарь в обратном направлении.

import pandas as pd
from sklearn.preprocessing import OneHotEncoder

df = pd.DataFrame({'ID': [1, 1, 2, 2, 3, 3], 
                   'Item': ['a', 'a', 'c', 'b', 'a', 'b']})

mapping = {letter: integer for integer, letter in enumerate(df.Item.unique())}
reverse_mapping = {integer: letter for letter, integer in mapping.iteritems()}

>>> mapping
{'a': 0, 'b': 2, 'c': 1}

>>> reverse_mapping
{0: 'a', 1: 'c', 2: 'b'}

Теперь создайте OneHotEncoder и отобразите ваши значения.

hot = OneHotEncoder()
h = hot.fit_transform(df.Item.map(mapping).values.reshape(len(df), 1))
>>> h
<6x3 sparse matrix of type '<type 'numpy.float64'>'
    with 6 stored elements in Compressed Sparse Row format>
>>> h.toarray()
array([[ 1.,  0.,  0.],
       [ 1.,  0.,  0.],
       [ 0.,  1.,  0.],
       [ 0.,  0.,  1.],
       [ 1.,  0.,  0.],
       [ 0.,  0.,  1.]])

И для справки, это будут соответствующие столбцы:

>>> [reverse_mapping[n] for n in reverse_mapping.keys()]
['a', 'c', 'b']

Из ваших данных вы можете видеть, что значение c в кадре данных был в третьей строке (со значением индекса 2). Это было сопоставлено с c который вы можете видеть из обратного отображения, это средний столбец. Это также единственное значение в среднем столбце матрицы, которое содержит значение единицы, подтверждающее результат.

Помимо этого, я не уверен, где вы застряли. Если у вас все еще есть проблемы, пожалуйста, уточните.

Чтобы объединить значения идентификатора:

>>> np.concatenate((df.ID.values.reshape(len(df), 1), h.toarray()), axis=1)
array([[ 1.,  1.,  0.,  0.],
       [ 1.,  1.,  0.,  0.],
       [ 2.,  0.,  1.,  0.],
       [ 2.,  0.,  0.,  1.],
       [ 3.,  1.,  0.,  0.],
       [ 3.,  0.,  0.,  1.]])

Чтобы сохранить массив разреженным:

from scipy.sparse import hstack, lil_matrix

id_vals = lil_matrix(df.ID.values.reshape(len(df), 1))
h_dense = hstack([id_vals, h.tolil()])
>>> type(h_dense)
scipy.sparse.coo.coo_matrix

>>> h_dense.toarray()
array([[ 1.,  1.,  0.,  0.],
       [ 1.,  1.,  0.,  0.],
       [ 2.,  0.,  1.,  0.],
       [ 2.,  0.,  0.,  1.],
       [ 3.,  1.,  0.,  0.],
       [ 3.,  0.,  0.,  1.]])
Другие вопросы по тегам