Действительно быстрая векторизация слова ngram в R
Редактировать: новый пакет text2vec отлично, и решает эту проблему (и многие другие) очень хорошо.
text2vec на CRAN text2vec на виньетке github, которая иллюстрирует токенизацию ngram
У меня есть довольно большой набор текстовых данных в R, который я импортировал как символьный вектор:
#Takes about 15 seconds
system.time({
set.seed(1)
samplefun <- function(n, x, collapse){
paste(sample(x, n, replace=TRUE), collapse=collapse)
}
words <- sapply(rpois(10000, 3) + 1, samplefun, letters, '')
sents1 <- sapply(rpois(1000000, 5) + 1, samplefun, words, ' ')
})
Я могу преобразовать эти символьные данные в представление пакета слов следующим образом:
library(stringi)
library(Matrix)
tokens <- stri_split_fixed(sents1, ' ')
token_vector <- unlist(tokens)
bagofwords <- unique(token_vector)
n.ids <- sapply(tokens, length)
i <- rep(seq_along(n.ids), n.ids)
j <- match(token_vector, bagofwords)
M <- sparseMatrix(i=i, j=j, x=1L)
colnames(M) <- bagofwords
Таким образом, R может векторизовать 1 000 000 миллионов коротких предложений в представление пакета слов за 3 секунды (неплохо!):
> M[1:3, 1:7]
10 x 7 sparse Matrix of class "dgCMatrix"
fqt hqhkl sls lzo xrnh zkuqc mqh
[1,] 1 1 1 1 . . .
[2,] . . . . 1 1 1
[3,] . . . . . . .
Я могу бросить эту разреженную матрицу в glmnet или irlba и сделать довольно крутой количественный анализ текстовых данных. Ура!
Теперь я хотел бы расширить этот анализ на матрицу мешков с грамматикой, а не на матрицу мешков с словами. До сих пор самый быстрый способ, который я нашел для этого, заключается в следующем (все функции ngram, которые я смог найти в CRAN, перекрыли этот набор данных, поэтому я получил небольшую помощь от SO):
find_ngrams <- function(dat, n, verbose=FALSE){
library(pbapply)
stopifnot(is.list(dat))
stopifnot(is.numeric(n))
stopifnot(n>0)
if(n == 1) return(dat)
pblapply(dat, function(y) {
if(length(y)<=1) return(y)
c(y, unlist(lapply(2:n, function(n_i) {
if(n_i > length(y)) return(NULL)
do.call(paste, unname(as.data.frame(embed(rev(y), n_i), stringsAsFactors=FALSE)), quote=FALSE)
})))
})
}
text_to_ngrams <- function(sents, n=2){
library(stringi)
library(Matrix)
tokens <- stri_split_fixed(sents, ' ')
tokens <- find_ngrams(tokens, n=n, verbose=TRUE)
token_vector <- unlist(tokens)
bagofwords <- unique(token_vector)
n.ids <- sapply(tokens, length)
i <- rep(seq_along(n.ids), n.ids)
j <- match(token_vector, bagofwords)
M <- sparseMatrix(i=i, j=j, x=1L)
colnames(M) <- bagofwords
return(M)
}
test1 <- text_to_ngrams(sents1)
Это займет около 150 секунд (неплохо для чистой функции r), но я бы хотел пойти быстрее и расширить наборы данных большего размера.
Существуют ли действительно быстрые функции в R для n-граммовой векторизации текста? В идеале я ищу функцию Rcpp, которая принимает символьный вектор в качестве входных данных и возвращает разреженную матрицу документов x нграмм в качестве выходных данных, но также была бы рада получить руководство по написанию функции Rcpp самостоятельно.
Даже более быстрая версия find_ngrams
функция будет полезна, так как это является основным узким местом. R удивительно быстр в токенизации.
Изменить 1 Вот еще один пример набора данных:
sents2 <- sapply(rpois(100000, 500) + 1, samplefun, words, ' ')
В этом случае мои функции для создания матрицы мешков с словами занимают около 30 секунд, а мои функции для создания матрицы мешков - около 500 секунд. Опять же, существующие n-граммовые векторизаторы в R, похоже, душат этот набор данных (хотя я бы хотел, чтобы меня ошиблись!)
Изменить 2 времени против тау:
zach_t1 <- system.time(zach_ng1 <- text_to_ngrams(sents1))
tau_t1 <- system.time(tau_ng1 <- tau::textcnt(as.list(sents1), n = 2L, method = "string", recursive = TRUE))
tau_t1 / zach_t1 #1.598655
zach_t2 <- system.time(zach_ng2 <- text_to_ngrams(sents2))
tau_t2 <- system.time(tau_ng2 <- tau::textcnt(as.list(sents2), n = 2L, method = "string", recursive = TRUE))
tau_t2 / zach_t2 #1.9295619
2 ответа
Это действительно интересная проблема, с которой я потратил много времени в пакете quanteda. Он включает в себя три аспекта, которые я прокомментирую, хотя только третий действительно отвечает на ваш вопрос. Но первые два пункта объясняют, почему я сосредоточился только на функции создания ngram, поскольку, как вы указываете, именно здесь можно добиться улучшения скорости.
Лексемизация. Здесь вы используете
string::str_split_fixed()
на символ пробела, который является самым быстрым, но не лучшим методом для токенизации. Мы реализовали это почти точно так же, как вquanteda::tokenize(x, what = "fastest word")
, Это не самое лучшее, потому что stringi может делать намного более умные реализации разделителей пробелов. (Даже класс персонажа\\s
умнее, но немного медленнее - это реализовано какwhat = "fasterword"
). Ваш вопрос был не о токенизации, так что этот вопрос - просто контекст.Табулирование матрицы функций документа. Здесь мы также используем пакет Matrix и индексируем документы и функции (я называю их функциями, а не терминами) и создаем разреженную матрицу непосредственно, как вы делаете в коде выше. Но ваше использование
match()
намного быстрее, чем методы сопоставления / слияния, которые мы использовали через data.table. Я собираюсь перекодироватьquanteda::dfm()
функция, так как ваш метод более элегантный и быстрый. Действительно, очень рад, что увидел это!создание ngram. Здесь я думаю, что могу реально помочь с точки зрения производительности. Мы реализуем это в Quanteda через аргумент
quanteda::tokenize()
, называетсяgrams = c(1)
где значение может быть любым целочисленным набором. Наш матч для униграмм и биграмм был быngrams = 1:2
, например. Вы можете ознакомиться с кодом по адресу https://github.com/kbenoit/quanteda/blob/master/R/tokenize.R, см. Внутреннюю функциюngram()
, Я воспроизвел это ниже и сделал обертку, чтобы мы могли напрямую сравнить ее с вашимfind_ngrams()
функция.
Код:
# wrapper
find_ngrams2 <- function(x, ngrams = 1, concatenator = " ") {
if (sum(1:length(ngrams)) == sum(ngrams)) {
result <- lapply(x, ngram, n = length(ngrams), concatenator = concatenator, include.all = TRUE)
} else {
result <- lapply(x, function(x) {
xnew <- c()
for (n in ngrams)
xnew <- c(xnew, ngram(x, n, concatenator = concatenator, include.all = FALSE))
xnew
})
}
result
}
# does the work
ngram <- function(tokens, n = 2, concatenator = "_", include.all = FALSE) {
if (length(tokens) < n)
return(NULL)
# start with lower ngrams, or just the specified size if include.all = FALSE
start <- ifelse(include.all,
1,
ifelse(length(tokens) < n, 1, n))
# set max size of ngram at max length of tokens
end <- ifelse(length(tokens) < n, length(tokens), n)
all_ngrams <- c()
# outer loop for all ngrams down to 1
for (width in start:end) {
new_ngrams <- tokens[1:(length(tokens) - width + 1)]
# inner loop for ngrams of width > 1
if (width > 1) {
for (i in 1:(width - 1))
new_ngrams <- paste(new_ngrams,
tokens[(i + 1):(length(tokens) - width + 1 + i)],
sep = concatenator)
}
# paste onto previous results and continue
all_ngrams <- c(all_ngrams, new_ngrams)
}
all_ngrams
}
Вот сравнение для простого текста:
txt <- c("The quick brown fox named Seamus jumps over the lazy dog.",
"The dog brings a newspaper from a boy named Seamus.")
tokens <- tokenize(toLower(txt), removePunct = TRUE)
tokens
# [[1]]
# [1] "the" "quick" "brown" "fox" "named" "seamus" "jumps" "over" "the" "lazy" "dog"
#
# [[2]]
# [1] "the" "dog" "brings" "a" "newspaper" "from" "a" "boy" "named" "seamus"
#
# attr(,"class")
# [1] "tokenizedTexts" "list"
microbenchmark::microbenchmark(zach_ng <- find_ngrams(tokens, 2),
ken_ng <- find_ngrams2(tokens, 1:2))
# Unit: microseconds
# expr min lq mean median uq max neval
# zach_ng <- find_ngrams(tokens, 2) 288.823 326.0925 433.5831 360.1815 542.9585 897.469 100
# ken_ng <- find_ngrams2(tokens, 1:2) 74.216 87.5150 130.0471 100.4610 146.3005 464.794 100
str(zach_ng)
# List of 2
# $ : chr [1:21] "the" "quick" "brown" "fox" ...
# $ : chr [1:19] "the" "dog" "brings" "a" ...
str(ken_ng)
# List of 2
# $ : chr [1:21] "the" "quick" "brown" "fox" ...
# $ : chr [1:19] "the" "dog" "brings" "a" ...
Для вашего действительно большого, смоделированного текста, вот сравнение:
tokens <- stri_split_fixed(sents1, ' ')
zach_ng1_t1 <- system.time(zach_ng1 <- find_ngrams(tokens, 2))
ken_ng1_t1 <- system.time(ken_ng1 <- find_ngrams2(tokens, 1:2))
zach_ng1_t1
# user system elapsed
# 230.176 5.243 246.389
ken_ng1_t1
# user system elapsed
# 58.264 1.405 62.889
Уже улучшение, я был бы рад, если бы это могло быть улучшено дальше. Я также должен быть в состоянии реализовать быстрее dfm()
метод в Quanteda, так что вы можете получить то, что вы хотите, просто через:
dfm(sents1, ngrams = 1:2, what = "fastestword",
toLower = FALSE, removePunct = FALSE, removeNumbers = FALSE, removeTwitter = TRUE))
(Это уже работает, но медленнее, чем ваш общий результат, потому что способ, которым вы создаете конечный объект разреженной матрицы, быстрее - но я скоро это изменю.)
Вот тест с использованием dev-версии токенизаторов, которую вы можете получить используя devtools::install_github("ropensci/tokenizers")
,
Используя определения sents1
, sents2
, а также find_ngrams()
выше:
library(stringi)
library(magrittr)
library(tokenizers)
library(microbenchmark)
library(pbapply)
set.seed(198)
sents1_sample <- sample(sents1, 1000)
sents2_sample <- sample(sents2, 1000)
test_sents1 <- microbenchmark(
find_ngrams(stri_split_fixed(sents1_sample, ' '), n = 2),
tokenize_ngrams(sents1_sample, n = 2),
times = 25)
test_sents1
Результаты:
Unit: milliseconds
expr min lq mean
find_ngrams(stri_split_fixed(sents1_sample, " "), n = 2) 79.855282 83.292816 102.564965
tokenize_ngrams(sents1_sample, n = 2) 4.048635 5.147252 5.472604
median uq max neval cld
93.622532 109.398341 226.568870 25 b
5.479414 5.805586 6.595556 25 a
Тестирование на sents2
test_sents2 <- microbenchmark(
find_ngrams(stri_split_fixed(sents2_sample, ' '), n = 2),
tokenize_ngrams(sents2_sample, n = 2),
times = 25)
test_sents2
Результаты:
Unit: milliseconds
expr min lq mean
find_ngrams(stri_split_fixed(sents2_sample, " "), n = 2) 509.4257 521.7575 562.9227
tokenize_ngrams(sents2_sample, n = 2) 288.6050 295.3262 306.6635
median uq max neval cld
529.4479 554.6749 844.6353 25 b
306.4858 310.6952 332.5479 25 a
Проверка только сроков
timing <- system.time({find_ngrams(stri_split_fixed(sents1, ' '), n = 2)})
timing
user system elapsed
90.499 0.506 91.309
timing_tokenizers <- system.time({tokenize_ngrams(sents1, n = 2)})
timing_tokenizers
user system elapsed
6.940 0.022 6.964
timing <- system.time({find_ngrams(stri_split_fixed(sents2, ' '), n = 2)})
timing
user system elapsed
138.957 3.131 142.581
timing_tokenizers <- system.time({tokenize_ngrams(sents2, n = 2)})
timing_tokenizers
user system elapsed
65.22 1.57 66.91
Многое будет зависеть от токенизируемых текстов, но это, похоже, указывает на ускорение от 2х до 20х.