Как создать облака слов для текстовых файлов в каталоге в R
Я пытаюсь создать wordcloud для каждого текстового файла в каталоге. Это четыре президентских объявления. Я продолжаю получать следующее сообщение:
> cname <- file.path("C:", "texts")
> cname
[1] "C:/texts"
> cname <- file.path("C:\\Users\\BonitaW\\Documents\\DATA630\\texts")
> dir(cname)
[1] "berniesandersspeechtranscript20115.txt"
[2] "hillaryclintonspeechtranscript2015.txt"
[3] "jebbushspeechtranscript2015.txt"
[4] "randpaulspeechtranscript2015.txt"
> library(tm)
> docs <- Corpus(DirSource(cname))
> summary (docs)
Length
berniesandersspeechtranscript20115.txt 2
hillaryclintonspeechtranscript2015.txt 2
jebbushspeechtranscript2015.txt 2
randpaulspeechtranscript2015.txt 2
Class
berniesandersspeechtranscript20115.txt PlainTextDocument
hillaryclintonspeechtranscript2015.txt PlainTextDocument
jebbushspeechtranscript2015.txt PlainTextDocument
randpaulspeechtranscript2015.txt PlainTextDocument
Mode
berniesandersspeechtranscript20115.txt list
hillaryclintonspeechtranscript2015.txt list
jebbushspeechtranscript2015.txt list
randpaulspeechtranscript2015.txt list
> docs <- tm_map(docs, removePunctuation)
> docs <- tm_map(docs, removeNumbers)
> docs <- tm_map(docs, removeWords, stopwords("english"))
> library(SnowballC)
Warning message:
package ‘SnowballC’ was built under R version 3.1.3
> docs <- tm_map(docs, stemDocument)
> docs <- tm_map(docs, stripWhitespace)
> docs <- tm_map(docs, PlainTextDocument)
> dtm <- DocumentTermMatrix(docs)
> dtm
<<DocumentTermMatrix (documents: 4, terms: 1887)>>
Non-/sparse entries: 2862/4686
Sparsity : 62%
Maximal term length: 20
Weighting : term frequency (tf)
> tdm <- TermDocumentMatrix(docs)
> tdm
<<TermDocumentMatrix (terms: 1887, documents: 4)>>
Non-/sparse entries: 2862/4686
Sparsity : 62%
Maximal term length: 20
Weighting : term frequency (tf)
> library(wordcloud)
> Berniedoc <- wordcloud(names(freq), freq, min.freq=25)
Warning message:
In wordcloud(names(freq), freq, min.freq = 25) :
american could not be fit on page. It will not be plotted.
Изначально мне удалось построить Берниедок, но я потерял графику, но теперь она не будет.
Berniedoc <- wordcloud(names(freq), freq, min.freq=25)
Warning messages:
1: In wordcloud(names(freq), freq, min.freq = 25) :
american could not be fit on page. It will not be plotted.
2: In wordcloud(names(freq), freq, min.freq = 25) :
work could not be fit on page. It will not be plotted.
3: In wordcloud(names(freq), freq, min.freq = 25) :
countri could not be fit on page. It will not be plotted.
4: In wordcloud(names(freq), freq, min.freq = 25) :
year could not be fit on page. It will not be plotted.
5: In wordcloud(names(freq), freq, min.freq = 25) :
new could not be fit on page. It will not be plotted.
6: In wordcloud(names(freq), freq, min.freq = 25) :
see could not be fit on page. It will not be plotted.
7: In wordcloud(names(freq), freq, min.freq = 25) :
and could not be fit on page. It will not be plotted.
8: In wordcloud(names(freq), freq, min.freq = 25) :
can could not be fit on page. It will not be plotted.
9: In wordcloud(names(freq), freq, min.freq = 25) :
time could not be fit on page. It will not be plotted.
Не могли бы вы сказать мне, что я делаю не так? Может ли это быть масштабирование? Или я должен изменить "Бернидок" на что-то другое?
3 ответа
Вы должны добавить ограничение "max.words" на количество слов.
Berniedoc <- wordcloud(names(freq), freq, min.freq=25, max.words = 50)
Я думаю, что было бы проще с воспроизводимым примером. Понятия не имею чтоC:\\Users\\BonitaW\\Documents\\DATA630\\texts
". Но я могу вам сказать, что я просто пришел, чтобы решить довольно похожую проблему.
Все, что вам нужно сделать, это играть с scale
параметр wordcloud
, В частности, с первым числом, которое представляет range
(не size
).
Как насчет альтернативного подхода, использующего пакет quanteda?
Вам нужно будет изменить ссылки на каталог, конечно, для ваших собственных примеров. Установка размера PDF-окна должна убрать предупреждения.
require(quanteda)
# load the files into a quanteda corpus
myCorpus <- corpus(textfile("~/Dropbox/QUANTESS/corpora/inaugural/*.txt"))
ndoc(myCorpus)
## [1] 57
# create a document-feature matrix, removing stopwords
myDfm <- dfm(myCorpus, remove = stopwords("english"))
## Creating a dfm from a corpus ...
## ... lowercasing
## ... tokenizing
## ... indexing 57 documents
## ... shaping tokens into data.table, found 134,024 total tokens
## ... ignoring 174 feature types, discarding 69,098 total features (51.6%)
## ... summing tokens by document
## ... indexing 8,958 feature types
## ... building sparse matrix
## ... created a 57 x 8958 sparse dfm
## ... complete. Elapsed time: 0.256 seconds.
# just do first four
for (i in 1:4) {
pdf(file = paste0("~/tmp/", docnames(myCorpus)[i], ".pdf"), height=12, width=12)
textplot_wordcloud(myDfm[i, ]) # pass through any arguments you wish to wordcloud()
dev.off()
}