Какой самый полезный трюк R?
Для того, чтобы поделиться еще некоторыми советами и рекомендациями для R, какая ваша самая полезная функция или прием? Умная векторизация? Ввод / вывод данных? Визуализация и графика? Статистический анализ? Специальные функции? Сама интерактивная среда?
Один предмет на пост, и мы увидим, получим ли мы победителя с помощью голосов.
[Править 25 августа 2008 г.]: Итак, через неделю кажется, что str()
выиграл опрос. Поскольку я люблю рекомендовать это сам, это легкий ответ, чтобы принять.
34 ответа
Одна очень полезная функция, которую я часто использую, - это dput(), которая позволяет вывести объект в виде кода R.
# Use the iris data set
R> data(iris)
# dput of a numeric vector
R> dput(iris$Petal.Length)
c(1.4, 1.4, 1.3, 1.5, 1.4, 1.7, 1.4, 1.5, 1.4, 1.5, 1.5, 1.6,
1.4, 1.1, 1.2, 1.5, 1.3, 1.4, 1.7, 1.5, 1.7, 1.5, 1, 1.7, 1.9,
1.6, 1.6, 1.5, 1.4, 1.6, 1.6, 1.5, 1.5, 1.4, 1.5, 1.2, 1.3, 1.4,
1.3, 1.5, 1.3, 1.3, 1.3, 1.6, 1.9, 1.4, 1.6, 1.4, 1.5, 1.4, 4.7,
4.5, 4.9, 4, 4.6, 4.5, 4.7, 3.3, 4.6, 3.9, 3.5, 4.2, 4, 4.7,
3.6, 4.4, 4.5, 4.1, 4.5, 3.9, 4.8, 4, 4.9, 4.7, 4.3, 4.4, 4.8,
5, 4.5, 3.5, 3.8, 3.7, 3.9, 5.1, 4.5, 4.5, 4.7, 4.4, 4.1, 4,
4.4, 4.6, 4, 3.3, 4.2, 4.2, 4.2, 4.3, 3, 4.1, 6, 5.1, 5.9, 5.6,
5.8, 6.6, 4.5, 6.3, 5.8, 6.1, 5.1, 5.3, 5.5, 5, 5.1, 5.3, 5.5,
6.7, 6.9, 5, 5.7, 4.9, 6.7, 4.9, 5.7, 6, 4.8, 4.9, 5.6, 5.8,
6.1, 6.4, 5.6, 5.1, 5.6, 6.1, 5.6, 5.5, 4.8, 5.4, 5.6, 5.1, 5.1,
5.9, 5.7, 5.2, 5, 5.2, 5.4, 5.1)
# dput of a factor levels
R> dput(levels(iris$Species))
c("setosa", "versicolor", "virginica")
Может быть очень полезно размещать легко воспроизводимые фрагменты данных, когда вы обращаетесь за помощью, или редактировать или переупорядочивать уровни фактора.
head() и tail() для получения первой и последней частей фрейма данных, вектора, матрицы, функции и т. д. Особенно для больших фреймов данных это быстрый способ убедиться, что он загружен нормально.
Одна приятная особенность: для чтения данных используются соединения, которые могут быть локальными файлами, удаленными файлами, доступ к которым осуществляется через http, каналами из других программ или другими.
В качестве простого примера рассмотрим этот доступ для N=10 случайных целых чисел от min=100 до max=200 от http://www.random.org/ (который предоставляет истинные случайные числа на основе атмосферного шума, а не генератора псевдослучайных чисел):
R> site <- "http://random.org/integers/" # base URL
R> query <- "num=10&min=100&max=200&col=2&base=10&format=plain&rnd=new"
R> txt <- paste(site, query, sep="?") # concat url and query string
R> nums <- read.table(file=txt) # and read the data
R> nums # and show it
V1 V2
1 165 143
2 107 118
3 103 132
4 191 100
5 138 185
R>
Кроме того, случайный пакет предоставляет несколько удобных функций для доступа к http://www.random.org/.
Я нахожу, что я использую with()
а также within()
все больше и больше. Больше не надо $
засорять мой код, и не нужно начинать прикреплять объекты к пути поиска. Более серьезно, я нахожу with()
и т. д. сделать мои сценарии анализа данных намного понятнее.
> df <- data.frame(A = runif(10), B = rnorm(10))
> A <- 1:10 ## something else hanging around...
> with(df, A + B) ## I know this will use A in df!
[1] 0.04334784 -0.40444686 1.99368816 0.13871605 -1.17734837
[6] 0.42473812 2.33014226 1.61690799 1.41901860 0.8699079
with()
устанавливает среду, в которой оценивается выражение R. within()
делает то же самое, но позволяет изменять объект данных, используемый для создания среды.
> df <- within(df, C <- rpois(10, lambda = 2))
> head(df)
A B C
1 0.62635571 -0.5830079 1
2 0.04810539 -0.4525522 1
3 0.39706979 1.5966184 3
4 0.95802501 -0.8193090 2
5 0.76772541 -1.9450738 2
6 0.21335006 0.2113881 4
Что-то, чего я не осознавал, когда впервые использовал within()
заключается в том, что вы должны выполнить присваивание как часть вычисленного выражения и назначить возвращаемый объект (как указано выше), чтобы получить желаемый эффект.
Трюк ввода данных = пакет RGoogleDocs
http://www.omegahat.org/RGoogleDocs/
Я обнаружил, что электронные таблицы Google - отличный способ для всех соавторов оказаться на одной странице. Кроме того, Google Forms позволяет получать данные от респондентов и без труда записывать их в электронную таблицу Google. Поскольку данные часто изменяются и почти никогда не являются окончательными, для R гораздо предпочтительнее читать электронную таблицу Google напрямую, чем заниматься загрузкой CSV-файлов и их чтением.
# Get data from google spreadsheet
library(RGoogleDocs)
ps <-readline(prompt="get the password in ")
auth = getGoogleAuth("me@gmail.com", ps, service="wise")
sheets.con <- getGoogleDocsConnection(auth)
ts2=getWorksheets("Data Collection Repos",sheets.con)
names(ts2)
init.consent <-sheetAsMatrix(ts2$Sheet1,header=TRUE, as.data.frame=TRUE, trim=TRUE)
Я не могу вспомнить, какая, но одна или две из следующих команд занимает несколько секунд.
getGoogleAuth
getGoogleDocsConnection
getWorksheets
Используйте обратные ссылки для ссылки на нестандартные имена.
> df <- data.frame(x=rnorm(5),y=runif(5))
> names(df) <- 1:2
> df
1 2
1 -1.2035003 0.6989573
2 -1.2146266 0.8272276
3 0.3563335 0.0947696
4 -0.4372646 0.9765767
5 -0.9952423 0.6477714
> df$1
Error: unexpected numeric constant in "df$1"
> df$`1`
[1] -1.2035003 -1.2146266 0.3563335 -0.4372646 -0.9952423
В этом случае df[,"1"] также будет работать. Но обратные галочки работают внутри формул!
> lm(`2`~`1`,data=df)
Call:
lm(formula = `2` ~ `1`, data = df)
Coefficients:
(Intercept) `1`
0.4087 -0.3440
[Править] Дирк спрашивает, почему нужно давать неверные имена? Я не знаю! Но я, конечно, сталкиваюсь с этой проблемой на практике довольно часто. Например, используя пакет изменения формы hadley:
> library(reshape)
> df$z <- c(1,1,2,2,2)
> recast(df,z~.,id.var="z")
Aggregation requires fun.aggregate: length used as default
z (all)
1 1 4
2 2 6
> recast(df,z~.,id.var="z")$(all)
Error: unexpected '(' in "recast(df,z~.,id.var="z")$("
> recast(df,z~.,id.var="z")$`(all)`
Aggregation requires fun.aggregate: length used as default
[1] 4 6
Не знаю, насколько хорошо это известно / не известно, но кое-что, что я определенно использовал в своих интересах, - это возможности передачи по ссылке в средах.
zz <- new.env()
zz$foo <- c(1,2,3,4,5)
changer <- function(blah) {
blah$foo <- 5
}
changer(zz)
zz$foo
Для этого примера не имеет смысла, почему это было бы полезно, но если вы передаете большие объекты вокруг, это может помочь.
Моя новая любимая вещь - библиотека foreach. Это позволяет вам делать все приятные вещи, но с несколько более простым синтаксисом:
list_powers <- foreach(i = 1:100) %do% {
lp <- x[i]^i
return (lp)
}
Самое приятное то, что если вы делаете что-то, что на самом деле требует значительного количества времени, вы можете переключиться с %do%
в %dopar%
(с соответствующей внутренней библиотекой) для мгновенного распараллеливания даже в кластере. Очень гладко
Я много работаю с данными, поэтому здесь есть две встроенные функции (преобразование, подмножество) и одна библиотека (sqldf), которые я использую ежедневно.
создать образец данных о продажах
sales <- expand.grid(country = c('USA', 'UK', 'FR'),
product = c(1, 2, 3))
sales$revenue <- rnorm(dim(sales)[1], mean=100, sd=10)
> sales
country product revenue
1 USA 1 108.45965
2 UK 1 97.07981
3 FR 1 99.66225
4 USA 2 100.34754
5 UK 2 87.12262
6 FR 2 112.86084
7 USA 3 95.87880
8 UK 3 96.43581
9 FR 3 94.59259
используйте transform(), чтобы добавить столбец
## transform currency to euros
usd2eur <- 1.434
transform(sales, euro = revenue * usd2eur)
>
country product revenue euro
1 USA 1 108.45965 155.5311
2 UK 1 97.07981 139.2125
3 FR 1 99.66225 142.9157
...
используйте subset(), чтобы разрезать данные
subset(sales,
country == 'USA' & product %in% c(1, 2),
select = c('product', 'revenue'))
>
product revenue
1 1 108.4597
4 2 100.3475
используйте sqldf() для нарезки и объединения с SQL
Пакет sqldf предоставляет интерфейс SQL для фреймов данных R
## recast the previous subset() expression in SQL
sqldf('SELECT product, revenue FROM sales \
WHERE country = "USA" \
AND product IN (1,2)')
>
product revenue
1 1 108.4597
2 2 100.3475
Выполнить агрегацию или GROUP BY
sqldf('select country, sum(revenue) revenue \
FROM sales \
GROUP BY country')
>
country revenue
1 FR 307.1157
2 UK 280.6382
3 USA 304.6860
Для более сложной функциональности, подобной уменьшению карты, во фреймах данных, посмотрите пакет plyr. И если вам захочется выдернуть волосы, я рекомендую проверить манипуляцию данными с помощью R.
?ave
Подмножества 'x[]' усредняются, где каждое подмножество состоит из тех наблюдений с одинаковыми факторными уровнями. Использование: Ave(X, ..., FUN = среднее)
Я пользуюсь этим все время. (например, в этом ответе здесь на так)
Способ ускорить код и устранить циклы.
вместо циклов for, которые перебирают циклы данных в поисках значений. просто возьмите подмножество df с этими значениями, гораздо быстрее.
так что вместо:
for(i in 1:nrow(df)){
if (df$column[i] == x) {
df$column2[i] <- y
or any other similiar code
}
}
сделать что-то вроде этого:
df$column2[df$column1 == x] <- y
эта базовая концепция применима очень часто и является отличным способом избавиться от циклов
В программировании R (не интерактивные сеансы) я использую if (bad.condition) stop("message")
много Каждая функция начинается с нескольких из них, и когда я работаю с вычислениями, я тоже добавлю их. Я думаю, я привык к использованию assert()
в C. Преимущества в два раза. Во-первых, намного быстрее получить рабочий код с этими проверками. Во-вторых, и, возможно, более важно, намного проще работать с существующим кодом, когда вы видите эти проверки на каждом экране в вашем редакторе. Вам не придется задаваться вопросом, x>0
или доверяйте комментарию, в котором говорится, что это... вы сразу поймете, что это так.
PS. мой первый пост здесь. Быть нежным!
Иногда вам нужно rbind
несколько кадров данных. do.call()
позволит вам сделать это (кто-то должен был объяснить это мне, когда связывался, я задал этот вопрос, поскольку это не кажется очевидным использованием).
foo <- list()
foo[[1]] <- data.frame(a=1:5, b=11:15)
foo[[2]] <- data.frame(a=101:105, b=111:115)
foo[[3]] <- data.frame(a=200:210, b=300:310)
do.call(rbind, foo)
traceback()
Функция обязательна, когда у вас есть ошибка где-то и вы ее не понимаете. Он напечатает трассировку стека, что очень полезно, так как R не очень многословен по умолчанию.
Затем настройка options(error=recover)
позволит вам "войти" в функцию, вызывающую ошибку, и попытаться понять, что именно происходит, как если бы вы имели полный контроль над ней и могли поставить browser()
в этом.
Эти три функции действительно могут помочь в отладке вашего кода.
Я действительно удивлен, что никто не опубликовал информацию о применении, нанесении, удовлетворении и применении. Общее правило, которое я использую при работе в R, заключается в том, что если у меня есть цикл for, который выполняет обработку данных или моделирование, я пытаюсь выделить его и заменить на *apply. Некоторые люди уклоняются от функций * apply, потому что они думают, что можно передавать только функции с одним параметром. Ничто не может быть дальше от истины! Как и передача функций с параметрами в качестве объектов первого класса в Javascript, вы делаете это в R с помощью анонимных функций. Например:
> sapply(rnorm(100, 0, 1), round)
[1] 1 1 0 1 1 -1 -2 0 2 2 -2 -1 0 1 -1 0 1 -1 0 -1 0 0 0 0 0
[26] 2 0 -1 -2 0 0 1 -1 1 5 1 -1 0 1 1 1 2 0 -1 1 -1 1 0 -1 1
[51] 2 1 1 -2 -1 0 -1 2 -1 1 -1 1 -1 0 -1 -2 1 1 0 -1 -1 1 1 2 0
[76] 0 0 0 -2 -1 1 1 -2 1 -1 1 1 1 0 0 0 -1 -3 0 -1 0 0 0 1 1
> sapply(rnorm(100, 0, 1), round(x, 2)) # How can we pass a parameter?
Error in match.fun(FUN) : object 'x' not found
# Wrap your function call in an anonymous function to use parameters
> sapply(rnorm(100, 0, 1), function(x) {round(x, 2)})
[1] -0.05 -1.74 -0.09 -1.23 0.69 -1.43 0.76 0.55 0.96 -0.47 -0.81 -0.47
[13] 0.27 0.32 0.47 -1.28 -1.44 -1.93 0.51 -0.82 -0.06 -1.41 1.23 -0.26
[25] 0.22 -0.04 -2.17 0.60 -0.10 -0.92 0.13 2.62 1.03 -1.33 -1.73 -0.08
[37] 0.45 -0.93 0.40 0.05 1.09 -1.23 -0.35 0.62 0.01 -1.08 1.70 -1.27
[49] 0.55 0.60 -1.46 1.08 -1.88 -0.15 0.21 0.06 0.53 -1.16 -2.13 -0.03
[61] 0.33 -1.07 0.98 0.62 -0.01 -0.53 -1.17 -0.28 -0.95 0.71 -0.58 -0.03
[73] -1.47 -0.75 -0.54 0.42 -1.63 0.05 -1.90 0.40 -0.01 0.14 -1.58 1.37
[85] -1.00 -0.90 1.69 -0.11 -2.19 -0.74 1.34 -0.75 -0.51 -0.99 -0.36 -1.63
[97] -0.98 0.61 1.01 0.55
# Note that anonymous functions aren't being called, but being passed.
> function() {print('hello #rstats')}()
function() {print('hello #rstats')}()
> a = function() {print('hello #rstats')}
> a
function() {print('hello #rstats')}
> a()
[1] "hello #rstats"
(Для тех, кто следит за #rstats, я также разместил это там).
Помните, используйте apply, sapply, lapply, tapply и do.call! Воспользуйтесь преимуществом векторизации R. Вы никогда не должны подходить к куче кода R и видеть:
N = 10000
l = numeric()
for (i in seq(1:N)) {
sim <- rnorm(1, 0, 1)
l <- rbind(l, sim)
}
Это не только не векторизовано, но и структура массива в R не увеличивается, как в Python (удваивает размер, когда заканчивается пространство, IIRC). Таким образом, каждый шаг rbind должен сначала увеличиваться на l, чтобы принять результаты rbind(), а затем копировать все содержимое предыдущего l. Для забавы попробуйте описанное выше в R. Обратите внимание, сколько времени это займет (вам даже не понадобится Rprof или какая-либо функция синхронизации). Тогда попробуй
N=10000
l <- rnorm(N, 0, 1)
Следующее лучше, чем первая версия тоже:
N = 10000
l = numeric(N)
for (i in seq(1:N)) {
sim <- rnorm(1, 0, 1)
l[i] <- sim
}
По совету Дирка я публикую отдельные примеры. Я надеюсь, что они не слишком "милые" [умные, но мне все равно] или тривиальные для этой аудитории.
Линейные модели - это хлеб с маслом R. Когда число независимых переменных велико, можно выбрать один из двух вариантов. Во-первых, используйте lm.fit(), который получает матрицу проектирования x и ответ y в качестве аргументов, аналогично Matlab. Недостаток этого подхода заключается в том, что возвращаемое значение представляет собой список объектов (подогнанных коэффициентов, остатков и т. Д.), А не объекта класса "lm", который можно красиво суммировать, использовать для прогнозирования, поэтапного выбора и т. Д. Второе Подход заключается в создании формулы:
> A
X1 X2 X3 X4 y
1 0.96852363 0.33827107 0.261332257 0.62817021 1.6425326
2 0.08012755 0.69159828 0.087994158 0.93780481 0.9801304
3 0.10167545 0.38119304 0.865209832 0.16501662 0.4830873
4 0.06699458 0.41756415 0.258071616 0.34027775 0.7508766
...
> (f=paste("y ~",paste(names(A)[1:4],collapse=" + ")))
[1] "y ~ X1 + X2 + X3 + X4"
> lm(formula(f),data=A)
Call:
lm(formula = formula(f), data = A)
Coefficients:
(Intercept) X1 X2 X3 X4
0.78236 0.95406 -0.06738 -0.43686 -0.06644
Как общий новичок в R и новичок в статистике я люблю unclass()
распечатать все элементы фрейма данных в виде обычного списка.
Это очень удобно для просмотра полного набора данных за один раз, чтобы быстро увидеть любые потенциальные проблемы.
Вы можете присвоить значение, возвращаемое из блока if-else.
Вместо, например,
condition <- runif(1) > 0.5
if(condition) x <- 1 else x <- 2
ты можешь сделать
x <- if(condition) 1 else 2
Именно то, как это работает, является глубокой магией.
CrossTable()
от gmodels
Пакет обеспечивает легкий доступ к кросс-таблицам в стиле SAS и SPSS вместе с обычными тестами (Chisq, McNemar и т. д.). В основном это xtabs()
с причудливым выводом и некоторыми дополнительными тестами - но это делает делиться выводом с язычниками легче.
Определённо system()
, Возможность иметь доступ ко всем инструментам Unix (по крайней мере, в Linux/MacOSX) из среды R быстро стала бесценной в моем повседневном рабочем процессе.
Хотя этот вопрос уже давно не решен, я недавно обнаружил в блоге SAS и R отличный трюк для использования команды cut
, Команда используется для разделения данных на категории, и я буду использовать набор данных iris в качестве примера и разделю его на 10 категорий:
> irisSL <- iris$Sepal.Length
> str(irisSL)
num [1:150] 5.1 4.9 4.7 4.6 5 5.4 4.6 5 4.4 4.9 ...
> cut(irisSL, 10)
[1] (5.02,5.38] (4.66,5.02] (4.66,5.02] (4.3,4.66] (4.66,5.02] (5.38,5.74] (4.3,4.66] (4.66,5.02] (4.3,4.66] (4.66,5.02]
[11] (5.38,5.74] (4.66,5.02] (4.66,5.02] (4.3,4.66] (5.74,6.1] (5.38,5.74] (5.38,5.74] (5.02,5.38] (5.38,5.74] (5.02,5.38]
[21] (5.38,5.74] (5.02,5.38] (4.3,4.66] (5.02,5.38] (4.66,5.02] (4.66,5.02] (4.66,5.02] (5.02,5.38] (5.02,5.38] (4.66,5.02]
[31] (4.66,5.02] (5.38,5.74] (5.02,5.38] (5.38,5.74] (4.66,5.02] (4.66,5.02] (5.38,5.74] (4.66,5.02] (4.3,4.66] (5.02,5.38]
[41] (4.66,5.02] (4.3,4.66] (4.3,4.66] (4.66,5.02] (5.02,5.38] (4.66,5.02] (5.02,5.38] (4.3,4.66] (5.02,5.38] (4.66,5.02]
[51] (6.82,7.18] (6.1,6.46] (6.82,7.18] (5.38,5.74] (6.46,6.82] (5.38,5.74] (6.1,6.46] (4.66,5.02] (6.46,6.82] (5.02,5.38]
[61] (4.66,5.02] (5.74,6.1] (5.74,6.1] (5.74,6.1] (5.38,5.74] (6.46,6.82] (5.38,5.74] (5.74,6.1] (6.1,6.46] (5.38,5.74]
[71] (5.74,6.1] (5.74,6.1] (6.1,6.46] (5.74,6.1] (6.1,6.46] (6.46,6.82] (6.46,6.82] (6.46,6.82] (5.74,6.1] (5.38,5.74]
[81] (5.38,5.74] (5.38,5.74] (5.74,6.1] (5.74,6.1] (5.38,5.74] (5.74,6.1] (6.46,6.82] (6.1,6.46] (5.38,5.74] (5.38,5.74]
[91] (5.38,5.74] (5.74,6.1] (5.74,6.1] (4.66,5.02] (5.38,5.74] (5.38,5.74] (5.38,5.74] (6.1,6.46] (5.02,5.38] (5.38,5.74]
[101] (6.1,6.46] (5.74,6.1] (6.82,7.18] (6.1,6.46] (6.46,6.82] (7.54,7.9] (4.66,5.02] (7.18,7.54] (6.46,6.82] (7.18,7.54]
[111] (6.46,6.82] (6.1,6.46] (6.46,6.82] (5.38,5.74] (5.74,6.1] (6.1,6.46] (6.46,6.82] (7.54,7.9] (7.54,7.9] (5.74,6.1]
[121] (6.82,7.18] (5.38,5.74] (7.54,7.9] (6.1,6.46] (6.46,6.82] (7.18,7.54] (6.1,6.46] (5.74,6.1] (6.1,6.46] (7.18,7.54]
[131] (7.18,7.54] (7.54,7.9] (6.1,6.46] (6.1,6.46] (5.74,6.1] (7.54,7.9] (6.1,6.46] (6.1,6.46] (5.74,6.1] (6.82,7.18]
[141] (6.46,6.82] (6.82,7.18] (5.74,6.1] (6.46,6.82] (6.46,6.82] (6.46,6.82] (6.1,6.46] (6.46,6.82] (6.1,6.46] (5.74,6.1]
10 Levels: (4.3,4.66] (4.66,5.02] (5.02,5.38] (5.38,5.74] (5.74,6.1] (6.1,6.46] (6.46,6.82] (6.82,7.18] ... (7.54,7.9]
Вот досадный обходной путь для преобразования фактора в число. (Аналогично и для других типов данных)
old.var <- as.numeric(levels(old.var))[as.numeric(old.var)]
Еще один трюк. Некоторые пакеты, такие как glmnet, принимают в качестве входных данных только матрицу проектирования и переменную ответа. Если кто-то хочет подогнать модель под все взаимодействия между объектами, он не может использовать формулу "у ~ .^2". С помощью expand.grid()
позволяет нам использовать преимущества мощного индексирования массива и векторных операций R.
interArray=function(X){
n=ncol(X)
ind=expand.grid(1:n,1:n)
return(X[,ind[,1]]*X[,ind[,2]])
}
> X
X1 X2
1 0.96852363 0.33827107
2 0.08012755 0.69159828
3 0.10167545 0.38119304
4 0.06699458 0.41756415
5 0.08187816 0.09805104
> interArray(X)
X1 X2 X1.1 X2.1
1 0.938038022 0.327623524 0.327623524 0.114427316
2 0.006420424 0.055416073 0.055416073 0.478308177
3 0.010337897 0.038757974 0.038757974 0.145308137
4 0.004488274 0.027974536 0.027974536 0.174359821
5 0.006704033 0.008028239 0.008028239 0.009614007
set.seed()
устанавливает состояние генератора случайных чисел
Например:
> set.seed(123)
> rnorm(1)
[1] -0.5604756
> rnorm(1)
[1] -0.2301775
> set.seed(123)
> rnorm(1)
[1] -0.5604756
Одним из моих любимых, если не несколько неортодоксальных приемов, является использование eval()
а также parse()
, Этот пример, возможно, иллюстрирует, как это может быть полезно
NY.Capital <- 'Albany'
state <- 'NY'
parameter <- 'Capital'
eval(parse(text=paste(state, parameter, sep='.')))
[1] "Albany"
Этот тип ситуации встречается чаще, чем нет, и использование eval()
а также parse()
может помочь решить это. Конечно, я приветствую любые отзывы об альтернативных способах их кодирования.
Для тех, кто пишет C для вызова из R: .Internal(inspect(...))
удобно Например:
> .Internal(inspect(quote(a+2)))
@867dc28 06 LANGSXP g0c0 []
@8436998 01 SYMSXP g1c0 [MARK,gp=0x4000] "+"
@85768b0 01 SYMSXP g1c0 [MARK,NAM(2)] "a"
@8d7bf48 14 REALSXP g0c1 [] (len=1, tl=0) 2
d = '~/R код / библиотека /'
files = list.files (d, '. r $')
for (f в файлах) { if (!(f == 'mysource.r')) { print(paste('Sourcing',f)) source(paste(d,f,sep='')) } }}
Я использую приведенный выше код для получения всех файлов в каталоге при запуске с различными утилитами, которые я использую в своей интерактивной сессии с R. Я уверен, что есть лучшие способы, но я считаю, что это полезно для моей работы. Линия, которая делает это, выглядит следующим образом.
источник ("~/R Code/Library/mysource.r")
Выполнить операцию с несколькими переменными в фрейме данных. Это украдено из subset.data.frame.
get.vars<-function(vars,data){
nl <- as.list(1L:ncol(data))
names(nl) <- names(data)
vars <- eval(substitute(vars), nl, parent.frame())
data[,vars]
#do stuff here
}
get.vars(c(cyl:hwy,class),mpg)
Я уже публиковал это раньше, но я так часто его использую, что думал, что выложу это снова. Это просто маленькая функция для возврата имен и номеров позиций data.frame. В этом нет ничего особенного, но я почти никогда не делаю это через сеанс, не используя его несколько раз.
##creates an object from a data.frame listing the column names and location
namesind = функция (DF) {
temp1=names(df)
temp2=seq(1,length(temp1))
temp3=data.frame(temp1,temp2)
names(temp3)=c("VAR","COL")
return(temp3)
rm(temp1,temp2,temp3)
}
ni <- namesind