Выполнить операцию для каждого совпадающего диапазона строк в R?
У меня есть фрейм данных с наблюдениями в следующем формате:
(мои реальные данные имеют больше столбцов, чем просто это, но для ясности, это то, что важно)
head(sampleDF, 20)
Timestamp TimeIntoSession CorrelationGuid Position_x Position_z
1 11/22/2017 11:12:30 AM 1234.331 714e8a89-91a5-415b-b102-6ed5c0cf9f44 5.166 4.947
2 11/22/2017 11:12:30 AM 1234.397 714e8a89-91a5-415b-b102-6ed5c0cf9f44 5.155 4.902
3 11/22/2017 11:12:30 AM 1234.464 714e8a89-91a5-415b-b102-6ed5c0cf9f44 5.144 4.858
4 11/22/2017 11:12:30 AM 1234.547 714e8a89-91a5-415b-b102-6ed5c0cf9f44 5.133 4.810
5 11/22/2017 11:12:30 AM 1234.614 714e8a89-91a5-415b-b102-6ed5c0cf9f44 5.125 4.777
6 11/22/2017 11:12:30 AM 1234.697 714e8a89-91a5-415b-b102-6ed5c0cf9f44 5.118 4.741
7 11/22/2017 11:12:30 AM 1234.764 714e8a89-91a5-415b-b102-6ed5c0cf9f44 5.114 4.714
8 11/22/2017 11:12:30 AM 1234.847 714e8a89-91a5-415b-b102-6ed5c0cf9f44 5.114 4.683
9 11/22/2017 11:12:30 AM 1234.914 714e8a89-91a5-415b-b102-6ed5c0cf9f44 5.119 4.661
10 11/22/2017 11:12:30 AM 1234.997 714e8a89-91a5-415b-b102-6ed5c0cf9f44 5.128 4.639
11 11/22/2017 11:12:30 AM 327.341 22f2f3bd-0750-4ccb-a5fc-e8f8a83d06f6 3.105 4.099
12 11/22/2017 11:12:30 AM 327.480 22f2f3bd-0750-4ccb-a5fc-e8f8a83d06f6 3.104 4.100
13 11/22/2017 11:12:30 AM 327.557 22f2f3bd-0750-4ccb-a5fc-e8f8a83d06f6 3.103 4.100
14 11/22/2017 11:12:30 AM 327.640 22f2f3bd-0750-4ccb-a5fc-e8f8a83d06f6 3.103 4.099
15 11/22/2017 11:12:30 AM 327.723 22f2f3bd-0750-4ccb-a5fc-e8f8a83d06f6 3.103 4.099
16 11/22/2017 11:12:30 AM 327.807 22f2f3bd-0750-4ccb-a5fc-e8f8a83d06f6 3.103 4.098
17 11/22/2017 11:12:30 AM 327.890 22f2f3bd-0750-4ccb-a5fc-e8f8a83d06f6 3.102 4.097
18 11/22/2017 11:12:30 AM 327.957 22f2f3bd-0750-4ccb-a5fc-e8f8a83d06f6 3.101 4.096
19 11/22/2017 11:12:30 AM 328.040 22f2f3bd-0750-4ccb-a5fc-e8f8a83d06f6 3.099 4.095
20 11/22/2017 11:12:30 AM 328.123 22f2f3bd-0750-4ccb-a5fc-e8f8a83d06f6 3.096 4.094
Для каждой строки в конкретном CorrelationGuid я хочу найти разницу между евклидовой нормой положения, определяемой значениями X & Z в текущей строке, и значениями в предыдущей строке.
Я могу сделать это для всего фрейма данных следующим образом:
norm_vec <- function(x,y) sqrt(x^2 + y^2)
sampleMag<- mutate(sampleDF, sqMag = norm_vec(Position_x, Position_z) - norm_vec(lag(Position_x, default = 0), lag(Position_z, default = 0)))
Но это дает разницу для каждого ряда; Я хочу сделать это в каждом CorrelationGuid; то есть я не хочу, чтобы при выполнении вычисления первая строка нового CorrelationGuid смотрела на последнюю строку предыдущего CorrelationGuid.
Я мог бы попробовать это только для одного CorrelationGuid, как это:
sampleMag<- mutate(sampleDF, sqMag = ifelse(CorrelationGuid == "714e8a89-91a5-415b-b102-6ed5c0cf9f44",
(norm_vec(Position_x, Position_z) - norm_vec(lag(Position_x, default = 0), lag(Position_z, default = 0))), NA))
Но это не совсем то, чего я хочу; Я хочу сделать это для каждого CorrelationGuid, и не иметь NA для всех, кроме одного.
Я могу легко сгенерировать список уникальных значений CorrelationGuid с помощью unique() или Different(), но каков наилучший способ запустить приведенную выше логику один раз для каждого уникального CorrelationGuid?
Я мог бы найти первый и последний экземпляр каждого CorrelationGuid, а затем перебрать его, но цикл for будет очень медленным, особенно если это делается для большого набора данных.
применить кажется целесообразным, но я не уверен, как лучше использовать его здесь.
1 ответ
Просто чтобы преклониться перед всей дискуссией в комментариях, я думаю, вы ищете то, что предоставил @jazzurro...
sampleDF <- sampleDF %>% group_by(CorrelationGuid) %>%
mutate(sqMag = norm_vec(Position_x, Position_z) - norm_vec(lag(Position_x, default = 0), lag(Position_z, default = 0)))
sampleDF
со следующим из dput для воспроизведения данных
structure(list(CorrelationGuid = c("714e8a89-91a5-415b-b102-6ed5c0cf9f44",
"714e8a89-91a5-415b-b102-6ed5c0cf9f44", "714e8a89-91a5-415b-b102-6ed5c0cf9f44",
"714e8a89-91a5-415b-b102-6ed5c0cf9f44", "714e8a89-91a5-415b-b102-6ed5c0cf9f44",
"714e8a89-91a5-415b-b102-6ed5c0cf9f44", "714e8a89-91a5-415b-b102-6ed5c0cf9f44",
"714e8a89-91a5-415b-b102-6ed5c0cf9f44", "714e8a89-91a5-415b-b102-6ed5c0cf9f44",
"714e8a89-91a5-415b-b102-6ed5c0cf9f44", "22f2f3bd-0750-4ccb-a5fc-e8f8a83d06f6",
"22f2f3bd-0750-4ccb-a5fc-e8f8a83d06f6", "22f2f3bd-0750-4ccb-a5fc-e8f8a83d06f6",
"22f2f3bd-0750-4ccb-a5fc-e8f8a83d06f6", "22f2f3bd-0750-4ccb-a5fc-e8f8a83d06f6",
"22f2f3bd-0750-4ccb-a5fc-e8f8a83d06f6", "22f2f3bd-0750-4ccb-a5fc-e8f8a83d06f6",
"22f2f3bd-0750-4ccb-a5fc-e8f8a83d06f6", "22f2f3bd-0750-4ccb-a5fc-e8f8a83d06f6",
"22f2f3bd-0750-4ccb-a5fc-e8f8a83d06f6"), Position_x = c(5.166,
5.155, 5.144, 5.133, 5.125, 5.118, 5.114, 5.114, 5.119, 5.128,
3.105, 3.104, 3.103, 3.103, 3.103, 3.103, 3.102, 3.101, 3.099,
3.096), Position_z = c(4.947, 4.902, 4.858, 4.81, 4.777, 4.741,
4.714, 4.683, 4.661, 4.639, 4.099, 4.1, 4.1, 4.099, 4.099, 4.098,
4.097, 4.096, 4.095, 4.094), sqMag = c(7.15264741197272, -0.0390246359183104,
-0.0382499943559047, -0.0409013019070033, -0.0283774181905558,
-0.0296332826672581, -0.0212618601391981, -0.0209732951217187,
-0.0111423510261082, -0.00812087217042912, 5.1422588421821, 0.000193491092365328,
-0.000603541254226236, -0.000797343143268847, 0, -0.000797272282198946,
-0.00140089984128977, -0.00140089254591658, -0.0020043998541075,
-0.00260744523674017)), .Names = c("CorrelationGuid", "Position_x",
"Position_z", "sqMag"), class = c("grouped_df", "tbl_df", "tbl",
"data.frame"), row.names = c(NA, -20L), vars = "CorrelationGuid", labels = structure(list(
CorrelationGuid = c("22f2f3bd-0750-4ccb-a5fc-e8f8a83d06f6",
"714e8a89-91a5-415b-b102-6ed5c0cf9f44")), class = "data.frame", row.names = c(NA,
-2L), vars = "CorrelationGuid", drop = TRUE, .Names = "CorrelationGuid"), indices = list(
10:19, 0:9), drop = TRUE, group_sizes = c(10L, 10L), biggest_group_size = 10L)