Попытка переопределить узел p[1,1] при добавлении ковариат в модель бета-биномиальной смеси

Я продолжаю получать указанную выше ошибку, когда пытаюсь добавить ковариаты обнаружения в модель бета-биномиальной N-смеси в лохмотьях. Согласно Ройлу (2004). Биномиальная модель смеси азота может использоваться для моделирования данных о численности, полученных в результате повторных учетных съемок. Количество людей на сайте может быть смоделировано с помощью модели Пуассона [для простоты я буду придерживаться только модели Пуассона] таким образом, что;

N i ~ Пуассона (λ i )

y это ~ бин (p это , N я )

N i - количество животных, доступных на сайте i

y it - количество наблюдаемых животных на участке, который я посещаю t

λ i - среднее количество животных на участке i

p it - вероятность обнаружения.

Ковариатные эффекты можно смоделировать как:

Изобилие:

log(λi)= B0+ B1xi1 +...+B r xir , где 1...r — ковариаты

обнаружение:

logit(pit)= B0+ B1xi1 +...+B r xir , где 1...r — ковариаты

Вероятность обнаружения p предполагается постоянной для всех присутствующих животных.

** Бета-биномиальная модель облегчает это предположение*, позволяя p вместо этого следовать стохастическому распределению, так что

p i't ~ Beta(pit(1-δ2)/δ2,(1-pit)(1-δ2)/δ2

для 0<δ<1

Я попытался реализовать модель с смоделированными данными:

20 сайтов, 5 посещений, ковариация сайта = местоположение и 2 наблюдаемые ковариаты.

смоделированные данные

      library(modelr)
Location<-c("A","B","C","D")
Location<-data.frame(Location=rep(Location,5))

location=Location%>%model_matrix(~Location)%>%select(-1)
set.seed(100)
y<-matrix(rpois(100,0.5),ncol=5)

# Cov1
set.seed(100)
cov1<-matrix(rnorm(100,100,5),ncol=5)

# cov 2
set.seed(100)
cov2<-matrix(rnorm(100,50,2),ncol=5)


data<-list(y=y,
           nSites=20,
           nOcc=5,
           location=location,
           cov1=cov1,
           cov2=cov2)

если я попытаюсь оценить эту модель в rjags без ковариатных эффектов для обнаружения, это сработает.

      nx<-"
model{
  for(i in 1:nSites) {
    # Biological model
    
    N[i] ~ dpois(lambda[i])
    
    log(lambda[i])<-alphao+inprod(alpha, location[i,])
    
    # Observation model
    for(j in 1:nOcc) {
      C[i,j] ~ dbin(p[i,j], N[i])
      p[i,j]~ dbeta(1,1)
    }
  }
  # Priors
alphao ~ dnorm(5,1)
    for(i in 1:nA){
      alpha[i] ~ dnorm(2,.5)
    }


pit_h ~ dunif(0,1)
sigma ~ dunif(0,1)
fac <-(1-sigma^2)/sigma^2

A<- pit_h*fac
B<-(1-pit_h)*fac

}"

writeLines(nx,con="mod.txt")

watch=c("alpha0","alpha","lambda","pit_h")
mod<-jagsUI::jags(data,
                  parameters.to.save=watch,
                  model.file="C:/Users/user/Documents/mod.txt",n.iter=3,
                  n.chains=2)

уступающий

      JAGS output for model 'C:/Users/user/Documents/mod.txt', generated by jagsUI.
Estimates based on 2 chains of 3 iterations,
adaptation = 100 iterations (sufficient),
burn-in = 0 iterations and thin rate = 1,
yielding 6 total samples from the joint posterior. 
MCMC ran for 0.166 minutes at time 2022-04-02 21:11:21.

               mean        sd    2.5%      50%     97.5% overlap0 f  Rhat n.eff
alpha[1]      2.355     1.476   0.785    1.962     4.319    FALSE 1 0.990     6
alpha[2]      2.800     1.441   0.766    2.974     4.435    FALSE 1 0.854     6
alpha[3]      2.919     1.568   0.810    2.941     4.757    FALSE 1 0.838     6
lambda[1]   195.074   131.799  41.549  208.461   333.312    FALSE 1 0.844     6
lambda[2]  3060.224  3984.560 326.627 1431.883  9905.889    FALSE 1 1.494     5
lambda[3]  9518.864 11955.073 111.455 5098.236 28641.383    FALSE 1 0.958     6
lambda[4]  8610.148  8704.268 116.832 6850.301 20351.308    FALSE 1 0.896     6
lambda[5]   195.074   131.799  41.549  208.461   333.312    FALSE 1 0.844     6
lambda[6]  3060.224  3984.560 326.627 1431.883  9905.889    FALSE 1 1.494     5
lambda[7]  9518.864 11955.073 111.455 5098.236 28641.383    FALSE 1 0.958     6
lambda[8]  8610.148  8704.268 116.832 6850.301 20351.308    FALSE 1 0.896     6
lambda[9]   195.074   131.799  41.549  208.461   333.312    FALSE 1 0.844     6
lambda[10] 3060.224  3984.560 326.627 1431.883  9905.889    FALSE 1 1.494     5
lambda[11] 9518.864 11955.073 111.455 5098.236 28641.383    FALSE 1 0.958     6
lambda[12] 8610.148  8704.268 116.832 6850.301 20351.308    FALSE 1 0.896     6
lambda[13]  195.074   131.799  41.549  208.461   333.312    FALSE 1 0.844     6
lambda[14] 3060.224  3984.560 326.627 1431.883  9905.889    FALSE 1 1.494     5
lambda[15] 9518.864 11955.073 111.455 5098.236 28641.383    FALSE 1 0.958     6
lambda[16] 8610.148  8704.268 116.832 6850.301 20351.308    FALSE 1 0.896     6
lambda[17]  195.074   131.799  41.549  208.461   333.312    FALSE 1 0.844     6
lambda[18] 3060.224  3984.560 326.627 1431.883  9905.889    FALSE 1 1.494     5
lambda[19] 9518.864 11955.073 111.455 5098.236 28641.383    FALSE 1 0.958     6
lambda[20] 8610.148  8704.268 116.832 6850.301 20351.308    FALSE 1 0.896     6
pit_h         0.434     0.340   0.024    0.491     0.881    FALSE 1 0.967     6

**WARNING** Rhat values indicate convergence failure. 
Rhat is the potential scale reduction factor (at convergence, Rhat=1). 
For each parameter, n.eff is a crude measure of effective sample size. 

overlap0 checks if 0 falls in the parameter's 95% credible interval.
f is the proportion of the posterior with the same sign as the mean;
i.e., our confidence that the parameter is positive or negative.
> 

если я игнорирую стохастическое распределение p i ' t , это работает, на самом деле это постоянная яма, о которой я упоминал. все делают это на каждом уроке

Код

      nx1<-"
model{
  for(i in 1:nSites) {
    # Biological model
    
    N[i] ~ dpois(lambda[i])
    
    log(lambda[i])<-alphao+inprod(alpha, location[i,])
    
    # Observation model
    for(j in 1:nOcc) {
      C[i,j] ~ dbin(p[i,j], N[i])
      #p[i,j]~ dbeta(1,1)
      
      logit(p[i,j])<-beta0+inprod(beta1, location[i,])+inprod(beta2,c(cov1[i,j],cov2[i,j]))  # beta1 are coefficients for loc, beta 2 are coef for other covs
    }
  }
  # Priors
alphao ~ dnorm(5,1)
    for(i in 1:3){
      alpha[i] ~ dnorm(2,.5)
    }
beta0 ~ dunif(0,0.5)
   for(i in 1:3){
     beta1[i] ~ dnorm(2,.5)
   }
   

   for(i in 1:2){
     beta2[i] ~ dnorm(0.7,1)
   }

pit_h ~ dunif(0,1)
sigma ~ dunif(0,1)
fac <-(1-sigma^2)/sigma^2

A<- pit_h*fac
B<-(1-pit_h)*fac

}"

writeLines(nx1,con="mod1.txt")

watch=c("alpha0","alpha","beta0","beta1","beta2","lambda","pit_h")
mod<-jagsUI::jags(data,
                  parameters.to.save=watch,
                  model.file="C:/Users/user/Documents/mod1.txt",n.iter=3,
                  n.chains=2)

уступающий

      JAGS output for model 'C:/Users/user/Documents/mod1.txt', generated by jagsUI.
Estimates based on 2 chains of 3 iterations,
adaptation = 100 iterations (sufficient),
burn-in = 0 iterations and thin rate = 1,
yielding 6 total samples from the joint posterior. 
MCMC ran for 0.029 minutes at time 2022-04-02 21:19:02.

                mean        sd    2.5%      50%      97.5% overlap0     f  Rhat n.eff
alpha[1]       1.833     1.142  -0.050    2.039      2.809     TRUE 0.833 1.085     6
alpha[2]       2.328     1.648   0.461    2.241      4.634    FALSE 1.000 0.931     6
alpha[3]       2.308     0.591   1.882    2.075      3.306    FALSE 1.000 2.012     3
beta0          0.234     0.140   0.041    0.256      0.391    FALSE 1.000 0.984     6
beta1[1]       1.679     1.872  -0.019    0.828      4.194     TRUE 0.833 2.415     3
beta1[2]       1.983     0.572   1.226    2.054      2.724    FALSE 1.000 0.924     6
beta1[3]       1.184     2.221  -1.716    2.022      3.333     TRUE 0.667 1.533     4
beta2[1]       1.931     0.736   1.301    1.592      2.949    FALSE 1.000 1.909     3
beta2[2]       0.079     0.789  -0.988    0.272      0.871     TRUE 0.667 0.855     6
lambda[1]    283.702   327.675  96.299  166.285    853.559    FALSE 1.000 1.382     5
lambda[2]   2215.821  1754.254 190.467 2134.896   4482.595    FALSE 1.000 1.303     5
lambda[3]  20986.924 48155.609 319.250 1187.748 104778.837    FALSE 1.000 1.306     6
lambda[4]   2488.915  1964.987 924.619 1971.019   5782.935    FALSE 1.000 1.050     6
lambda[5]    283.702   327.675  96.299  166.285    853.559    FALSE 1.000 1.382     5
lambda[6]   2215.821  1754.254 190.467 2134.896   4482.595    FALSE 1.000 1.303     5
lambda[7]  20986.924 48155.609 319.250 1187.748 104778.837    FALSE 1.000 1.306     6
lambda[8]   2488.915  1964.987 924.619 1971.019   5782.935    FALSE 1.000 1.050     6
lambda[9]    283.702   327.675  96.299  166.285    853.559    FALSE 1.000 1.382     5
lambda[10]  2215.821  1754.254 190.467 2134.896   4482.595    FALSE 1.000 1.303     5
lambda[11] 20986.924 48155.609 319.250 1187.748 104778.837    FALSE 1.000 1.306     6
lambda[12]  2488.915  1964.987 924.619 1971.019   5782.935    FALSE 1.000 1.050     6
lambda[13]   283.702   327.675  96.299  166.285    853.559    FALSE 1.000 1.382     5
lambda[14]  2215.821  1754.254 190.467 2134.896   4482.595    FALSE 1.000 1.303     5
lambda[15] 20986.924 48155.609 319.250 1187.748 104778.837    FALSE 1.000 1.306     6
lambda[16]  2488.915  1964.987 924.619 1971.019   5782.935    FALSE 1.000 1.050     6
lambda[17]   283.702   327.675  96.299  166.285    853.559    FALSE 1.000 1.382     5
lambda[18]  2215.821  1754.254 190.467 2134.896   4482.595    FALSE 1.000 1.303     5
lambda[19] 20986.924 48155.609 319.250 1187.748 104778.837    FALSE 1.000 1.306     6
lambda[20]  2488.915  1964.987 924.619 1971.019   5782.935    FALSE 1.000 1.050     6
pit_h          0.251     0.183   0.086    0.184      0.504    FALSE 1.000 0.843     6

**WARNING** Rhat values indicate convergence failure. 
Rhat is the potential scale reduction factor (at convergence, Rhat=1). 
For each parameter, n.eff is a crude measure of effective sample size. 

overlap0 checks if 0 falls in the parameter's 95% credible interval.
f is the proportion of the posterior with the same sign as the mean;
i.e., our confidence that the parameter is positive or negative.

Но если я включу как ковариативный эффект для обнаружения, так и стохастическое распределение для вероятности обнаружения. дела идут на юг. см. код ниже

      nx2<-"
model{
  for(i in 1:nSites) {
    # Biological model
    
    N[i] ~ dpois(lambda[i])
    
    log(lambda[i])<-alphao+inprod(alpha, location[i,])
    
    # Observation model
    for(j in 1:nOcc) {
      C[i,j] ~ dbin(p[i,j], N[i])
      p[i,j]~ dbeta(1,1)
      logit(p[i,j])<-beta0+inprod(beta1, location[i,])+inprod(beta2,c(cov1[i,j],cov2[i,j]))  # beta1 are coefficients for loc, beta 2 are coef for other covs
    }
  }
  # Priors
alphao ~ dnorm(5,1)
    for(i in 1:3){
      alpha[i] ~ dnorm(2,.5)
    }
beta0 ~ dunif(0,0.5)
   for(i in 1:3){
     beta1[i] ~ dnorm(2,.5)
   }
   

   for(i in 1:2){
     beta2[i] ~ dnorm(0.7,1)
   }

pit_h ~ dunif(0,1)
sigma ~ dunif(0,1)
fac <-(1-sigma^2)/sigma^2

A<- pit_h*fac
B<-(1-pit_h)*fac

}"

writeLines(nx2,con="mod2.txt")

watch=c("alpha0","alpha","beta0","beta1","beta2","lambda","pit_h")
mod<-jagsUI::jags(data,
                  parameters.to.save=watch,
                  model.file="C:/Users/user/Documents/mod2.txt",n.iter=3,
                  n.chains=2)

это ошибка.

      Error in jags.model(file = model.file, data = data, inits = inits, n.chains = n.chains,  : 
  RUNTIME ERROR:
Compilation error on line 13.
Attempt to redefine node p[1,1]

Я понимаю, что это говорит мне об этом; p[i,j]~ dbeta(1,1)перезаписывается logit(p[i,j])<-beta0+inprod(beta1, location[i,])+inprod(beta2,c(cov1[i,j],cov2[i,j]))но как именно эта модель должна быть реализована. здесь модель реализована без обнаружения ковариат. Это не то, что я ищу.

1 ответ

Примечание. Я отредактировал свой вопрос, чтобы он соответствовал параметрам уравнений, которые я написал.

Я получал эту ошибку, потому что моя модель обнаружения не указана должным образом. Здесь два процесса пытаются определить, первыйpit[i,t]~ dbeta(1,1)

затем

logit(pit[i,t])<-beta0+inprod(beta1, location[i,])+inprod(beta2,c(cov1[i,j],cov2[i,j]))

поэтому к тому времени, когда второй процесс попытается установить значение дляpit[i,t]он обнаруживает, что другой процесс уже сделал это, отсюда и эта ошибка.

чего я не помнил при написании своего кода, так это того, что p i ' t является стохастическим значением, которое следует за бета-распределением, я должен работать над оценкой параметров для бета-биномиального распределения, генерирующего стохастическое p i ' t , но здесь я пошел на стохастическое значение.

вот правильная реализация

      nx <- "
model{
# Abundance
for (i in 1:nSites) {
N[i]~ dpois(lambda[i])
log(lambda[i])<-alphao+inprod(alpha, location[i,])
}

for (i in 1:nSites) {
for(t in 1:nOcc){
y[i,t]~ dbin(pit_h[i,t],N[i])
pit_h[i,t]~ dbeta((pit[i,t]*fac),(fac*(1-pit[i,t])))
logit(pit[i,t]) <- beta0+inprod(beta, location[i,])+inprod(beta1,c(cov1[i,t],cov2[i,t]))
}
}

 # Priors
 alphao ~ dnorm(1.2824,0.302)
    for(i in 1:nA){
      alpha[i] ~ dnorm(0.284,0.570)
    }
beta0 ~ dunif(-1.67,0.61)
   for(i in 1:3){
     beta[i] ~ dnorm(-0.370,0.254)
   }
   for(i in 1:2){
     beta1[i] ~ dnorm(-0.104,0.44)
   }

# det
sigma ~ dunif(0,1)
fac <-(1-sigma^2)/sigma^2

# derived
}"
writeLines(nx,con="mod1.txt")

watch=c("alphao","alpha","lambda","beta0","beta","beta1","pit","sigma")

inits = function() list(N = apply(y,1,max,na.rm=T))
set.seed(100)
mod<-jagsUI::jags(data,
                  parameters.to.save=watch,inits=inits,
                  model.file="mod1.txt",n.iter=3,
                  n.chains=2,DIC=TRUE)

mod

уступающий

      JAGS output for model 'mod1.txt', generated by jagsUI.
Estimates based on 2 chains of 3 iterations,
adaptation = 100 iterations (sufficient),
burn-in = 0 iterations and thin rate = 1,
yielding 6 total samples from the joint posterior. 
MCMC ran for 0.051 minutes at time 2023-01-11 17:53:55.

             mean     sd   2.5%    50%  97.5% overlap0   f   Rhat n.eff
alphao      2.114  0.887  1.205  2.127  2.970    FALSE 1.0 19.132     2
alpha[1]   -0.181  0.774 -0.929 -0.232  0.674     TRUE 0.5 13.424     2
alpha[2]   -0.792  0.437 -1.211 -0.821 -0.284    FALSE 1.0 10.708     2
alpha[3]   -0.123  0.391 -0.537 -0.114  0.306     TRUE 0.5 10.409     2
lambda[1]  11.143  8.192  3.338 10.511 19.499    FALSE 1.0 16.476     2
lambda[2]   6.989  1.152  5.440  7.218  8.436    FALSE 1.0  2.041     3
lambda[3]   4.078  1.757  2.388  3.947  5.864    FALSE 1.0 18.172     2
lambda[4]  12.868 11.770  2.060 11.100 26.299    FALSE 1.0 10.437     2
lambda[5]  11.143  8.192  3.338 10.511 19.499    FALSE 1.0 16.476     2
lambda[6]   6.989  1.152  5.440  7.218  8.436    FALSE 1.0  2.041     3
lambda[7]   4.078  1.757  2.388  3.947  5.864    FALSE 1.0 18.172     2
lambda[8]  12.868 11.770  2.060 11.100 26.299    FALSE 1.0 10.437     2
lambda[9]  11.143  8.192  3.338 10.511 19.499    FALSE 1.0 16.476     2
lambda[10]  6.989  1.152  5.440  7.218  8.436    FALSE 1.0  2.041     3
lambda[11]  4.078  1.757  2.388  3.947  5.864    FALSE 1.0 18.172     2
lambda[12] 12.868 11.770  2.060 11.100 26.299    FALSE 1.0 10.437     2
lambda[13] 11.143  8.192  3.338 10.511 19.499    FALSE 1.0 16.476     2
lambda[14]  6.989  1.152  5.440  7.218  8.436    FALSE 1.0  2.041     3
lambda[15]  4.078  1.757  2.388  3.947  5.864    FALSE 1.0 18.172     2
lambda[16] 12.868 11.770  2.060 11.100 26.299    FALSE 1.0 10.437     2
lambda[17] 11.143  8.192  3.338 10.511 19.499    FALSE 1.0 16.476     2
lambda[18]  6.989  1.152  5.440  7.218  8.436    FALSE 1.0  2.041     3
lambda[19]  4.078  1.757  2.388  3.947  5.864    FALSE 1.0 18.172     2
lambda[20] 12.868 11.770  2.060 11.100 26.299    FALSE 1.0 10.437     2
beta0      -0.162  0.447 -0.600 -0.186  0.325     TRUE 0.5 14.944     2
beta[1]     0.924  0.693  0.243  0.892  1.644    FALSE 1.0 14.009     2
beta[2]     2.147  0.133  1.987  2.152  2.288    FALSE 1.0  7.489     2
beta[3]     1.047  0.911  0.072  1.073  1.920    FALSE 1.0 17.258     2
beta1[1]   -0.088  0.008 -0.096 -0.088 -0.080    FALSE 1.0 42.539     2
beta1[2]    0.121  0.022  0.100  0.121  0.142    FALSE 1.0 55.542     2
pit[1,1]    0.067  0.041  0.029  0.061  0.114    FALSE 1.0 10.366     2
pit[2,1]    0.117  0.015  0.098  0.122  0.131    FALSE 1.0  0.923     6
pit[3,1]    0.341  0.181  0.169  0.324  0.538    FALSE 1.0 13.526     2
pit[4,1]    0.195  0.183  0.025  0.187  0.379    FALSE 1.0 29.881     2
pit[5,1]    0.060  0.037  0.026  0.054  0.102    FALSE 1.0 10.199     2
pit[6,1]    0.114  0.014  0.095  0.118  0.127    FALSE 1.0  0.926     6
pit[7,1]    0.360  0.186  0.184  0.345  0.563    FALSE 1.0 13.999     2
pit[8,1]    0.200  0.187  0.026  0.191  0.387    FALSE 1.0 30.322     2
pit[9,1]    0.071  0.043  0.031  0.064  0.120    FALSE 1.0 10.459     2
pit[10,1]   0.128  0.016  0.107  0.133  0.142    FALSE 1.0  0.915     6
pit[11,1]   0.334  0.179  0.164  0.318  0.530    FALSE 1.0 13.373     2
pit[12,1]   0.216  0.201  0.029  0.207  0.415    FALSE 1.0 31.999     2
pit[13,1]   0.063  0.039  0.028  0.058  0.108    FALSE 1.0 10.284     2
pit[14,1]   0.105  0.013  0.088  0.110  0.118    FALSE 1.0  0.933     6
pit[15,1]   0.333  0.178  0.163  0.316  0.529    FALSE 1.0 13.343     2
pit[16,1]   0.219  0.203  0.030  0.211  0.421    FALSE 1.0 32.359     2
pit[17,1]   0.065  0.040  0.029  0.060  0.112    FALSE 1.0 10.335     2
pit[18,1]   0.110  0.014  0.091  0.114  0.123    FALSE 1.0  0.929     6
pit[19,1]   0.374  0.189  0.194  0.358  0.578    FALSE 1.0 14.324     2
pit[20,1]   0.161  0.153  0.019  0.153  0.316    FALSE 1.0 26.658     2
pit[1,2]    0.066  0.040  0.029  0.060  0.113    FALSE 1.0 10.349     2
pit[2,2]    0.105  0.013  0.087  0.109  0.118    FALSE 1.0  0.934     6
pit[3,2]    0.327  0.177  0.160  0.311  0.522    FALSE 1.0 13.219     2
pit[4,2]    0.198  0.186  0.026  0.190  0.384    FALSE 1.0 30.170     2
pit[5,2]    0.070  0.043  0.031  0.064  0.120    FALSE 1.0 10.455     2
pit[6,2]    0.130  0.016  0.109  0.135  0.144    FALSE 1.0  0.914     6
pit[7,2]    0.366  0.187  0.188  0.350  0.569    FALSE 1.0 14.133     2
pit[8,2]    0.212  0.198  0.028  0.204  0.409    FALSE 1.0 31.621     2
pit[9,2]    0.075  0.046  0.034  0.069  0.127    FALSE 1.0 10.557     2
pit[10,2]   0.115  0.014  0.096  0.120  0.128    FALSE 1.0  0.925     6
pit[11,2]   0.341  0.181  0.169  0.325  0.539    FALSE 1.0 13.537     2
pit[12,2]   0.174  0.165  0.021  0.165  0.340    FALSE 1.0 27.825     2
pit[13,2]   0.062  0.038  0.027  0.057  0.107    FALSE 1.0 10.267     2
pit[14,2]   0.122  0.015  0.102  0.128  0.136    FALSE 1.0  0.919     6
pit[15,2]   0.365  0.187  0.187  0.349  0.568    FALSE 1.0 14.103     2
pit[16,2]   0.225  0.208  0.031  0.216  0.431    FALSE 1.0 32.922     2
pit[17,2]   0.059  0.036  0.026  0.054  0.101    FALSE 1.0 10.182     2
pit[18,2]   0.112  0.014  0.093  0.116  0.125    FALSE 1.0  0.928     6
pit[19,2]   0.297  0.167  0.139  0.280  0.483    FALSE 1.0 12.542     2
pit[20,2]   0.193  0.182  0.025  0.185  0.375    FALSE 1.0 29.672     2
pit[1,3]    0.062  0.038  0.027  0.056  0.106    FALSE 1.0 10.257     2
pit[2,3]    0.094  0.012  0.077  0.098  0.105    FALSE 1.0  0.944     6
pit[3,3]    0.409  0.195  0.223  0.395  0.619    FALSE 1.0 15.215     2
pit[4,3]    0.202  0.189  0.026  0.194  0.391    FALSE 1.0 30.561     2
pit[5,3]    0.067  0.041  0.030  0.061  0.114    FALSE 1.0 10.372     2
pit[6,3]    0.095  0.012  0.079  0.099  0.107    FALSE 1.0  0.943     6
pit[7,3]    0.352  0.184  0.177  0.336  0.552    FALSE 1.0 13.790     2
pit[8,3]    0.185  0.174  0.023  0.176  0.359    FALSE 1.0 28.825     2
pit[9,3]    0.060  0.037  0.026  0.055  0.104    FALSE 1.0 10.218     2
pit[10,3]   0.165  0.019  0.140  0.172  0.182    FALSE 1.0  0.893     6
pit[11,3]   0.355  0.184  0.180  0.339  0.556    FALSE 1.0 13.870     2
pit[12,3]   0.267  0.241  0.042  0.260  0.504    FALSE 1.0 37.848     2
pit[13,3]   0.059  0.036  0.026  0.054  0.101    FALSE 1.0 10.183     2
pit[14,3]   0.086  0.011  0.071  0.089  0.097    FALSE 1.0  0.953     6
pit[15,3]   0.430  0.198  0.241  0.416  0.641    FALSE 1.0 15.755     2
pit[16,3]   0.193  0.181  0.025  0.184  0.374    FALSE 1.0 29.647     2
pit[17,3]   0.078  0.047  0.035  0.072  0.133    FALSE 1.0 10.632     2
pit[18,3]   0.087  0.012  0.072  0.090  0.098    FALSE 1.0  0.952     6
pit[19,3]   0.286  0.163  0.131  0.269  0.467    FALSE 1.0 12.293     2
pit[20,3]   0.242  0.221  0.035  0.233  0.460    FALSE 1.0 34.824     2
pit[1,4]    0.064  0.039  0.028  0.058  0.109    FALSE 1.0 10.300     2
pit[2,4]    0.122  0.015  0.102  0.127  0.135    FALSE 1.0  0.920     6
pit[3,4]    0.352  0.184  0.178  0.336  0.553    FALSE 1.0 13.805     2
pit[4,4]    0.155  0.148  0.018  0.147  0.305    FALSE 1.0 26.121     2
pit[5,4]    0.059  0.037  0.026  0.054  0.102    FALSE 1.0 10.196     2
pit[6,4]    0.136  0.016  0.114  0.142  0.151    FALSE 1.0  0.910     6
pit[7,4]    0.313  0.173  0.150  0.296  0.504    FALSE 1.0 12.894     2
pit[8,4]    0.213  0.198  0.029  0.205  0.410    FALSE 1.0 31.703     2
pit[9,4]    0.062  0.038  0.027  0.056  0.106    FALSE 1.0 10.249     2
pit[10,4]   0.122  0.015  0.102  0.127  0.136    FALSE 1.0  0.920     6
pit[11,4]   0.320  0.175  0.155  0.304  0.513    FALSE 1.0 13.056     2
pit[12,4]   0.248  0.226  0.037  0.240  0.471    FALSE 1.0 35.556     2
pit[13,4]   0.075  0.046  0.034  0.069  0.128    FALSE 1.0 10.559     2
pit[14,4]   0.090  0.012  0.074  0.093  0.101    FALSE 1.0  0.948     6
pit[15,4]   0.421  0.197  0.233  0.407  0.632    FALSE 1.0 15.524     2
pit[16,4]   0.218  0.203  0.030  0.210  0.419    FALSE 1.0 32.238     2
pit[17,4]   0.074  0.045  0.033  0.068  0.126    FALSE 1.0 10.536     2
pit[18,4]   0.115  0.014  0.095  0.119  0.128    FALSE 1.0  0.925     6
pit[19,4]   0.299  0.168  0.140  0.283  0.486    FALSE 1.0 12.588     2
pit[20,4]   0.277  0.249  0.044  0.270  0.520    FALSE 1.0 39.039     2
pit[1,5]    0.052  0.032  0.022  0.047  0.089    FALSE 1.0 10.005     2
 [ reached 'max' / getOption("max.print") -- omitted 21 rows ]

**WARNING** Rhat values indicate convergence failure. 
Rhat is the potential scale reduction factor (at convergence, Rhat=1). 
For each parameter, n.eff is a crude measure of effective sample size. 

overlap0 checks if 0 falls in the parameter's 95% credible interval.
f is the proportion of the posterior with the same sign as the mean;
i.e., our confidence that the parameter is positive or negative.

DIC info: (pD = var(deviance)/2) 
pD = 32.5 and DIC = 215.949 
DIC is an estimate of expected predictive error (lower is better).
>
Другие вопросы по тегам