2016-06-23 7 views
4

Зубцов

У меня есть перехватывающая-только логистическая модель в Зубцах, определяются следующим образом:glmer В.С. Jags: разные результатов в секущих-только иерархической модель

model{ 
for(i in 1:Ny){ 
    y[i] ~ dbern(mu[s[i]]) 
} 
for(j in 1:Ns){ 
    mu[j] <- ilogit(b0[j]) 
    b0[j] ~ dnorm(0, sigma) 
} 

sigma ~ dunif(0, 100) 
} 

Когда я участок апостериорное распределение b0 (все b0[j]), мой 95% ИРЧП включает в себя 0: -0.55 to 2.13. Эффективный размер выборки составляет более 10 000 на каждые b0 (в среднем около 18 000). Диагностика выглядит хорошо.

glmer()

Теперь, это эквивалентно glmer() модель:

glmer(response ~ 1 + (1|subject), data = myData, family = "binomial") 

Результатом этой модели, однако, заключается в следующем:

Random effects: 
Groups Name  Variance Std.Dev. 
speaker (Intercept) 0.3317 0.576 
Number of obs: 1544, groups: subject, 27 

Fixed effects: 
      Estimate Std. Error z value Pr(>|z|)  
(Intercept) 0.7401  0.1247 5.935 2.94e-09 *** 
--- 
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1 

Так вот он говорит, что моя оценка значительно выше0.

Что данные выглядят как

Здесь представлены пропорции 0s и 1s по этому вопросу. Вы можете видеть, что для подавляющего большинства субъектов доля 1 выше 50%.

Любые идеи, почему JAGS и glmer() здесь такие разные?

 0 1 
1 0.47 0.53 
2 0.36 0.64 
3 0.29 0.71 
4 0.42 0.58 
5 0.12 0.88 
6 0.22 0.78 
7 0.54 0.46 
8 0.39 0.61 
9 0.30 0.70 
10 0.32 0.68 
11 0.36 0.64 
12 0.66 0.34 
13 0.38 0.62 
14 0.49 0.51 
15 0.35 0.65 
16 0.32 0.68 
17 0.12 0.88 
18 0.45 0.55 
19 0.36 0.64 
20 0.36 0.64 
21 0.28 0.72 
22 0.40 0.60 
23 0.41 0.59 
24 0.19 0.81 
25 0.27 0.73 
26 0.08 0.92 
27 0.12 0.88 

ответ

5

Вы забыли включить среднее значение, так что ваш параметр перехватывать прикреплено к нулю. Нечто подобное должно работать:

model{ 
for(i in 1:Ny){ 
    y[i] ~ dbern(mu[s[i]]) 
} 
for(j in 1:Ns){ 
    mu[j] <- ilogit(b0[j]) 
    b0[j] ~ dnorm(mu0, sigma) 
} 
mu0 ~ dnorm(0,0.001) 
sigma ~ dunif(0, 100) 
} 

Теперь апостериорная плотность от mu0 должно соответствовать распределению выборки параметра перехвата из glmer достаточно хорошо.

В качестве альтернативы, если вы используете response ~ -1 + (1|subject) в качестве формулы glmer, вам следует получить результаты, соответствующие вашей текущей модели JAGS.

+0

Спасибо! Но ИРЧП модели JAGS по-прежнему включает в себя 0. Таким образом, эти две модели дают мне разные решения относительно возможного эффекта (и отличается ли он от 0). Ожидается, или эти две модели не эквивалентны ...? –

+0

Вы смотрите на заднюю плотность 'mu0'? –

+0

О, я понимаю, что вы имеете в виду. Нет, я не был. Я сейчас, и это соответствует тому, что я ожидаю от модели glm(). Большое спасибо - я совершенно новый для JAGS, и переход не настолько гладок. –

 Смежные вопросы

  • Нет связанных вопросов^_^