Все, Я хотел бы оценить параметр P, Q, чьи априорное распределение являетсяКак обновить заднее распределение в выборке Gibbs?
Р ~ N (А, В)
Q ~ N (С, D)
Затем я найти полное условное распределение P, Q являются
Р | Q ~ N (A *, B *)
Q | Р ~ N (C *, D *)
, где А * функция A, В, В [А * = Р (А, В, Q)]
В * является функцией A, B, Q [B * = F (A, B, Q)]
Следовательно, в Gibbs стадии обновления,
[Первая итерация]
- обновление P_0 в P_1 (была информация A, B, Q_0 & получить A * _1, B * _1)
- обновление Q_0 к Q_1 (информация C, D, P_0 & получите C * _1, D * _1) (нижний индекс обозначает образец из n-й итерации; 0 является начальное значение)
[Вторая итерация] мой вопрос: я собираюсь
- P_1 обновление для P_2 (с использованием информации A, B, q_1 получить A * _2 , в * _2) ИЛИ
- обновление P_1 к P_2 (с использованием информации из A * _1, в * -1, чтобы получить Q_1 A * _2, B * _2)
Другими словами, мы используем то же самое на каждом шаге Gibbs, или мы используем результат оценки предыдущего шага как наш предыдущий? Я знал, что одна из концепций Gibbs - обновить каждый параметр изоляции, поэтому я собираюсь использовать информацию Q_1 для обновления P_2. Как насчет ранее?
Спасибо за ответ! ** Означает ли это, что я должен действительно тщательно назначать параметры изначально изначально **? Я сталкиваюсь с ситуацией в моей симуляции: если у меня есть плохая догадка для параметров предыдущих, таких как A и B здесь, я не могу получить хороший результат моделирования для заднего среднего A *. Хотя я буду обновлять заднее среднее A *, а также Q на каждой итерации (A * = f (A, B, Q)), оно связано с предыдущим параметром A, B. Вы имеете в виду это: ** Я не смогу избавиться от информации о неправильном догадке предыдущих параметров A, B, как только начнется симуляция? ** – Ying
Да, это правильно, вы должны тщательно выбрать предыдущие параметры. Когда начнется симуляция, вы не сможете избавиться от своих плохих предположений. – Alex
Если у вас нет хорошего представления о параметрах, прежде чем вы начнете, вы можете выбрать неинформирующие приорты (https: //en.wikipedia.org/wiki/Prior_probability # Uninformative_priors) для A и B. Чтобы процитировать статью, связанную с «Простейшим и самым старым правилом для определения неинформативного предшествующего является принцип безразличия, который присваивает равные вероятности всем возможностям». поэтому установите A и B так, чтобы каждое значение A *, B * было равновероятным или, по крайней мере, как можно ближе к этому. – Alex