В модели LDA, как мультиномиальные параметры (тета) взяты из предыдущего веса Дирихле (альфа)?
Я новичок, который в настоящее время изучает модель LDA (скрытого распределения дирихле). Но я столкнулся с проблемой.
Как тета берется из альфы?
тета ~ дир(альфа)
Согласно моему короткому пониманию, переменная theta - это вектор с длиной K, а ее компоненты представляют пропорции темы в документе. И тэты отличаются друг от друга для каждого документа. И на уровне корпуса альфа по-прежнему является K-вектором, тогда как тэта представляет собой матрицу размера M(количество документов) по K(число тем).
Первый вопрос: что я упомянул выше, правда?
Второй вопрос: если это правда, по документам, как можно получить различные тэты (K-векторы) из одного и того же распределения Дирихле?
1 ответ
Первый ответ: да, вы совершенно правы.
Второй ответ: альфа - это K-вектор, как вы упомянули. Когда мы берем выборку из распределения Дирихле, мы получаем другой K-вектор. Сами значения будут зависеть от значений альфа, но все они равны 1 (именно так их можно считать пропорциями всех тем в одном документе). Мы выбираем один раз для каждого документа, чтобы получить M векторов - вот так мы получаем тэту матрицы MxK.
Длина вектора, который мы получаем из выборки распределения Дирихле, зависит от длины его параметра альфа.