Описание тега markov
Марковское, или марковское свойство, относится к свойству без памяти случайного процесса.
0
ответов
Скрытая модель Маркова: текущее наблюдение зависит от предыдущего наблюдения
Этот вопрос относится к случаю однородных дискретных HMM. В обычных HMM вероятность текущего состояния зависит только от предыдущего состояния, то есть Pr(S_t|S_1,S_2,...,S_(t-1)) = Pr(S_t|S_(t-1)), а вероятность выходного наблюдения зависит от теку…
24 окт '17 в 04:35
2
ответа
Как работает цепь Моркова и что такое отсутствие памяти?
Как работают цепи Маркова? Я прочитал Википедию для Марковской Цепи, но то, что я не получаю, это отсутствие памяти. Без памяти утверждает, что: Следующее состояние зависит только от текущего состояния, а не от последовательности событий, предшество…
15 дек '13 в 14:26
1
ответ
Степ-функция Маркова
Не пугайся моего длинного кода. Что мне интересно, так это о последней части, сюжете (пошаговое развлечение... часть. Когда я ввожу это в Rstudio, я получаю "stepfun "x"нужно все чаще заказывать" Есть ли здесь кто-нибудь, кто знает, что я должен сде…
17 июл '16 в 17:37
0
ответов
Как сделать вывод функции в матрицу
Я довольно новичок в R, так что это проблема, с которой я сталкиваюсь как проблема. В настоящее время я использую цепь Маркова с 1-й итерации до 45-й. Мне нужно использовать последующую итерацию n и n+1 в такой функции: bk<-function(n)((B[(n+1)]-…
11 мар '18 в 17:26
2
ответа
Библиотеки Python для онлайн-машинного обучения MDP
Я пытаюсь изобрести агента итеративного процесса принятия решений (MDP) в Python со следующими характеристиками: наблюдаемое состояниеЯ обрабатываю потенциальное "неизвестное" состояние, резервируя некоторое пространство состояний для ответа на ходы…
05 фев '12 в 02:15
1
ответ
Q-обучение против временной разницы против обучения на основе модели
Я в курсе под названием "Интеллектуальные машины" в университете. Мы познакомились с 3 методами усиленного обучения, и с теми, которые нам дали интуицию, когда их использовать, и я цитирую: Q-Learning - лучше всего, когда MDP не может быть решена. И…
09 дек '15 в 14:17
2
ответа
Чтение в hashmap в C++
Я работаю над цепью Маркова и создал двумерную хэш-карту, которая вычисляет взвешенные вероятности. Вывод этого работает отлично. Я ищу, чтобы найти лучший способ вывести следующее значение. То, что у меня сейчас есть, не работает должным образом. E…
30 мар '17 в 22:39
1
ответ
R Марковская цепочка пакетов, можно ли задать координаты и размеры узлов?
Я работаю с R в некоторых проблемах биологии и поведения, и у меня есть переходная матрица, которую я хочу построить определенным образом. Я использую markovchain пакет, который облегчает визуализацию. Это тест-код и его вывод. > a<-array(0.25…
04 апр '17 в 11:02
0
ответов
Цепочка Маркова: для метода Bootstrap в функции markovchainFit значение вероятности равно бесконечности, хорошо?
Я создал матрицу Transistion, используя markovchainFit с методом Bootstrap вместе с nboot = 10 сэмплов. Моя последовательность данных library("markovchain") sequence=c(1400,1500,500,600,700,2000,1500,700,700,700,700,900,1500,700,1200,1200,2300,700,1…
18 дек '18 в 22:35
0
ответов
Имитация переходов между состояниями в R
Итак, у меня есть таблица данных, содержащая около 100 строк данных, каждая из которых представляет отдельного человека. И для каждого человека их вероятности перехода к четырем различным состояниям перечислены в столбцах. У меня есть фрагмент табли…
29 сен '17 в 11:22
2
ответа
Марковская энтропия при вероятностях неравномерных
Я думал об информационной энтропии с точки зрения уравнения Маркова: H = -SUM (p (i) lg (p (i)), где lg - логарифм основания 2. Это предполагает, что все выборы у меня имеют равную вероятность. Но что, если вероятность в данном наборе вариантов нера…
24 май '12 в 12:38
0
ответов
Имитация искусственной последовательности изменения состояния из подогнанной полумарковской модели в R
У меня есть последовательность поведенческих состояний (для одного движущегося животного), каждое из которых имеет соответствующую длительность, и я заинтересован в создании синтетической последовательности состояний, которая сохраняет свойства ориг…
31 янв '16 в 14:13
1
ответ
Скрытая марковская модель для классификации
Я использую скрытую марковскую модель для задач классификации. Мне нужно изучить влияние количества скрытых состояний и количества видимых состояний на производительность классификатора? Исходя из моих результатов, увеличение количества скрытых или …
28 апр '17 в 21:21
1
ответ
Как рассчитывается оптимальная политика для текущих утилит?
Экзаменационные решения Я изучаю Марковский процесс принятия решения и для 6-го вопроса экзамена (см. Ссылку, прикрепленную выше) я понимаю, как полезность рассчитывается, когда после действия получается то же состояние (часть а Вопроса 6). J*(cool…
10 янв '15 в 15:23
0
ответов
Что делает "главная" функция в markov.c?
Вот код с комментариями, которые я добавил, пытаясь выяснить, что он делает: int main() { int i, wordsleft = 10000, l, m, u; char *phrase, *p; word[0] = inputchars; // (1) --------------------------------------------------------------------- while (…
24 окт '17 в 21:11
0
ответов
Модель gmrf для изображений
Кто-нибудь может объяснить, как параметры модели GMRF могут быть оценены для изображения с использованием MATLAB? Я пробовал наборы инструментов, такие как UGM.(Http://www.di.ens.fr/~mschmidt/Software/UGM/trainMRF.html)
02 янв '13 в 13:18
0
ответов
Модель цепей Маркова в R: возвращает значение конверсии 0
Я запускаю модель цепи Маркова в R с примерами данных ниже: Есть явно конверсионные ценности. Однако, когда я проверяю вывод модели, значения преобразования равны нулю. Знаете ли вы, что произошло в процессе и как я могу это исправить? Спасибо!
16 июл '18 в 20:39
1
ответ
Как рассчитать функцию вероятности массы случайной величины по модулю N, где N - простое число?
Я пытаюсь решить следующую математическую задачу: Рыцарь в стандартных международных шахматах сидит на доске следующим образом 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 Конь начинает с квадрата "0" и совершает прыжки на другие квадраты в соответствии с …
26 окт '17 в 16:09
1
ответ
Интуиция за итерацией политики в мире сетки
Я должен придумать агент MDP, который использует итерацию политики и итерацию значения для назначения, и сравнить его производительность со значением полезности состояния. Как агент MDP, учитывая, что он знает вероятности и награды перехода, знает, …
29 окт '12 в 00:20
1
ответ
Пакет R 'MSwM' имеет противоречивый результат
mod.mswm<- msmFit (lm (y ~ x), k = 2, p = 1, sw = rep (T, 4), control = список (maxiter = 700, параллельный = F)) сводка (mod.mswm) У меня есть противоречивый результат в этом г пакетов.. Первый запуск -> режим 1 = "оценка = 0,05" regime 2 = "estima…
20 дек '13 в 03:49