Как использовать двоичный RBM для глубокого обучения с Tanh
Я понимаю, что нам нужно использовать разные типы скрытых модулей, отличных от двоичных, если мы имеем дело с выпрямителем, непрерывным вводом и т. Д. В RBM. Теперь предположим, что RBM используется в качестве отправной точки для контролируемого глубокого обучения, а как насчет активной активации? Можем ли мы установить двоичную сигмовидную RBM и использовать обученные веса в качестве отправной точки для нейронной сети с функцией активации Тан? По сути, tanh - это сигма с измененным масштабом, которая находится в двоичном RBM, я думаю, это выполнимо? Если да, то как именно?
Спасибо