Векторное квантование LBG - коэффициент разделения
Сейчас делаю программу для распознавания речи. На этапе создания кодовой книги с использованием алгоритма LBG (Linde-Buzo-Gray) я читал, что коэффициент разделения epsilon = 0,01 (обычно)
Коэффициент разделения используется для разделения центроида речевых признаков (обучающей выборки) по формулам
Yn+ = Yn*(1+ эпизод)
Yn- = Yn*(1-эпсилон)
где n - индексы данного кодового слова / центроида, подлежащего разделению, а Yn - кодовое слово.
Кроме того, после того, как кодовая книга сгенерирована, ближайшие соседи ищутся для каждого вектора речевых характеристик (обучающий набор), и центроиды обновляются (в основном, кластеризация характеристик). Это делается до тех пор, пока искажение кодовой книги не станет меньше эпсилон.
Хотя моя программа, похоже, работает нормально, мне интересно узнать, почему коэффициент разделения обычно устанавливается равным 0,01.
Любая помощь приветствуется. Я впервые работаю с кодовыми книгами и векторным квантованием.