Описание тега regularized

Regularization involves introducing additional information in order to solve an ill-posed problem or to prevent over-fitting by shrinking the parameters of the model stay close to zero
0 ответов

Лямбда не работает для упругой регрессии в карете

lm6control <- trainControl(method = "repeatedcv", number = 2, repeats = 3) lm6grid <- expand.grid(alpha = seq(0, 1, 0.1), lambda = c(0, 0.00001, 0.0001, 0.001, 0.01, 0.1, 0.2, 0.5, 1)) lm6 <- train(form = FACE ~ ., data = termlife.insured.t…
29 ноя '18 в 15:40
1 ответ

Выпадающий слой идет до или после плотного слоя в TensorFlow?

Согласно Руководству по слоям TF выпадающий слой идет после последнего плотного слоя: dense = tf.layers.dense(input, units=1024, activation=tf.nn.relu) dropout = tf.layers.dropout(dense, rate=params['dropout_rate'], training=mode == tf.estimator.Mod…
0 ответов

Прогнозирование с использованием слоя Keras Timedistributed

Я пытаюсь смоделировать два временных ряда одновременно, используя Keras с LSTM и слой Timedistributed. Данные, которые я рассматриваю, представляют собой регрессионную установку с двумя косинусоидальными волнами с добавленным гауссовским шумом. Одн…
14 мар '17 в 08:36
0 ответов

Хорошее MSE не означает хороший прогноз в логистической регрессии?

Я пишу код для упорядоченной логистической регрессии. Я наблюдаю это интересное явление и задаюсь вопросом, нормально ли это или просто мой код неверен. Для функции потерь я использую функцию логистических потерь (максимизирую вероятность двоичных п…
12 авг '14 в 15:43
1 ответ

Регуляризованный градиентный спуск Python для логистической регрессии

Я пытаюсь реализовать Gradient Descent (GD) (не стохастический) для логистической регрессии в Python 3x. И есть некоторые проблемы. Логистическая регрессия определяется следующим образом (1): формула логистической регрессии Формулы для градиентов оп…
1 ответ

Назначение значений местоположения на основе даты и времени второго набора данных

У меня есть 2 кадра данных: 1 - это последовательность местоположений GPS с соответствующими датами и временем (POSIXct) GPS <- data.frame(Lat=c(58.65209, 58.65183, 58.65142, 58.65129, 58.65126, 58.65124, 58.65122, 58.65119, 58.65117, 58.65115), …
10 ноя '16 в 14:15
1 ответ

Как можно использовать регуляризацию в TensorFlow-Slim?

Я хочу использовать регуляризацию в моем коде. Я использовал slim для создания conv2d следующим образом: slim.conv2d(input, 256, [1, 1], stride=1, padding='SAME', scope='conv1') Как я могу добавить регуляризацию к этому? и как я могу использовать ег…
01 сен '16 в 06:55
0 ответов

Как упорядочить перехват с glmnet

Я знаю, что glmnet не регулирует перехват по умолчанию, но я все равно хотел бы это сделать. Я взглянул на этот вопрос и попытался сделать то, что предложил Уубер (добавив постоянную переменную и повернув параметр intercept в FALSE), но в результате…
0 ответов

Поддерживает ли scikit-learn общую регуляризацию Тихонова в своих модулях Риджа?

Используя обозначения из Википедии, кажется, что модули хребта scikit-learn используют кратную единичную матрицу в качестве гамма-матрицы Тихонова. Поэтому матрица Тихонова задается одним значением альфа. В результате все коэффициенты штрафуются рав…
3 ответа

Регуляризованный код логистической регрессии в Matlab

Я пробую свои силы в регуляризованном LR, просто с этой формулой в Matlab: Функция стоимости: J(theta) = 1/m*sum((-y_i)*log(h(x_i)-(1-y_i)*log(1-h(x_i))))+(lambda/2*m)*sum(theta_j) Градиент: ∂J(theta)/∂theta_0 = [(1/m)*(sum((h(x_i)-y_i)*x_j)] if j=0…
1 ответ

Как использовать glmnet без регуляризации

Я читал, что glmnet можно использовать без регуляризации, то есть его можно использовать как обычный glm. Я пишу тезис и пытаюсь избежать использования множества различных пакетов, поэтому было бы удобно использовать glmnet для регулярной подгонки л…
06 май '15 в 10:52
2 ответа

TensorFlow: как изменить keep_prob для Dropout без использования feed_dict

Я построил модель TensorFlow, которая работает с пакетами обучения и тестирования, предоставляемыми входными очередями. Таким образом, я не предоставляю данные для обучения в явном виде, используя стандартный feed_dict. Тем не менее, мне нужно реали…
10 сен '17 в 13:56
1 ответ

Реализация регрессии LASSO без библиотек Python

Я новичок в Python и серьезно ищу реализацию LASSO на Python без использования библиотек Python (например, sklearn и т. Д.) Я особенно заинтересован в этом, чтобы помочь мне понять, как основополагающая математика переводит в код Python. С этой цель…
1 ответ

Vowpal Wabbit хеш-коллизия работает лучше, чем L1 как регуляризация

У меня есть модель классификации VW, которую я хотел проверить на количество признаков и количество коллизий хешей. Я обучил его и протестировал на разных наборах данных. Наборы данных содержат более 400 тыс. Функций, поэтому с 18-битным пространств…
0 ответов

Эластичная чистая регрессия

Я только начал использовать пакет GLM Net для создания Penalized GLM Models. Я просто экспериментировал с различными значениями альфа и лямбда и их влиянием на параметры. Я просто пытался развить интуицию о том, как должны выглядеть параметры, если …
15 фев '19 в 06:33
1 ответ

Почему количество наблюдений уменьшается при использовании model.matrix в регрессии гребня?

Я использую пакет glmnet в R для регрессии гребня. Я примерил набор данных Hitters из пакета ISLR. Проблема в том, что когда я использую model.matrix для создания матрицы проекта, количество наблюдений уменьшается по неизвестной причине. Это код. li…
24 фев '19 в 17:33
3 ответа

Почему существует необходимость использования регуляризации в задачах машинного обучения?

Это может показаться глупым вопросом, но я просто не могу придумать разумный ответ. Говорят, что регуляризация может помочь нам получить простые модели, а не сложные, чтобы избежать чрезмерного соответствия. Но для задачи линейной классификации: f(x…
0 ответов

Логистическая регрессия - Точность и Напоминание показывают одинаковое поведение с различной регуляризацией?

Я выполнил поиск по сетке по параметру C модели логистической регрессии sklearn. На рисунке показаны мои результаты. Но я не понимаю, почему отзыв и точность показывают одинаковое поведение. Разве точность не должна быть низкой, а отзыв - высоким, е…
1 ответ

Какой вид регуляризации использует регуляризацию L2 или отсев в multiRNNCell?

Я работал над проектом, связанным с последовательным и автоматическим кодировщиком последовательностей для прогнозирования временных рядов. Итак, я использовал tf.contrib.rnn.MultiRNNCell в кодере и декодере. Я запутался в том, какая стратегия испол…
23 апр '18 в 18:21
1 ответ

Стратегия регуляризации в Керасе

Я пытаюсь настроить задачу нелинейной регрессии в Керасе. К сожалению, результаты показывают, что происходит переоснащение. Вот код, model = Sequential() model.add(Dense(number_of_neurons, input_dim=X_train.shape[1], activation='relu', kernel_regula…
11 янв '18 в 02:52