Описание тега autoencoder
Автоэнкодер, автоассоциатор или сеть Diabolo - это искусственная нейронная сеть, используемая для обучения эффективным кодам. Таким образом, он является частью алгоритмов уменьшения размерности.
1
ответ
Tensorflow Keras использует кодер и декодер отдельно в автоэнкодере
Я возиться с API Keras в тензорном потоке, пытаясь реализовать авто-кодер. Последовательная модель работает, но я хочу иметь возможность использовать кодер (первые два слоя) и декодер (последние два слоя) по отдельности, но с использованием весов мо…
27 июл '18 в 23:08
1
ответ
Функция python не работает в Tensorflow: tf.contrib.layers.apply_regularization
Моя функция: def groupl1(x): return tf.reduce_sum(tf.sqrt(tf.to_float(x.get_shape()[1])) * tf.sqrt(tf.reduce_sum(x ** 2, axis=1))) и когда я вставлю это в мой код: elif loss == 'rmse,gl': weightss=tf.trainable_variables() reg=tf.contrib.layers.apply…
28 июн '17 в 07:15
0
ответов
Вариационный автоэнкодер для двоичных столбцов
Какой слой мне нужно использовать исключительно для а) двоичных столбцов? [[ 0. 0. 1. 1. 0. 0. 0. 0. 0.] [ 0. 1. 0. 0. 1. 0. 0. 0. 0.] [ 0. 0. 0. 0. 0. 1. 1. 0. 0.] [ 0. 1. 0. 0. 0. 0. 0. 1. 0.] [ 0. 0. 0. 0. 0. 0. 0. 0. 1.]] и б) двоичные 90% и 10%…
16 дек '17 в 11:13
3
ответа
TensorFlow: Как встраивать последовательности с плавающей точкой в векторы фиксированного размера?
Я ищу методы для встраивания последовательностей переменной длины со значениями с плавающей точкой в векторы фиксированного размера. Входные форматы следующие: [f1,f2,f3,f4]->[f1,f2,f3,f4]->[f1,f2,f3,f4]-> ... -> [f1,f2,f3,f4] [f1,f2,f…
31 авг '17 в 09:29
1
ответ
Модификация вариационной архитектуры автоэнкодера с помощью функции активации SELU
В вариационной архитектуре авто-кодировщика мы использовали полностью связанный уровень mu и sigma. Затем за ними следует скрытый переменный слой, который осуществляет выборку из гауссовского распределения, то есть из мю и сигмы слоя ниже. А в функц…
10 июл '17 в 16:05
1
ответ
Как извлечь векторы пространственных объектов меньшего размера из шумоподобного сложенного автоэнкодера, используя python и tenorflow
Приведенный ниже код импортирует набор данных MNIST и обучает сложный шумоподавляющий автоэнкодер повреждать, кодировать, а затем декодировать данные. По сути, я хочу использовать это как метод нелинейного уменьшения размеров. Как я могу получить до…
17 ноя '17 в 22:39
1
ответ
Классификация с автоэнкодерами Keras
Я пытаюсь взять ванильный автоэнкодер с помощью Keras (с бэкэндом Tensorflow) и остановить его, когда значение потерь сходится к определенному значению. После последней эпохи я хочу использовать сигмовидную функцию для выполнения классификации. Вы б…
09 июл '17 в 15:07
0
ответов
Улучшить скорость сходимости автоэнкодера Keras
Я хочу обучить сверточный автоэнкодер на (довольно шумных) изображениях. Для этого я строю training_generator и validation_generator которые оба производят партии из 120 изображений. Я использую 111 партий в эпоху для обучения и 47 партий в эпоху дл…
16 сен '18 в 19:46
0
ответов
ValueError: Несоответствие формы: при использовании автоокодера Keras (Theano Backend)
Мои данные представляют собой (83,104) пандас. И мой первый (единственный) скрытый слой должен иметь 5 нейронов. Когда я написал свой код так: input_img = Input(shape=(104,)) # 104 dates as variable encoded = Dense(5, activation='relu')(input_img) d…
27 май '17 в 01:19
1
ответ
Результат размеров авто-кодировщика неверен
Используя приведенный ниже код, я пытаюсь закодировать изображение из mnist в представление более низкого измерения: import warnings warnings.filterwarnings('ignore') import numpy as np import matplotlib.pyplot as plt import pandas as pd from matplo…
07 фев '19 в 07:16
0
ответов
Какова роль гауссовского предварительного распределения в Adversarial Autoencoder?
Какова роль гауссовского предварительного распределения в Adversarial Autoencoder? В оригинальном GAN, Pdata (true) меняет реальный образ. но в AAE, почему они используют гауссово распределение p(z) вместо целевого dist. введите описание изображения…
26 ноя '18 в 01:47
0
ответов
Сверточный автоэнкодер обучается только на 1 канале
Мои данные имеют форму (100, 2, 2), и мой код учится на канале [:,:, 0], но не на канале [:,:, 1] Соответствующая часть моего кода Настроить self.encoder_input = tf.placeholder(tf.float32, input_shape, name='x') self.regularizer = tf.contrib.layers.…
05 авг '18 в 22:37
0
ответов
Функция стоимости в керасе
Как мне реализовать функцию стоимости сети типа autoencoder в кератах на основе меток базы данных. Примеры этой базы имеют метки 0 и 1. Я сделал форму, представленную ниже, я не знаю, если это правильно. def loss_function (x): def function(y_true, y…
15 авг '18 в 01:47
2
ответа
Вариационный автоэнкодер: должен ли кодер иметь такое же количество слоев, что и декодер?
Должен ли кодер иметь такое же количество слоев, как и декодер, в Variational Autoencoder? Я получил немного лучший результат с кодером (Dense): 54-10-5-3 и Decoder (Dense): 3-5-10-25-35-45-54
02 май '18 в 09:36
0
ответов
Как я могу получить слова из слоя bottelneak
У меня такой простой вопрос. Я работаю с предварительно подготовленным встраиванием перчаток, и я хочу уменьшить размер текстового набора данных с помощью глубокого автоэнкодера, чтобы работать только с уменьшенным измерением, например, для какой-то…
24 май '18 в 13:21
1
ответ
Невозможно сделать совместное использование параметров в Torch между [под] сетями
Я пытаюсь поделиться параметрами между подсетями / декодерами подсетей архитектуры с другим кодером / декодером в другой архитектуре. Это необходимо для моей проблемы, так как во время тестирования требуется много вычислений (и времени), чтобы выпол…
02 авг '16 в 15:56
1
ответ
Вариационный автоэнкодер: InvalidArgumentError: Несовместимые формы: [100,5] против [100]
Я пытаюсь запустить вариационный автоэнкодер с LSTM. Поэтому я заменяю dense слой с LSTM слой. Но это не работает. Это пример: # generate data data = generate_example(length = 560,seed=253) normal_data = data[1:400,:] fault_data = data[400:,:] times…
10 май '18 в 21:28
2
ответа
Приемы предварительной обработки данных для авто-кодировщика
В последнее время я пытаюсь использовать авто-кодировщик для поиска аномалий, но некоторые из входных функций - это данные подсчета (например, количество кликов или количество показов). Нужно ли нормализовать или масштабировать перед тренировкой?
28 июн '17 в 09:20
0
ответов
Может ли сверточный уровень кодирования и декодирования быть различным в сверточном авто-кодере
Например, у нас другой размер фильтра и номер карты объектов, а также число сверточных слоев также различны, скрытые единицы больше, чем входные единицы, конкретный код выглядит следующим образом. Я не знаю, называется ли это сверточным авто-кодером…
08 апр '18 в 12:06
1
ответ
Keras глубокий вариационный автоэнкодер
Я пытаюсь адаптировать пример Keras VAE для глубокой сети, добавив еще один слой. Оригинальный код: Оригинальный код VAE ИЗМЕНЕНИЯ: batch_size = 200 original_dim = 784 latent_dim = 2 intermediate_dim_deep = 384 # <<<<<<< interme…
05 авг '16 в 11:06