Описание тега dimension-reduction

1 ответ

Как решить из-за ошибки памяти?

Я делаю свой проект в OCR. Для этого я использую размер изображения 64x64, потому что, когда я пробовал 32x32 и т. Д., Некоторые пиксели теряются. Я пробовал такие функции, как зональная плотность, моменты Зернике, гистограмма проекции, профиль расс…
1 ответ

Способ отображения N-мерного вектора в точку

Я сталкиваюсь с проблемой с отображением, мне нужно отобразить N мерных векторов в одну группу / точку, как [0,1....N-1] в 1 | [1,2....N-1] до 2. Проблема в том, что сейчас у меня есть одна функция, которая получает вектор измерения и возвращает точ…
1 ответ

Как уменьшить размерность вектора

У меня есть набор векторов. Я работаю над тем, чтобы уменьшить n-мерный вектор до унарного значения (1-d), скажем, (x1,x2,....,xn) ------> y Это единственное значение должно быть характеристическим значением вектора. Каждый уникальный вектор созд…
0 ответов

Можно ли использовать локально линейное вложение для новых данных

В PCA мы всегда можем получить линейное преобразование, когда поступают новые данные, просто выполнить умножение матриц и получить преобразованные данные.Но в LLE я заметил, что wij вычисляется всеми точками данных X, когда приходят новые данные, ка…
02 мар '19 в 14:20
1 ответ

Использование функций без применения PCA

Предположим, что в наборе данных есть 8 функций. Я использую PCA и выясняю, что 99% информации находится в первых 3 функциях, используя совокупную сумму объясненного коэффициента дисперсии. Тогда зачем мне нужно приспосабливать и преобразовывать эти…
0 ответов

FeatureHashing в R данных для одного столбца?

Привет, у меня есть колонка с 1600 категориями. Я использую приведенную ниже ссылку в качестве ссылки для реализации в R. Где автор объясняет о хешировании функций для diag_1, diag_2, diag_3, Точно так же у меня есть столбец как SC где у меня 1600 ф…
3 ответа

Читать матрицу по столбцам в R

Я потратил много времени, пытаясь, но почему-то ничего не работает - и я думаю, что это легко для опытных пользователей R. Я получил Dataformat, где каждый элемент встречается так же. Сначала метка в виде строки, а затем 1000 числовых объектов, разд…
10 янв '14 в 09:28
1 ответ

После уменьшения размера с помощью SVD, что означает уменьшенный размер яркости?

Я не понимаю SVD на уровне алгоритма. Но я знаю, что люди используют это, чтобы уменьшить размерность. У меня есть две матрицы совпадений (размер 50 000 слов на 50 000 слов), в которых хранится информация о количестве использованных слов. Две матриц…
09 мар '18 в 21:25
1 ответ

Уменьшение размеров для логических массивов

У меня есть измерения 5 устройств в двух разных точках времени. Измерение в основном состоит из массива единиц и нулей, соответствующих значению бита в соответствующем местоположении: whos measurement1_dev1_time1 Name Size Bytes Class Attributes mea…
13 ноя '14 в 15:21
1 ответ

Matlab: одномерный интеграл для функции @(x,y,z)

Допустим y=2; z=4; f=@(x,y,z) x.^2+y.^2+z.^2; И я хочу интегрировать f для x в [0,1]. Кажется, я должен определить г и сделать квад (г,0,1) g=@(x) f(x,y,z); quad(g,0,1) Вопрос, который у меня есть, состоит в том, можно ли делать квад по прямой без о…
1 ответ

Уменьшение размеров посредством подпространственной кластеризации

Я пытаюсь написать фреймворк на Python для сравнения различных алгоритмов размерного сокращения, и я ищу учебник или реализацию, которая использует алгоритмы кластеризации подпространства, такие как TSC, SSC, SSC-OMP для этой цели. Есть некоторый Ко…
05 янв '19 в 15:31
1 ответ

Погоня за ортогональным соответствием

Я запускаю алгоритм поиска ортогонального соответствия в python и получаю следующее предупреждение: RuntimeWarning: Погоня за ортогональным соответствием преждевременно завершилась из-за линейной зависимости в словаре. Запрошенная точность может быт…
1 ответ

Как уменьшить размерность данных?

У меня есть набор из 25 изображений с ярлыком "Зараженный" и 25 изображений с ярлыком "Нормальный". Я пытаюсь извлечь коэффициенты, основанные на комплексном вейвлет-преобразовании двойного дерева, как функции для каждого из изображений.Мой код для …
0 ответов

Распознавание активности - уменьшение размеров для непрерывных HMM

Я новичок в HMM, но я пытался создать код, используя Jahmm для набора данных UCI Human Activity Recognition. Набор данных имеет 561 элемент и 7352 строки, а также включает инерционные значения xyz как акселерометра, так и гироскопа, и он в основном …
1 ответ

В обработке естественного языка (NLP), как вы делаете эффективное сокращение размера?

В НЛП всегда так, что размерность функций очень велика. Например, для одного проекта под рукой размерность объектов составляет почти 20 тысяч (p = 20000), а каждый объект представляет собой целое число 0-1, чтобы показать, представлено ли конкретное…
0 ответов

Различные признаки основных компонентов

Я реализовал PCA в Python. Я использовал MNIST-Data и сократил данные до 2d. После этого я использовал KNN для классификации данных. То же самое я повторил с Scikit. В результате у меня с моим PCA точность намного ниже. Я сравнил ПК и вижу, что приз…
0 ответов

SSVD для уменьшения размеров + кластеризация

Я запустил ssvd от mahout, чтобы применить LSA (скрытый семантический анализ). У меня есть текстовые документы, каждый из которых содержит много функций (от 100 до 2000 терминов). Я хотел бы использовать LSA на документах, чтобы получить главные тер…
0 ответов

Подтверждающий факторный анализ в Python

Есть ли пакет для выполнения подтверждающего факторного анализа в python? Я нашел несколько таких, которые могут выполнять исследовательский анализ факторов в python (scikitlearn, factor_analyzer и т. Д.), Но мне еще предстоит найти пакет, который в…
0 ответов

Сохраняется ли порядок точек данных при запуске MDS в Python (многообразие Склеарна)

У меня есть набор данных, в котором каждая точка данных представляет собой 10-мерный вектор, например: S.no | Feature-1 | Feature-2 | Feature-3 | .... | Feature-10 -----|-----------|-----------|-----------|------|----------- 1 | 20 | 5 | 45 |------|…
1 ответ

Почему в scikit-learn truncatedSVD по умолчанию используется "рандомизированный" алгоритм?

Я использовал truncatedSVD с размером матрицы 30000 на 40000 для термина-документа, чтобы уменьшить размерность до 3000, при использовании "рандомизированного", коэффициент дисперсии составляет около 0,5 (n_iter=10), при использовании "arpack", коэф…
23 апр '16 в 14:34