Описание тега dimension-reduction
1
ответ
Как решить из-за ошибки памяти?
Я делаю свой проект в OCR. Для этого я использую размер изображения 64x64, потому что, когда я пробовал 32x32 и т. Д., Некоторые пиксели теряются. Я пробовал такие функции, как зональная плотность, моменты Зернике, гистограмма проекции, профиль расс…
07 май '13 в 06:22
1
ответ
Способ отображения N-мерного вектора в точку
Я сталкиваюсь с проблемой с отображением, мне нужно отобразить N мерных векторов в одну группу / точку, как [0,1....N-1] в 1 | [1,2....N-1] до 2. Проблема в том, что сейчас у меня есть одна функция, которая получает вектор измерения и возвращает точ…
09 июн '16 в 02:04
1
ответ
Как уменьшить размерность вектора
У меня есть набор векторов. Я работаю над тем, чтобы уменьшить n-мерный вектор до унарного значения (1-d), скажем, (x1,x2,....,xn) ------> y Это единственное значение должно быть характеристическим значением вектора. Каждый уникальный вектор созд…
15 апр '13 в 15:58
0
ответов
Можно ли использовать локально линейное вложение для новых данных
В PCA мы всегда можем получить линейное преобразование, когда поступают новые данные, просто выполнить умножение матриц и получить преобразованные данные.Но в LLE я заметил, что wij вычисляется всеми точками данных X, когда приходят новые данные, ка…
02 мар '19 в 14:20
1
ответ
Использование функций без применения PCA
Предположим, что в наборе данных есть 8 функций. Я использую PCA и выясняю, что 99% информации находится в первых 3 функциях, используя совокупную сумму объясненного коэффициента дисперсии. Тогда зачем мне нужно приспосабливать и преобразовывать эти…
10 июл '17 в 17:58
0
ответов
FeatureHashing в R данных для одного столбца?
Привет, у меня есть колонка с 1600 категориями. Я использую приведенную ниже ссылку в качестве ссылки для реализации в R. Где автор объясняет о хешировании функций для diag_1, diag_2, diag_3, Точно так же у меня есть столбец как SC где у меня 1600 ф…
14 ноя '17 в 20:47
3
ответа
Читать матрицу по столбцам в R
Я потратил много времени, пытаясь, но почему-то ничего не работает - и я думаю, что это легко для опытных пользователей R. Я получил Dataformat, где каждый элемент встречается так же. Сначала метка в виде строки, а затем 1000 числовых объектов, разд…
10 янв '14 в 09:28
1
ответ
После уменьшения размера с помощью SVD, что означает уменьшенный размер яркости?
Я не понимаю SVD на уровне алгоритма. Но я знаю, что люди используют это, чтобы уменьшить размерность. У меня есть две матрицы совпадений (размер 50 000 слов на 50 000 слов), в которых хранится информация о количестве использованных слов. Две матриц…
09 мар '18 в 21:25
1
ответ
Уменьшение размеров для логических массивов
У меня есть измерения 5 устройств в двух разных точках времени. Измерение в основном состоит из массива единиц и нулей, соответствующих значению бита в соответствующем местоположении: whos measurement1_dev1_time1 Name Size Bytes Class Attributes mea…
13 ноя '14 в 15:21
1
ответ
Matlab: одномерный интеграл для функции @(x,y,z)
Допустим y=2; z=4; f=@(x,y,z) x.^2+y.^2+z.^2; И я хочу интегрировать f для x в [0,1]. Кажется, я должен определить г и сделать квад (г,0,1) g=@(x) f(x,y,z); quad(g,0,1) Вопрос, который у меня есть, состоит в том, можно ли делать квад по прямой без о…
29 авг '12 в 23:34
1
ответ
Уменьшение размеров посредством подпространственной кластеризации
Я пытаюсь написать фреймворк на Python для сравнения различных алгоритмов размерного сокращения, и я ищу учебник или реализацию, которая использует алгоритмы кластеризации подпространства, такие как TSC, SSC, SSC-OMP для этой цели. Есть некоторый Ко…
05 янв '19 в 15:31
1
ответ
Погоня за ортогональным соответствием
Я запускаю алгоритм поиска ортогонального соответствия в python и получаю следующее предупреждение: RuntimeWarning: Погоня за ортогональным соответствием преждевременно завершилась из-за линейной зависимости в словаре. Запрошенная точность может быт…
30 июл '16 в 14:18
1
ответ
Как уменьшить размерность данных?
У меня есть набор из 25 изображений с ярлыком "Зараженный" и 25 изображений с ярлыком "Нормальный". Я пытаюсь извлечь коэффициенты, основанные на комплексном вейвлет-преобразовании двойного дерева, как функции для каждого из изображений.Мой код для …
22 сен '15 в 20:12
0
ответов
Распознавание активности - уменьшение размеров для непрерывных HMM
Я новичок в HMM, но я пытался создать код, используя Jahmm для набора данных UCI Human Activity Recognition. Набор данных имеет 561 элемент и 7352 строки, а также включает инерционные значения xyz как акселерометра, так и гироскопа, и он в основном …
14 мар '14 в 19:15
1
ответ
В обработке естественного языка (NLP), как вы делаете эффективное сокращение размера?
В НЛП всегда так, что размерность функций очень велика. Например, для одного проекта под рукой размерность объектов составляет почти 20 тысяч (p = 20000), а каждый объект представляет собой целое число 0-1, чтобы показать, представлено ли конкретное…
21 ноя '14 в 00:35
0
ответов
Различные признаки основных компонентов
Я реализовал PCA в Python. Я использовал MNIST-Data и сократил данные до 2d. После этого я использовал KNN для классификации данных. То же самое я повторил с Scikit. В результате у меня с моим PCA точность намного ниже. Я сравнил ПК и вижу, что приз…
14 ноя '18 в 08:55
0
ответов
SSVD для уменьшения размеров + кластеризация
Я запустил ssvd от mahout, чтобы применить LSA (скрытый семантический анализ). У меня есть текстовые документы, каждый из которых содержит много функций (от 100 до 2000 терминов). Я хотел бы использовать LSA на документах, чтобы получить главные тер…
02 апр '15 в 12:42
0
ответов
Подтверждающий факторный анализ в Python
Есть ли пакет для выполнения подтверждающего факторного анализа в python? Я нашел несколько таких, которые могут выполнять исследовательский анализ факторов в python (scikitlearn, factor_analyzer и т. Д.), Но мне еще предстоит найти пакет, который в…
24 янв '19 в 13:00
0
ответов
Сохраняется ли порядок точек данных при запуске MDS в Python (многообразие Склеарна)
У меня есть набор данных, в котором каждая точка данных представляет собой 10-мерный вектор, например: S.no | Feature-1 | Feature-2 | Feature-3 | .... | Feature-10 -----|-----------|-----------|-----------|------|----------- 1 | 20 | 5 | 45 |------|…
18 июл '18 в 17:41
1
ответ
Почему в scikit-learn truncatedSVD по умолчанию используется "рандомизированный" алгоритм?
Я использовал truncatedSVD с размером матрицы 30000 на 40000 для термина-документа, чтобы уменьшить размерность до 3000, при использовании "рандомизированного", коэффициент дисперсии составляет около 0,5 (n_iter=10), при использовании "arpack", коэф…
23 апр '16 в 14:34