Описание тега linear-discriminant
1
ответ
Консоль R выдает данные независимо от ошибки, а приложение Shiny - не из-за ошибки. Как я могу обойти ошибку в приложении Shiny?
Когда я запускаю приведенный ниже код в консоли R, я получаю следующую ошибку в строке 10: "Ошибка в lda.default(x, grouping, ...): переменные 5 6 кажутся постоянными внутри групп" Однако остальная часть кода все еще обрабатывается и данные выводятс…
10 фев '17 в 15:54
0
ответов
Внедрить линейный дискриминантный анализ
Я пытаюсь реализовать LDA с нуля, используя эти заметки https://web.stanford.edu/class/stats202/content/lec9.pdf (стр. 34). Чтобы проверить мою реализацию, я сравниваю свои априоры, групповые средние значения и коэффициенты линейных дискриминантов с…
17 мар '18 в 00:50
1
ответ
Ошибка Python при использовании LDA в Sklearn
Я пытаюсь реализовать LinearDiscriminantAnalysis от sklearn для этого вот что я сделал до сих пор: from sklearn.discriminant_analysis import LinearDiscriminantAnalysis import numpy as np import pandas as pd # Reading csv file training_file = 'Traini…
02 июн '17 в 07:16
1
ответ
Сколько меток приемлемо перед использованием регрессии над классификацией
У меня есть проблема, когда я пытаюсь использовать контролируемое обучение в Python. У меня есть серия координат x,y, которые, как я знаю, принадлежат метке в одном наборе данных. В другом у меня только координаты x,y. Я собираюсь использовать один …
01 май '16 в 12:29
0
ответов
Классификация ошибок логистической регрессии
У меня есть вопрос, связанный с оценкой прогноза модели логистической регрессии. Я новичок в этом, поэтому, пожалуйста, потерпите меня. Сначала я покажу, что я сделал с LDA, потому что я хочу иметь подобный "уровень ошибочной классификации", когда я…
16 апр '17 в 21:53
0
ответов
MemoryError когда усадка =true для LinearDiscriminantAnalysis
В остальных сценариях алгоритм работает хорошо, кроме установки параметра усадки.Для повышения точности алгоритма я использую различные методики.В документе Scikit говорится, что использование усадки может улучшить точность. Я использую наборы данны…
03 янв '17 в 10:56
1
ответ
Требования линейного дискриминантного анализа
Я пытаюсь проанализировать разреженный набор данных, используя sklearn LDA (но не только этот, я также попробовал личную реализацию). Набор данных имеет 14 столбцов и несколько различное количество столбцов, которые я выбрал для проведения различных…
10 май '18 в 22:31
1
ответ
Как выполнить прогнозирование с помощью LDA (линейного дискриминанта) в scikit-learn?
Я проверял, насколько хорошо PCA и LDA работают для классификации 3 различных типов тегов изображений, которые я хочу автоматически идентифицировать. В моем коде X - это моя матрица данных, где каждая строка - это пиксели изображения, а y - это одно…
29 июн '15 в 04:47
0
ответов
Как выполнить LDA вручную, особенно вычисление апостериорных вероятностей
Может ли кто-нибудь показать, как выполнить LDA вручную на этом небольшом наборе данных? А также как получить апостериорные вероятности для данного класса. *(ради примера представим, что данные соответствуют всем необходимым предположениям, таким ка…
20 дек '17 в 13:40
1
ответ
Неправильное количество измерений при переключении между 2 групповой и более 2 групповой LDA в Shiny
Я учил себя, как делать блестящие приложения, включающие в себя исследовательские статьи, чтобы сделать методы более доступными для практиков. Я использую блестящий, чтобы сделать веб-приложение, которое выполняет анализ дискриминантной функции по о…
04 сен '16 в 22:11
0
ответов
Как обучить SVM с помощью LDA
Я использую C++ с OpenCV 3.0. У меня есть тренировочная матрица данных с функциями, которые я извлек из некоторых изображений (trainData). Размер этой матрицы составляет 2750x1104, потому что у меня есть 2750 изображений (положительных и отрицательн…
12 июл '16 в 16:01
2
ответа
Можно ли форсировать логистическую регрессию или другой классификатор по определенной вероятности?
У меня есть набор данных с двоичной переменной [Да / Нет] и непрерывной переменной (X). Я пытаюсь сделать модель для классификации [Да / Нет] X. Из моего набора данных, когда Х = 0,5, 48% наблюдений да. Тем не менее, я знаю, что истинная вероятность…
28 дек '16 в 21:57
1
ответ
Какой хороший выбор LDA или PCA для сокращения возможностей в контролируемой модели обучения?
PCA -> Неуправляемая модель или использование для контроля обучения. LDA -> контролирующая модель. Оба используются для сокращения возможностей. Какой тест LDA или PCA для контроля сокращения функций обучения и почему? Набор данных: Это очень извест…
19 май '18 в 09:35
2
ответа
Индекс вне границ при анализе LDA
Я пытаюсь запустить линейный дискриминантный анализ в R. Мой фрейм данных содержит две группы данных с размерами 102 и 24. Я запустил R-код следующим образом: mydata<-read.table() head(mydata) Factor TL SL FL HL HH EHH BH BW CL CH FNL DFH AFL AFH…
17 сен '17 в 08:59
0
ответов
Линейный дискриминантный анализ в питоне
Я делаю линейный дискриминантный анализ в Python, но у меня есть некоторые проблемы. Используя данное руководство, мы смогли рассчитать линейный дискриминантный анализ с использованием python и получили график, подобный следующему: Используя этот ко…
10 мар '18 в 11:18
0
ответов
Мой полу-контролируемый линейный дискриминантный анализ не работает вообще
Я работаю над LDA (линейный дискриминантный анализ), и вы можете обратиться к http://www.ccs.neu.edu/home/vip/teach/MLcourse/5_features_dimensions/lecture_notes/LDA/LDA.pdf. Моя идея о полууправляемом LDA: я могу использовать помеченные данные $X\in…
09 фев '17 в 15:36
0
ответов
Обзор линейного и квадратичного дискриминантного анализа (LDA-QDA)
Я спрашиваю, есть ли обзор линейного дискриминантного анализа (LDA) и квадратичного дискриминантного анализа (QDA). Кроме того, есть ли какие-либо документы, использующие тест Бокса М для проверки неоднородности ковариационных матриц, и они обнаружи…
01 дек '18 в 22:08
1
ответ
Линейный дискриминантный анализ против наивного байесовского
Каковы преимущества и недостатки LDA против Наивного Байеса с точки зрения классификации машинного обучения? Я знаю, что некоторые из различий, таких как Наивный Байес, предполагают, что переменные являются независимыми, в то время как LDA предполаг…
25 сен '17 в 01:50
0
ответов
График осыпания для LDA с использованием Candisc в R
Я пытаюсь выполнить канонический дискриминантный анализ, используя candisc в R. Цель состоит в том, чтобы различать 2 уровня факторной переменной, основанной на более чем 70 количественных переменных. Функция candisc в R генерирует 1 дискриминант по…
22 июл '18 в 13:47
1
ответ
Кластеризация среднего сдвига Python для массива комплексных чисел
Я унаследовал некоторый код, который был написан около года назад, поэтому я думаю, что тогда он использовал numpy 1.13 (сейчас v1.15.2), scipy 1.00rc (сейчас v1.1.0) и sklearn 0.19 (сейчас v.0.20).0). Он реализует LDA Фишера, чтобы уменьшить n- мер…
02 окт '18 в 21:24