Последовательное моделирование для идентификации наблюдения.

Я пытаюсь идентифицировать человека по его походке, используя tf-openpose для оценки позы человека и lstm для фактической идентификации. И весь мой проект о системе наблюдения.

В каждом видеокадре оценщик позы человека оценивает координаты человека, формируя набор данных для модели LSTM. Набор данных представляет собой последовательность координат каждой конечности, соответственно временной метке кадра, плюс идентификатор человека (0 для одного человека, [0,1] для двух человек и т. Д.). Тогда я вручную маркирую человека. Я достиг точности ~60%, на очень маленьких данных, и теперь пытаюсь увеличить набор данных.

Проблема возникла, когда я попробовал оценить позу человека в случае двух человек. Их идентификаторы назначаются случайным образом, поэтому сгенерированная последовательность не имеет никакого значения.

Вот изображение небольшого подмножества данных

Итак, вот мой вопрос, как я могу алгоритмически назначить правильные идентификаторы для следующей последовательности.

Спасибо)

0 ответов

Другие вопросы по тегам