Точная настройка видеомоделей SOTA на вашем собственном наборе данных - язык жестов

Я пытаюсь реализовать классификатор знаков с использованием API-интерфейса gluoncv в рамках моего проекта в колледже на последнем курсе.

Набор данных: http://facundoq.github.io/datasets/lsa64/

Я следил за моделями видео SOTA по тонкой настройке в вашем собственном руководстве по набору данных и настраивал их. Учебник: https://cv.gluon.ai/build/examples_action_recognition/finetune_custom.html

  1. i3d_resnet50_v1_customГрафик точности I3D

  2. slowfast_4x16_resnet50_customГрафик точности Медленно Быстро

Построенный график показывает точность почти 90%, но когда я работаю над своим выводом, я получаю пропуски классификации даже на видео, которые я использовал для тренировок.

Так что я застрял, не могли бы вы дать какое-нибудь руководство, чтобы помочь вам в полной мере.

Спасибо

Мой загрузчик данных для I3D:

      num_gpus = 1
ctx = [mx.gpu(i) for i in range(num_gpus)]
transform_train = video.VideoGroupTrainTransform(size=(224, 224), scale_ratios=[1.0, 0.8], mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225])
per_device_batch_size = 5
num_workers = 0
batch_size = per_device_batch_size * num_gpus

train_dataset = VideoClsCustom(root=os.path.expanduser('DataSet/train/'),
                               setting=os.path.expanduser('DataSet/train/train.txt'),
                               train=True,
                               new_length=64,
                               new_step=2,
                               video_loader=True,
                               use_decord=True,
                               transform=transform_train)

print('Load %d training samples.' % len(train_dataset))
train_data = gluon.data.DataLoader(train_dataset, batch_size=batch_size,
                                   shuffle=True, num_workers=num_workers)

Вывод выполняется:

      from gluoncv.utils.filesystem import try_import_decord
decord = try_import_decord()

video_fname = 'DataSet/test/006_001_001.mp4'
vr = decord.VideoReader(video_fname)
frame_id_list = range(0, 64, 2)
video_data = vr.get_batch(frame_id_list).asnumpy()
clip_input = [video_data[vid, :, :, :] for vid, _ in enumerate(frame_id_list)]

transform_fn = video.VideoGroupValTransform(size=(224, 224), mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225])
clip_input = transform_fn(clip_input)
clip_input = np.stack(clip_input, axis=0)
clip_input = clip_input.reshape((-1,) + (32, 3, 224, 224))
clip_input = np.transpose(clip_input, (0, 2, 1, 3, 4))
print('Video data is readed and preprocessed.')

# Running the prediction
pred = net(nd.array(clip_input,  ctx = mx.gpu(0)))
topK = 5
ind = nd.topk(pred, k=topK)[0].astype('int')
print('The input video clip is classified to be')
for i in range(topK):
    print('\t[%s], with probability %.3f.'%
          (CLASS_MAP[ind[i].asscalar()], nd.softmax(pred)[0][ind[i]].asscalar()))

1 ответ

Я обнаружил свою ошибку, это происходит из-за меньшего количества дополнений, поэтому я изменил свое преобразование как в загрузчике данных поезда, так и в логическом выводе, как показано ниже, теперь он работает правильно.

      transform_train = transforms.Compose([
    # Fix the input video frames size as 256×340 and randomly sample the cropping width and height from
    # {256,224,192,168}. After that, resize the cropped regions to 224 × 224.
    video.VideoMultiScaleCrop(size=(224, 224), scale_ratios=[1.0, 0.875, 0.75, 0.66]),
    # Randomly flip the video frames horizontally
    video.VideoRandomHorizontalFlip(),
    # Transpose the video frames from height*width*num_channels to num_channels*height*width
    # and map values from [0, 255] to [0,1]
    video.VideoToTensor(),
    # Normalize the video frames with mean and standard deviation calculated across all images
    video.VideoNormalize([0.485, 0.456, 0.406], [0.229, 0.224, 0.225])
])
Другие вопросы по тегам