Описание тега multi-gpu
Это относится к одному приложению, использующему несколько графических процессоров, либо в традиционных (графических), либо в приложениях общего назначения (GPGPU).
1
ответ
Могу ли я использовать в CUDA atomic-операции на удаленном GPU-RAM через GPUDirect 2.0 P2P?
Например, я могу использовать атомарные операции CUDA atomicAdd(ptr, val), atomicCAS(ptr, old, new),... на его глобальной памяти (GPU-RAM). С CUDA 6.5. Но могу ли я использовать эти атомарные операции для удаленной глобальной памяти через GPUDirect …
18 янв '15 в 18:47
0
ответов
4-1080Ti не ускоряют программу в pytorch
Я тестирую CondenseNet в 1 1080Ti против 4 1080Ti, это мой результат теста: 1 1080Ti 4-1080Ti Я просто меняю размер пакета с 32 на 128, набор данных и модель совпадают. почему время составляет 300 мс / партия в 4 1080Ti вместо 80 мс. Когда я увеличи…
27 сен '18 в 13:49
1
ответ
Не удалось инициализировать драйвер Cuda
У меня есть система с двумя графическими процессорами, Geforce 8400 GS и Geforce GT 520. Я могу запускать свои программы cuda на обоих графических процессорах. Но когда я использую cuda-gdb для их отладки, я получаю сообщение о том, что Cuda driver …
11 сен '12 в 15:33
2
ответа
Бесшовная многоэкранная визуализация OpenGL с неоднородной конфигурацией нескольких графических процессоров в Windows XP
В Windows XP (64-битной) кажется невозможным рендерить с OpenGL на два экрана, подключенных к разным видеокартам с разными графическими процессорами (например, два NVIDIA разных поколений). В этом случае происходит то, что рендеринг работает только …
01 сен '11 в 10:55
1
ответ
Python: Как мы распараллеливаем программу на python, чтобы использовать преимущества GPU-сервера?
В нашей лаборатории у нас есть графический ускоритель NVIDIA Tesla K80 со следующими характеристиками: Intel(R) Xeon(R) CPU E5-2670 v3 @2.30GHz, 48 CPU processors, 128GB RAM, 12 CPU coresработает под Linux 64-битной. Я запускаю следующий код, которы…
11 авг '17 в 20:35
1
ответ
Кафе вылетает после первой итерации?
Кафе падает, когда я тренирую сеть. Решатель и модель. В этом случае я использовал только графический процессор 0. Вот ошибка трассировки: build/tools/caffe train -solver models/mv16f/solver.prototxt -gpu 0 I0113 14:21:05.861361 85242 solver.cpp:289…
13 янв '16 в 14:42
2
ответа
Keras Stateful LSTM multi-gpu error Несовместимые формы: [2540] против [508] умноженного размера партии купить nGPU
У меня была та же проблема, но когда я попытался применить то же самое исправление, я столкнулся с другой ошибкой. Я однако работаю на 5 GPU. Я читал, что вам нужно убедиться, что ваши образцы делятся как на количество партий, так и на количество gp…
10 ноя '17 в 00:13
2
ответа
TensorFlow для MultiGPU
Если кто-то может помочь мне понять ситуацию, было бы здорово. Заранее спасибо. Моя установка: ОС: Ubuntu 16.04, 2 графических процессора Titan X. TensorFlow (версия 0.12.1) устанавливается в среде conda с использованием pip, как и в документах TF. …
03 янв '17 в 17:44
0
ответов
keras multi gpu error (Вы имели в виду установить reuse=True в VarScope?)
Когда я использую keras для обучения моей модели на нескольких графических процессорах, используя parallel_model = multi_gpu_model(model, gpus=8) произошла следующая ошибка: Ошибка ValueE: переменная stage2/block1/bn_gconv_1/moving_mean/ смещена уже…
16 май '18 в 10:34
1
ответ
Могу ли я использовать две карты NVIDIA GPU в системе без поддержки SLI для вычислений CUDA?
Моя текущая система для приложений CUDA имеет одну старую карту NVIDIA, 8800 GTX. Я подумываю добавить еще одну карту без обновления материнской платы. Правда ли, что пока у меня есть два слота PCI-E, оба будут работать? Или я должен купить новую ма…
18 янв '11 в 01:37
0
ответов
Модель Keras Multi GPU медленно
Я пытаюсь multi_gpu_model в керасе. Версия multi-gpu всегда медленнее, чем single-gpu, за исключением примера Xception. with tf.device('/cpu:0'): model = Xception(weights=None, input_shape=(height, width, 3), classes=num_classes) parallel_model = mu…
17 июн '18 в 21:50
0
ответов
Распределенное обучение в учебнике по Tensorflow seq2seq
Я следовал учебному пособию по модулю Tensorflow seq2seq, в частности, по Neural Machine Translation: https://google.github.io/seq2seq/nmt/ Он работает, за исключением того, что он использует только один графический процессор из двух доступных (клас…
07 июн '17 в 17:14
1
ответ
Использование графических процессоров Nvidia * и * AMD в Ubuntu 14.04, 64-битная версия для разработки OpenCL
Я пытаюсь заставить AMD и NVidia GPU работать на одном и том же ПК Ubuntu 14.04 для параллельной разработки OpenCL на обоих. Я добился этого с помощью Ubuntu 12.04 и информации, представленной здесь и здесь. К сожалению, то, что я сделал тогда, боль…
29 янв '15 в 09:23
2
ответа
Несколько графических процессоров Tesla K80 и парфор петли
Я получил компьютер с Tesla K80 от 4xGPU, и я пытаюсь использовать циклы parfor из Matlab PCT, чтобы ускорить вычисления FFT, и это все еще медленнее. Вот что я пытаюсь: % Pupil is based on a 512x512 array parfor zz = 1:4 gd = gpuDevice; d{zz} = gd.…
07 сен '16 в 01:42
1
ответ
Есть ли способ самостоятельно задавать и использовать разнородные мульти GPU в системе Windows 7?
Могу ли я иметь два смешанных чипсета / поколения AMD GPU на моем рабочем столе; 6950 и 4870, и выделите один графический процессор (4870) только для целей opencl/gpgpu, исключив устройство из видеовыхода или показа движущей силы ОС, позволяя 4870 о…
04 авг '11 в 08:58
1
ответ
CudaMemcpy и cublas блокируются в одноранговом режиме?
Я хотел бы скопировать память между двумя устройствами CUDA (с поддержкой UVA), вызвав cudaMemcpy, Мне было интересно, если вызов является синхронным по отношению к хосту? Я знаю что cudaMemcpy внутри одного устройства происходит асинхронность, но к…
14 мар '14 в 15:37
1
ответ
Параллельное матричное умножение с использованием нескольких графических процессоров
Я установил два графических процессора (2x Nvidia Quadro 410) в мою систему в разных слотах PCI. Чтобы решить умножение Martix на обоих этих графических процессорах, как я могу разделить входные матрицы так, чтобы каждый графический процессор обраба…
05 май '16 в 04:43
2
ответа
Использование Java с графическими процессорами Nvidia (cuda)
Я работаю над бизнес-проектом, который выполняется в Java и требует огромных вычислительных мощностей для вычисления бизнес-рынков. Простая математика, но с огромным количеством данных. Мы заказали некоторые cuda gpu, чтобы попробовать его, и, поско…
04 апр '14 в 15:27
1
ответ
Хранение данных на GPU и распараллеливание свертки в MATLAB
У меня есть код, который сильно зависит от свертки. он отвечает за более 80% времени работы. Я хочу использовать графический процессор, чтобы сделать его намного быстрее, но есть некоторые вещи, которые я не до конца понимаю (у меня пока нет доступа…
27 июл '13 в 16:41
0
ответов
Пример использования нескольких графических процессоров CIFAR10 занимает больше времени по мере увеличения количества графических процессоров. Я использую восемь Tesla K80 GPU
Я использую пример Multi GPU CIFAR10. Я заметил, что по мере увеличения количества графических процессоров в этом примере время, затрачиваемое на обучение, увеличивается. Команда nvidia-smi -l 1 показывает ожидаемое использование и поведение графиче…
06 ноя '17 в 20:10