Описание тега multiple-gpu
См. Запись в теге "multi-gpu".
3
ответа
Запуск ядра OpenCL на нескольких графических процессорах?
Прямо сейчас я запрограммировал создание нескольких алгоритмов, работающих параллельно на одном графическом процессоре, но у всех них возникает одна и та же проблема, когда я пытаюсь выполнить их на нескольких графических процессорах (например, 3). …
10 май '13 в 09:21
1
ответ
Могу ли я использовать две карты NVIDIA GPU в системе без поддержки SLI для вычислений CUDA?
Моя текущая система для приложений CUDA имеет одну старую карту NVIDIA, 8800 GTX. Я подумываю добавить еще одну карту без обновления материнской платы. Правда ли, что пока у меня есть два слота PCI-E, оба будут работать? Или я должен купить новую ма…
18 янв '11 в 01:37
1
ответ
Управление контекстом CUDA 5.0 с одним потоком приложения в среде с несколькими графическими процессорами
Похоже, что большинство учебных пособий, руководств, книг и вопросов и ответов из Интернета относятся к CUDA 3 и 4.x, поэтому я спрашиваю об этом конкретно о CUDA 5.0. На вопрос... Я хотел бы программировать для среды с двумя устройствами CUDA, но и…
12 фев '13 в 17:47
1
ответ
TensorFlow на нескольких графических процессорах
В последнее время я пытаюсь научиться использовать Tensorflow на нескольких графических процессорах, прочитав официальный учебник. Однако есть кое-что, что меня смущает. Следующий код является частью официального руководства, которое рассчитывает по…
18 дек '18 в 13:45
1
ответ
Использование нескольких графических процессоров для регрессии
Я пытаюсь написать код тензорного потока для проблемы регрессии. Я написал код, и он отлично работает при запуске на одном графическом процессоре. Тем не менее, я хочу проверить, как быстро он может пройти 2 gpus. Я изменил код для 2 GPU с помощью t…
20 мар '18 в 16:01
1
ответ
Есть ли что-то вроде Hadoop, но основанное на GPU?
Есть ли что-то вроде Hadoop, но основанное на GPU? Я хотел бы сделать некоторые исследования в области распределенных вычислений. Спасибо за помощь! Yik,
16 авг '11 в 01:37
1
ответ
Как выделить DirectX для GPU и выделить CUDA для другого GPU?
В моем приложении поток GUI использует Direct2D для отображения изображений, позволяя пользователю выполнять панорамирование и масштабирование, в то время как другой поток использует CUDA для обработки изображений. Чтобы предотвратить нарушение пото…
20 авг '12 в 12:20
0
ответов
Использование MatConvNet с новым и старым графическим процессором
На моем 64-битном компьютере под управлением Windows 7 установлены два графических процессора: NVIDIA GeForce GTX 750 Ti и GeForce GTX 570. Первый имеет вычислительные возможности 5, а второй вычислительные возможности 2. Для одного из моих проектов…
20 окт '17 в 06:02
1
ответ
Tensorflow не распределяет тензор / опцию для всех доступных графических процессоров
У меня есть два графических процессора, 6 ГБ GTX Titan и 11 ГБ GTX 1080Ti. Ожидание: Tensorflow должен автоматически использовать память всех графических процессоров. Реальность: Tensorflow отображает два устройства как gpu:0 и gpu:1, но использует …
22 июл '17 в 11:50
0
ответов
DIY PCI Express проблема молнии подключения. Информация о напряжении предоставляется.
Вслед за https://www.osslab.com.tw/diy-thunderbolt-to-pcie/ для образовательных целей я решил попробовать подключить графический процессор NVidia к моему Mac Air с портом Thunderbolt 2. Я разобрал гигабитный Ethernet-адаптер Thunderbolt и подключил …
26 фев '18 в 04:21
1
ответ
Можно ли запустить ядро cuda на нескольких графических процессорах?
Это довольно простой вопрос, но поиск в Google, похоже, не имеет ответа, поэтому. Что я хочу знать, так это то, может ли мое ядро охватить эти карты, если у меня есть две (одинаковые) карты gpu для работы с cuda? Или это связано с одной картой или…
03 дек '10 в 15:17
2
ответа
Использование OpenCL для нескольких устройств (несколько графических процессоров)
Здравствуйте, пользователи Stackru, У меня есть проблема: у меня есть одно очень большое изображение, над которым я хочу работать. Моя первая идея - разделить большое изображение на пару подизображений, а затем отправить эти подизображения в разные …
17 сен '13 в 16:31
1
ответ
Есть новые идеи по использованию openCL с несколькими графическими процессорами?
Мой вопрос: Были ли какие-либо новые улучшения (или, возможно, инструмент / библиотека, разработанная) для использования openCL с несколькими графическими процессорами? Я понимаю, что если кто-то хочет написать код в openCL с целью использования нес…
25 фев '12 в 01:11
2
ответа
Планирование ресурсов графического процессора с помощью Sun Grid Engine (SGE)
У нас есть кластер машин, каждый с 4 графическими процессорами. Каждое задание должно иметь возможность запрашивать 1-4 графических процессора. Вот подвох: я хотел бы, чтобы SGE сообщал каждой работе, какие графические процессоры он должен выполнять…
11 май '12 в 19:58
1
ответ
Как ускорить обучение модели RNN с несколькими графическими процессорами в TensorFlow?
Например, RNN является динамическим 3-уровневым двунаправленным LSTM с размером скрытого вектора 200 (tf.nn.bidirectional_dynamic_rnn) и у меня есть 4 графических процессора для обучения модели. Я видел пост, используя data parallelism на подмножест…
11 дек '17 в 23:09
0
ответов
Ошибка памяти при обратном распространении из-за потерь в башне на нескольких тренировках GPU
Я тренирую модель на нескольких графических процессорах. Мне нужно разделить пакет между различными графическими процессорами, а затем рассчитать среднее значение градиентов для всех графических процессоров. Затем я сделаю некоторые другие расчеты, …
17 июл '18 в 18:55
1
ответ
Неправильные значения OpenCl при чтении из нескольких графических процессоров
У меня есть функция ядра, которая записывает только число в __global int* c Если быть точным, это выглядит так: __kernel void Add1(__global int* c) { *c = 3; } и в коде хоста я выделил память для значения C: cl_mem bufferC[deviceNumber]; // deviceNu…
21 дек '16 в 18:42
2
ответа
Производительность обработки Tensorflow с несколькими GPU
Друзья! У меня есть вопрос об обработке с несколькими GPU. Я использую 4 gpus и попробовал простой пример A ^ n + B ^ n 3 способами, как показано ниже. Одиночный графический процессор with tf.device('/gpu:0'): ....tf.matpow codes... Несколько GPU wi…
10 янв '17 в 12:49
1
ответ
OpenCL: нацеливание рабочей группы на конкретное устройство
Предполагая, что у меня есть многопроцессорная машина. Могу ли я привязать свою рабочую группу к определенному устройству (процессору)? Есть ли у нас API для решения этой задачи в openCL?
23 июл '12 в 09:23
2
ответа
Параллельность в CUDA для нескольких GPU
Я запускаю функцию ядра cuda в системе с несколькими графическими процессорами, с 4 Графические процессоры. Я ожидал, что они будут запущены одновременно, но это не так. Я измеряю время запуска каждого ядра, и второе ядро запускается после того, к…
26 июл '12 в 15:49