Описание тега multiple-gpu

См. Запись в теге "multi-gpu".
3 ответа

Запуск ядра OpenCL на нескольких графических процессорах?

Прямо сейчас я запрограммировал создание нескольких алгоритмов, работающих параллельно на одном графическом процессоре, но у всех них возникает одна и та же проблема, когда я пытаюсь выполнить их на нескольких графических процессорах (например, 3). …
10 май '13 в 09:21
1 ответ

Могу ли я использовать две карты NVIDIA GPU в системе без поддержки SLI для вычислений CUDA?

Моя текущая система для приложений CUDA имеет одну старую карту NVIDIA, 8800 GTX. Я подумываю добавить еще одну карту без обновления материнской платы. Правда ли, что пока у меня есть два слота PCI-E, оба будут работать? Или я должен купить новую ма…
18 янв '11 в 01:37
1 ответ

Управление контекстом CUDA 5.0 с одним потоком приложения в среде с несколькими графическими процессорами

Похоже, что большинство учебных пособий, руководств, книг и вопросов и ответов из Интернета относятся к CUDA 3 и 4.x, поэтому я спрашиваю об этом конкретно о CUDA 5.0. На вопрос... Я хотел бы программировать для среды с двумя устройствами CUDA, но и…
12 фев '13 в 17:47
1 ответ

TensorFlow на нескольких графических процессорах

В последнее время я пытаюсь научиться использовать Tensorflow на нескольких графических процессорах, прочитав официальный учебник. Однако есть кое-что, что меня смущает. Следующий код является частью официального руководства, которое рассчитывает по…
1 ответ

Использование нескольких графических процессоров для регрессии

Я пытаюсь написать код тензорного потока для проблемы регрессии. Я написал код, и он отлично работает при запуске на одном графическом процессоре. Тем не менее, я хочу проверить, как быстро он может пройти 2 gpus. Я изменил код для 2 GPU с помощью t…
1 ответ

Есть ли что-то вроде Hadoop, но основанное на GPU?

Есть ли что-то вроде Hadoop, но основанное на GPU? Я хотел бы сделать некоторые исследования в области распределенных вычислений. Спасибо за помощь! Yik,
16 авг '11 в 01:37
1 ответ

Как выделить DirectX для GPU и выделить CUDA для другого GPU?

В моем приложении поток GUI использует Direct2D для отображения изображений, позволяя пользователю выполнять панорамирование и масштабирование, в то время как другой поток использует CUDA для обработки изображений. Чтобы предотвратить нарушение пото…
20 авг '12 в 12:20
0 ответов

Использование MatConvNet с новым и старым графическим процессором

На моем 64-битном компьютере под управлением Windows 7 установлены два графических процессора: NVIDIA GeForce GTX 750 Ti и GeForce GTX 570. Первый имеет вычислительные возможности 5, а второй вычислительные возможности 2. Для одного из моих проектов…
1 ответ

Tensorflow не распределяет тензор / опцию для всех доступных графических процессоров

У меня есть два графических процессора, 6 ГБ GTX Titan и 11 ГБ GTX 1080Ti. Ожидание: Tensorflow должен автоматически использовать память всех графических процессоров. Реальность: Tensorflow отображает два устройства как gpu:0 и gpu:1, но использует …
22 июл '17 в 11:50
0 ответов

DIY PCI Express проблема молнии подключения. Информация о напряжении предоставляется.

Вслед за https://www.osslab.com.tw/diy-thunderbolt-to-pcie/ для образовательных целей я решил попробовать подключить графический процессор NVidia к моему Mac Air с портом Thunderbolt 2. Я разобрал гигабитный Ethernet-адаптер Thunderbolt и подключил …
26 фев '18 в 04:21
1 ответ

Можно ли запустить ядро ​​cuda на нескольких графических процессорах?

Это довольно простой вопрос, но поиск в Google, похоже, не имеет ответа, поэтому. Что я хочу знать, так это то, может ли мое ядро ​​охватить эти карты, если у меня есть две (одинаковые) карты gpu для работы с cuda? Или это связано с одной картой или…
03 дек '10 в 15:17
2 ответа

Использование OpenCL для нескольких устройств (несколько графических процессоров)

Здравствуйте, пользователи Stackru, У меня есть проблема: у меня есть одно очень большое изображение, над которым я хочу работать. Моя первая идея - разделить большое изображение на пару подизображений, а затем отправить эти подизображения в разные …
17 сен '13 в 16:31
1 ответ

Есть новые идеи по использованию openCL с несколькими графическими процессорами?

Мой вопрос: Были ли какие-либо новые улучшения (или, возможно, инструмент / библиотека, разработанная) для использования openCL с несколькими графическими процессорами? Я понимаю, что если кто-то хочет написать код в openCL с целью использования нес…
25 фев '12 в 01:11
2 ответа

Планирование ресурсов графического процессора с помощью Sun Grid Engine (SGE)

У нас есть кластер машин, каждый с 4 графическими процессорами. Каждое задание должно иметь возможность запрашивать 1-4 графических процессора. Вот подвох: я хотел бы, чтобы SGE сообщал каждой работе, какие графические процессоры он должен выполнять…
11 май '12 в 19:58
1 ответ

Как ускорить обучение модели RNN с несколькими графическими процессорами в TensorFlow?

Например, RNN является динамическим 3-уровневым двунаправленным LSTM с размером скрытого вектора 200 (tf.nn.bidirectional_dynamic_rnn) и у меня есть 4 графических процессора для обучения модели. Я видел пост, используя data parallelism на подмножест…
0 ответов

Ошибка памяти при обратном распространении из-за потерь в башне на нескольких тренировках GPU

Я тренирую модель на нескольких графических процессорах. Мне нужно разделить пакет между различными графическими процессорами, а затем рассчитать среднее значение градиентов для всех графических процессоров. Затем я сделаю некоторые другие расчеты, …
17 июл '18 в 18:55
1 ответ

Неправильные значения OpenCl при чтении из нескольких графических процессоров

У меня есть функция ядра, которая записывает только число в __global int* c Если быть точным, это выглядит так: __kernel void Add1(__global int* c) { *c = 3; } и в коде хоста я выделил память для значения C: cl_mem bufferC[deviceNumber]; // deviceNu…
21 дек '16 в 18:42
2 ответа

Производительность обработки Tensorflow с несколькими GPU

Друзья! У меня есть вопрос об обработке с несколькими GPU. Я использую 4 gpus и попробовал простой пример A ^ n + B ^ n 3 способами, как показано ниже. Одиночный графический процессор with tf.device('/gpu:0'): ....tf.matpow codes... Несколько GPU wi…
10 янв '17 в 12:49
1 ответ

OpenCL: нацеливание рабочей группы на конкретное устройство

Предполагая, что у меня есть многопроцессорная машина. Могу ли я привязать свою рабочую группу к определенному устройству (процессору)? Есть ли у нас API для решения этой задачи в openCL?
2 ответа

Параллельность в CUDA для нескольких GPU

Я запускаю функцию ядра cuda в системе с несколькими графическими процессорами, с 4 Графические процессоры. Я ожидал, что они будут запущены одновременно, но это не так. Я измеряю время запуска каждого ядра, и второе ядро ​​запускается после того, к…
26 июл '12 в 15:49