Nvidia Tesla - это бренд графических процессоров, ориентированный на рынок высокопроизводительных вычислений.
1 ответ

Python: Как мы распараллеливаем программу на python, чтобы использовать преимущества GPU-сервера?

В нашей лаборатории у нас есть графический ускоритель NVIDIA Tesla K80 со следующими характеристиками: Intel(R) Xeon(R) CPU E5-2670 v3 @2.30GHz, 48 CPU processors, 128GB RAM, 12 CPU coresработает под Linux 64-битной. Я запускаю следующий код, которы…
11 авг '17 в 20:35
1 ответ

Есть ли связь между одинарной и двойной точностью в NVIDIA Tesla?

В модели Tesla K20 максимальная производительность с плавающей запятой одинарной точности составляет около 3,52 TFlops, но двойная точность равна 1,17 TFlops, поэтому соотношение равно 3. Tesla K20X имеет 3,95 и 1,31, а Tesla K40 имеет 4,29 и 1,43 T…
03 сен '14 в 20:41
1 ответ

Почему быстрее передавать данные с процессора на графический процессор, а не на графический процессор?

Я заметил, что передача данных в последние высокопроизводительные графические процессоры происходит быстрее, чем их сбор обратно в ЦП. Вот результаты с использованием функции сравнительного анализа, предоставленной мне технической поддержкой mathwor…
12 май '18 в 01:35
1 ответ

Функция Cuda::Entry использует слишком много локальных данных

Я пытаюсь запустить один алгоритм для пересечения полигонов на Tesla C2075. Но когда я пытаюсь скомпилировать этот алгоритм, компилятор выдает мне ошибку:"Entry Function 'Polygon_Intersection'uses too much local data(0x40e8 bytes,0x4000), Мой алгори…
17 июл '12 в 19:00
2 ответа

Нужен ли мне 64-битный SDK на 64-битной машине?

Моя лаборатория только что получила Tesla C2070, и карта установлена ​​на компьютере под управлением Windows Server 64 бит. Я должен написать некоторые симуляции CUDA. Нужно ли устанавливать 64-битную версию наборов инструментов SDK и CUDA? Причина,…
03 сен '12 в 05:01
1 ответ

Cuda, первое соединение с картой (потерянное время)

Когда я запускаю свою программу и общаюсь с моей картой (Tesla K20c), я терял много времени, когда первый раз звоню на карту внутри своего кода, и я не знаю почему. Кажется, каждый раз, когда он пытается найти все возможные карты. если я использую c…
20 авг '13 в 07:22
1 ответ

Как сделать почтовый запрос с помощью Tesla в эликсире

Я пытаюсь сделать запрос с помощью Tesla, но получаю сообщение об ошибке: (CaseClauseError) no case clause matching: %{name: "ecdebit"} (hackney) /deps/hackney/src/hackney_request.erl:312::hackney_request.handle_body/4 (hackney) /deps/hackney/src/ha…
1 ответ

Что такое NVIDIA Tesla и CUDA?

Я занимаюсь исследованием GPGPU и в настоящее время борюсь с вопросом, что же такое Tesla и CUDA. В статье "NVIDIA Tesla: унифицированная архитектура графики и вычислений" говорится, что архитектура Tesla была представлена ​​вместе с GeForce 8800. П…
24 окт '12 в 13:26
1 ответ

Общее количество тем на nvidia Tesla

Каково общее количество потоков, которые могут одновременно работать на NVIDIA Tesla, скажем, S1070.
31 май '10 в 05:28
4 ответа

Не удается запустить код CUDA, который запрашивает NVML - ошибка, связанная с libnvidia-ml.so

Недавно коллеге понадобилось использовать NVML для запроса информации об устройстве, поэтому я скачал комплект разработки Tesla 3.304.5 и скопировал файл nvml.h в /usr/include. Чтобы проверить, я скомпилировал пример кода в tdk_3.304.5/nvml/example,…
22 июл '13 в 15:07
1 ответ

Обращаясь к более чем 4 ГБ памяти GPU - как это работает?

Типичные графические процессоры сегодня в основном 32-битные. Хотя они могут выполнять двойную точность, ALU в основном принимают 32-битные целые числа, индексы потоков и размеры сетки 32-битные, и (я предполагаю) псевдо-указатели также соответствую…
18 мар '15 в 04:14
2 ответа

Преимущества Tesla перед GeForce

Я прочитал некоторую информацию, которую я смог найти в Интернете, о различиях между этими двумя сериями карт, но я не могу избавиться от ощущения, что они каким-то образом являются рекламой. В то время как самая мощная GeForce стоит примерно 700 до…
12 июн '12 в 14:24
1 ответ

OpenCL: слишком медленная передача асинхронных команд

Моя программа OpenCL (не пугайтесь, это автоматически сгенерированный код для 3D CFD) демонстрирует странное поведение - много времени тратится на процедуры opencl_enq_job_* (opencl_code.c), где используются только асинхронные команды OpenCL: clEnqu…
29 июл '14 в 18:50
0 ответов

Использование OpenGL с безголовым Tesla K20X для закадрового рендеринга в Linux

Для Windows я должен использовать nvidia-smi для переключения в режим WDDM, что негативно влияет на производительность вычислений, но позволяет использовать OpenGL. К сожалению, это не работает в Linux и выдает ошибку, что он не поддерживается для э…
12 май '14 в 18:11
0 ответов

Освобождение памяти GPU без привилегий sudo

Я использую theano для некоторых экспериментов по глубокому обучению. Я убил 3-недельный рабочий процесс, нажав Ctrl + C, чтобы начать новый процесс. Как я вижу, хотя я убил процесс, память GPU не освобождается. По словам nvidia-smi, память свободна…
19 дек '16 в 16:04
1 ответ

cudaGetDeviceCount возвращает 1 вместо 2

У меня есть кластер GPU, состоящий из 2 Tesla M2050, и когда я выполняю свой код, cudaGetDeviceCount возвращает только 1. Если я пытаюсь установить устройство 1 с помощью cudaSetDevice, это выдает мне эту ошибку: неверные порядковые номера устройств…
12 ноя '13 в 09:47
0 ответов

AIR 3D сервер рендеринга Amazon с графическим процессором NVIDIA Tesla не работает

У нас есть приложение Adobe AIR Stage3D, которое визуализирует 3D-объекты и позволяет пользователю просматривать их. Мы хотим создать сервер рендеринга для резервного копирования, если у пользователя не установлен Flash. Проще всего было бы использо…
05 сен '13 в 13:02
2 ответа

Максимальное количество потоков на GPU

Я использую устройство TESLA T10, и у него есть 2 устройства cuda, и максимальное количество потоков в блоке составляет 512, а максимальное количество потоков по каждому измерению равно (512,512,64), а максимальный размер сетки равен (65535,65535,1)…
16 ноя '13 в 13:47
0 ответов

loss.backward() pytorch 1.0 медленно работает на Tesla V100

Я использую сеть U-Net 3D на Titan XP и V100 и обнаружил, что V100 намного медленнее, чем Titan XP. Причина в loss.backward() занимает 5 секунд / эпоха в V100 по сравнению с 1 секундой / эпохой в Titan XP. Кто-нибудь может дать некоторые подсказки? …
20 фев '19 в 06:24
4 ответа

Отключена поддержка ECC для Tesla C2070 и Ubuntu 12.04

У меня есть автономная рабочая станция, на которой работает сервер Ubuntu 12.04 и недавно установлена ​​новая карта Tesla C2070, но при запуске примеров из CUDA SDK я получаю следующую ошибку: NVIDIA_GPU_Computing_SDK/C/bin/linux/release% ./reductio…
06 сен '12 в 08:16