Описание тега intel-mpi

Intel MPI Library is an MPI implementation by Intel Corporation.
2 ответа

MPI_SEND занимает огромную часть виртуальной памяти

Отлаживая мою программу на большом количестве ядер, я столкнулся с очень странной ошибкой insufficient virtual memory, Мои исследования привели к спокойствию кода, когда мастер посылает небольшие сообщения каждому рабу. Затем я написал небольшую про…
26 окт '12 в 14:23
1 ответ

Включить поддержку OpenMP

Я установил Intel MPI на мой компьютер с Windows. Цитирование раздела 2.2 документации библиотеки FLANN: проект, который использует FLANN, должен быть скомпилирован с компилятором, который поддерживает стандарт OpenMP, и поддержка OpenMP должна быть…
10 май '16 в 04:12
1 ответ

Какая польза от статуса MPI_Isend, полученного с помощью MPI_Wait?

Случай: 1. Какой смысл использовать статус, полученный с помощью MPI_Wait() if(rank==0) MPI_Isend(&buffer0, count, MPI_INT, 1, 0, MPI_COMM_WORLD, &request0); if(rank==1) MPI_Recv(&buffer1, count, MPI_INT, 0, 0, MPI_COMM_WORLD); if(rank==…
19 янв '19 в 09:24
1 ответ

Ошибка IntelMPI (работает с openMPI)

Я получаю эту ошибку, и мне было интересно, как я могу это исправить. Немного предыстории: он работает в открытом MPI, но не Intel MPI. Ошибка: Fatal error in MPI_Recv: Invalid argument, error stack: MPI_Recv(200): MPI_Recv(buf=0x7fffffff92f0, count…
25 апр '18 в 08:24
1 ответ

Тест производительности Intel MPI завершается с ошибкой, когда # байтов> 128: IMB-EXT

Я только что установил Linux и Intel MPI на две машины: (1) Довольно старый (~8 лет) сервер SuperMicro, имеющий 24 ядра (Intel Xeon X7542 X 4). 32 ГБ памяти. ОС: CentOS 7.5 (2) Новый сервер HP ProLiant DL380, имеющий 32 ядра (Intel Xeon Gold 6130 X …
0 ответов

Явное закрепление процесса MPI/OpenMP с помощью Intel MPI

У меня есть приложение MPI/OpenMP. Я хотел бы запустить 23 процесса MPI на 2 узлах (12 ядер на узел), где один процесс (например, ранг 14) должен иметь 2 потока OMP, в то время как все остальные имеют один поток. Я хочу, чтобы каждый ранг был привяз…
20 авг '18 в 17:10
1 ответ

Получить количество используемых коммуникаторов MPI

У меня большой код, который вылетает со следующей ошибкой: Fatal error in PMPI_Comm_split: Other MPI error, error stack: PMPI_Comm_split(532)................: MPI_Comm_split(comm=0xc4027cf0, color=0, key=0, new_comm=0x7ffdb50f2bd0) failed PMPI_Comm_…
29 окт '18 в 10:46
1 ответ

Связывание команд компилятора напрямую, а не добавление правильного пути к переменным среды

В этом посте у меня была проблема с версией mpirun Я использовал. Быстрое решение (даже если оно не решило все проблемы) заключалось в добавлении пути к openmpi версия mpirun в моем PATH переменная окружения, поэтому моя оболочка знала, что нужно ис…
16 дек '15 в 08:23
1 ответ

MPI Broadcast 2D array

У меня есть двумерный массив двойной точности, который обрабатывается параллельно несколькими процессами. Каждый процесс манипулирует частью массива, и в конце каждой итерации мне нужно убедиться, что все процессы имеют одну и ту же копию 2D-массива…
01 дек '11 в 06:15
0 ответов

Использование многопоточной внешней библиотеки из python, запускаемой с библиотеками intelmpi

В среде Intelmpi: Я делаю salloc для одного узла в кластере mpirun -binding pin= нет python test.py test.py вызывает библиотеки gurobi, которые создают около 8 потоков Этот прогон медленнее, чем использование одной независимой машины без mpirun вне …
04 сен '18 в 18:46
1 ответ

В чем разница между "-genvall" и "-envall"?

Когда мне нужно передать переменные окружения в моей работе mpi, каковы различия между опциями "-genvall" и "-envall"? Я действительно не могу понять описание в файле man.
20 сен '18 в 10:24
1 ответ

Как связать mpi4py с intelmpi

Я хотел бы установить mpi4py против intelmpi, и это именно то, что я вижу, когда делаю список модулей. однако mpi4py.get_config() показывает openmpi после этих испытаний: pip install mpi4py env MPICC=/share/apps/intel/2017u4/impi/2017.3.196/intel64/…
24 авг '18 в 23:38
1 ответ

Укажите пользователя MPI

Возможный дубликат: Сконфигурируйте хост-файл MPI для использования нескольких пользовательских идентификаторов Кто-нибудь знает, что можно указать пользователя, который должен использоваться в конкретном ssh- соединении с данным хостом или списком …
30 июл '12 в 08:37
0 ответов

Проблема сравнения производительности между OpenMPI и Intel MPI

Я работаю с C++ MPI-кодом, который при компиляции с openMPI занимает 1 мин 12 с и 16 с Intel MPI (я проверял его и на других входах, разница аналогична. Оба скомпилированных кода дают правильный ответ). Я хочу понять, почему такая большая разница во…
26 дек '17 в 11:13
0 ответов

Как DAPL может предложить больше функциональных возможностей, чем OFA, если DAPL полагается исключительно на OFA в качестве единственного слоя под ним?

В моем понимании, если система, которая имеет только базовое подключение Infiniband (т.е. не iWarp или что-либо еще, что DAPL может использовать в качестве альтернативы), тогда DAPL существует исключительно как абстрагированный уровень поверх OFA/In…
23 май '17 в 16:27
0 ответов

Почему mpirun ведет себя так же, как при использовании с slurm?

Я использую Intel MPI и столкнулся с непонятным поведением при использовании mpirun в сочетании с грязью. Если я бегу (в узле входа в систему) mpirun -n 2 python -c "from mpi4py import MPI; print(MPI.COMM_WORLD.Get_rank())" тогда я получаю в качеств…
12 июл '18 в 07:42
1 ответ

Intel MPI mpirun не завершает работу с помощью Java Process.destroy()

Моя версия Intel MPI - impi/5.0.2.044/intel64, установленная на машине RHEL. Я использую Java для вызова программы MPI, используя следующий код: ProcessBuilder builder = new ProcessBuilder(); builder.command("mpirun ./myProgram"); builder.redirectEr…
26 авг '15 в 09:31
0 ответов

Сбой в Intel MPI_COMM_SPAWN_MULTIPLE

Я получаю удар внутри MPI_COMM_SPAWN_MULTIPLE при использовании реализации Intel MPI и компиляции кода с помощью ifort. Этот же код работает без проблем, используя OpenMPI и компилируя с помощью gfortran. Соответствующий код размещен ниже. ALLOCATE(…
02 сен '14 в 14:59
1 ответ

Сборка Boost.MPI с Intel MPI

Я пытаюсь собрать Boost.MPI 1.47 с Intel MPI 4.0.0.012, но Boost не может найти установку. Я пробовал разные using mpi ;-варианты в user-config.jam, включая using mpi ;, using mpi : mpicl ; а также using mpi : c:/path/to/mpi/mpicl.bat без удачи Я та…
02 ноя '11 в 15:07
1 ответ

Может ли мое приложение быть совместимым с несколькими версиями MPI?

У меня есть приложение, которое использует MPI_COMM_WORLD. Я создаю приложение с помощью HPC Pack 2008 R2 MPI, и все отлично работает на моем локальном компьютере и на большинстве компьютеров. Иногда при установке на другой ПК я сталкиваюсь с пробле…
20 авг '16 в 16:41