MPI в Windows (возврат данных из подчиненной задачи в основную задачу)
Я нахожусь в процессе обучения, как использовать MPI.
Прямо сейчас все, что я пытаюсь сделать, это отправлять и получать данные между главной задачей и подчиненными задачами. Отправка данных из главной задачи в подчиненные задачи работает правильно. (Я проверил это, заставив каждого ведомого распечатать данные, полученные от мастера).
Получение данных в главной задаче от подчиненных задач, похоже, не работает.
#include <mpi.h>
#include <stdio.h>
#include <stdlib.h>
#include <string.h>
#define MASTER_TAG 0
#define WORKTAG 1
#define DIETAG 2
#define N 4
#define ARRAY_SIZE N*N
int getMin(int a, int b);
void print1D(int *arr, int n);
int* allocateIntegerArray(int n);
void master();
void slave();
int *inputArray = NULL;
int *outputArray = NULL;
int main(int argc, char **argv)
{
int myrank = 0;
MPI_Init(&argc, &argv); // initialize MPI
MPI_Comm_rank(MPI_COMM_WORLD, &myrank); // process rank, 0 thru N-1
if (myrank == 0)
master();
else
slave();
MPI_Finalize(); // cleanup MPI
return 0;
}
void master()
{
int numOfTasks;
int rank = 0;
int work = 0;
int startIndex = 0;
int dataPerTask = 0;
int *tempArray = NULL;
int i = 0;
int k = 0;
MPI_Status status;
MPI_Comm_size( MPI_COMM_WORLD, &numOfTasks); // #processes in application
// calculate the amount of data that each task will receive
dataPerTask = ARRAY_SIZE;
// create the array that will hold the data that will be transferred back and forth between the master and slave tasks
tempArray = allocateIntegerArray( dataPerTask );
for (i = 1; i < numOfTasks; ++i)
{
MPI_Send(&dataPerTask, 1, MPI_INT, i, WORKTAG, MPI_COMM_WORLD); // send the size of the data chunk to the slave task
MPI_Send(tempArray, dataPerTask, MPI_INT, i, WORKTAG, MPI_COMM_WORLD); // send the actual chunk of data to the slave task
print1D(tempArray, dataPerTask);
MPI_Recv(tempArray, dataPerTask, MPI_INT, MPI_ANY_TAG, WORKTAG, MPI_COMM_WORLD, &status); // receive results from slave task
print1D(tempArray, dataPerTask);
}
// tell all the slaves to exit
for (i = 1; i < numOfTasks; ++i)
MPI_Send(0, 0, MPI_INT, i, DIETAG, MPI_COMM_WORLD);
free(tempArray);
}
void slave()
{
MPI_Status status;
int *in = NULL; // input array
int *out = NULL; // outpu array
int dataPerTask = 0;
for (;;)
{
MPI_Recv(&dataPerTask, 1, MPI_INT, MASTER_TAG, MPI_ANY_TAG, MPI_COMM_WORLD, &status); // get the number of integers in the incoming array
if (status.MPI_TAG == DIETAG) // check the tag of the received message (if the master task sent the DIETAG, then the slave must stop processing and return)
return;
in = allocateIntegerArray(dataPerTask); // array 'in' holds the data received from the master task
out = allocateIntegerArray(dataPerTask); // array 'out' holds the data that is returned to the master task
MPI_Recv(in, dataPerTask, MPI_INT, MASTER_TAG, MPI_ANY_TAG, MPI_COMM_WORLD, &status); // get the actual data from the master task
out[0] = 1; // modify the data in some way
MPI_Send(out, dataPerTask, MPI_INT, 0, WORKTAG, MPI_COMM_WORLD);
}
free(in);
free(out);
}
void print1D(int *arr, int n)
{
int i = 0;
for (i = 0; i < n; i++)
printf("%d ", arr[i]);
printf("\n");
}
int* allocateIntegerArray(int n)
{
int i = 0;
if (n <= 0)
return NULL;
int *arr = (int*) malloc(sizeof(int)*n*n);
memset(arr, 0, sizeof(int)*n*n);
return arr;
}
1 ответ
Решение
Основная причина - это вызовы вашей программы MPI_Recv(...,source=MPI_ANY_TAG, ...)
MPI_ANY_TAG
не является допустимым источником, и вы должны использовать правильный источник (например, i
в master
, а также 0
в slave
) или же MPI_ANY_SOURCE
,
FWIW, и не принимайте это как должное, поскольку это может измениться в будущем
- в
Open MPI
,MPI_ANY_SOURCE
а такжеMPI_ANY_TAG
имеют то же значение, поэтому я изначально думал, что это работает для меня. - в
MPICH
,MPI_ANY_TAG
имеют то же значение, что иMPI_PROC_NULL
и именно поэтому сообщения имели только нули в вашей среде.