MPI в Windows (возврат данных из подчиненной задачи в основную задачу)

Я нахожусь в процессе обучения, как использовать MPI.

Прямо сейчас все, что я пытаюсь сделать, это отправлять и получать данные между главной задачей и подчиненными задачами. Отправка данных из главной задачи в подчиненные задачи работает правильно. (Я проверил это, заставив каждого ведомого распечатать данные, полученные от мастера).

Получение данных в главной задаче от подчиненных задач, похоже, не работает.

#include <mpi.h>
#include <stdio.h>
#include <stdlib.h>
#include <string.h>

#define MASTER_TAG 0    
#define WORKTAG 1
#define DIETAG 2

#define N 4
#define ARRAY_SIZE N*N

int getMin(int a, int b);
void print1D(int *arr, int n);
int* allocateIntegerArray(int n);
void master();
void slave();

int *inputArray = NULL;
int *outputArray = NULL;

int main(int argc, char **argv)
{
    int myrank = 0;

    MPI_Init(&argc, &argv); // initialize MPI

    MPI_Comm_rank(MPI_COMM_WORLD, &myrank); // process rank, 0 thru N-1

    if (myrank == 0)
        master();
    else
        slave();

    MPI_Finalize(); // cleanup MPI

    return 0;
}

void master()
{
    int numOfTasks;
    int rank = 0;
    int work = 0;
    int startIndex = 0;
    int dataPerTask = 0;
    int *tempArray = NULL;
    int i = 0;
    int k = 0;

    MPI_Status status;

    MPI_Comm_size( MPI_COMM_WORLD, &numOfTasks); // #processes in application

    // calculate the amount of data that each task will receive
    dataPerTask = ARRAY_SIZE;

    // create the array that will hold the data that will be transferred back and forth between the master and slave tasks
    tempArray = allocateIntegerArray( dataPerTask );

    for (i = 1; i < numOfTasks; ++i)
    {
        MPI_Send(&dataPerTask, 1, MPI_INT, i, WORKTAG, MPI_COMM_WORLD); // send the size of the data chunk to the slave task
        MPI_Send(tempArray, dataPerTask, MPI_INT, i, WORKTAG, MPI_COMM_WORLD); // send the actual chunk of data to the slave task

        print1D(tempArray, dataPerTask);
        MPI_Recv(tempArray, dataPerTask, MPI_INT, MPI_ANY_TAG, WORKTAG, MPI_COMM_WORLD, &status); // receive results from slave task
        print1D(tempArray, dataPerTask);
    }

    // tell all the slaves to exit
    for (i = 1; i < numOfTasks; ++i)
        MPI_Send(0, 0, MPI_INT, i, DIETAG, MPI_COMM_WORLD);

    free(tempArray);
}

void slave()
{
    MPI_Status status;
    int *in = NULL; // input array
    int *out = NULL; // outpu array
    int dataPerTask = 0;

    for (;;)
    {
        MPI_Recv(&dataPerTask, 1, MPI_INT, MASTER_TAG, MPI_ANY_TAG, MPI_COMM_WORLD, &status); // get the number of integers in the incoming array

        if (status.MPI_TAG == DIETAG) // check the tag of the received message (if the master task sent the DIETAG, then the slave must stop processing and return)
            return;

        in = allocateIntegerArray(dataPerTask); // array 'in' holds the data received from the master task
        out = allocateIntegerArray(dataPerTask); // array 'out' holds the data that is returned to the master task

        MPI_Recv(in, dataPerTask, MPI_INT, MASTER_TAG, MPI_ANY_TAG, MPI_COMM_WORLD, &status); // get the actual data from the master task

        out[0] = 1; // modify the data in some way
        MPI_Send(out, dataPerTask, MPI_INT, 0, WORKTAG, MPI_COMM_WORLD);
    }

    free(in);
    free(out);
}

void print1D(int *arr, int n)
{
    int i = 0;

    for (i = 0; i < n; i++)
        printf("%d ", arr[i]);

    printf("\n");
}

int* allocateIntegerArray(int n)
{
    int i = 0;

    if (n <= 0)
        return NULL;

    int *arr = (int*) malloc(sizeof(int)*n*n);
    memset(arr, 0, sizeof(int)*n*n);

    return arr;
}

1 ответ

Решение

Основная причина - это вызовы вашей программы MPI_Recv(...,source=MPI_ANY_TAG, ...)

MPI_ANY_TAG не является допустимым источником, и вы должны использовать правильный источник (например, i в master, а также 0 в slave) или же MPI_ANY_SOURCE,

FWIW, и не принимайте это как должное, поскольку это может измениться в будущем

  • в Open MPI, MPI_ANY_SOURCE а также MPI_ANY_TAG имеют то же значение, поэтому я изначально думал, что это работает для меня.
  • в MPICH, MPI_ANY_TAG имеют то же значение, что и MPI_PROC_NULLи именно поэтому сообщения имели только нули в вашей среде.
Другие вопросы по тегам