【MPI学习3】MPI并行程序设计模式:不同通信模式MPI并行程序的设计

学习了MPI四种通信模式 及其函数用法:

(1)标准通信模式:MPI_SEND

(2)缓存通信模式:MPI_BSEND

(3)同步通信模式:MPI_SSEND

(4)就绪通信模式:MPI_RSEND

四种通信模式的区别都在消息发送端,而消息接收端的操作都是MPI_RECV。

1.标准通信模式

原理图如下

标准通信模式由MPI决定是否用缓存。

如果MPI决定缓存将要发出的数据:发送操作不管接受操作是否执行,都可以进行;而且缓存结束后发送操作就可以返回,不需要等待接受操作收到数据

如果MPI决定不缓存将要发送的数据:对于阻塞通信,则要求接受操作执行,并且数据都发送到接受缓冲区了,发送操作才能够返回;对于非阻塞通信,发送操作虽然没有完成,但是发送调用可以正确返回。

2.缓存通信模式

与标准通信的区别在于需要自己维护程序的缓冲区。

int MPI_Buffer_attach(void *buffer, int size)用于申请缓存

int MPI_Buffer_detach(void **buffer, int *size) 用于释放缓存 这是一个阻塞调用 函数返回表示缓冲区已经被释放

示例代码如下:

 1 #include "mpi.h"
 2 #include <stdio.h>
 3 #include <stdlib.h>
 4 #define SIZE 6
 5 static int src = 0;
 6 static int dest = 1;
 7
 8 void generate_data(double *, int);
 9 void normal_recv(double *, int);
10 void buffered_send(double *, int);
11
12 void generate_data(double *buffer, int buff_size){
13     int i;
14     for (i=0; i<buff_size; i++) buffer[i]=(double)i+1;
15 }
16
17 void normal_recv(double *buffer, int buff_size){
18     int i,j;
19     MPI_Status status;
20     double *b;
21
22     b = buffer;
23
24     MPI_Recv(b,(buff_size-1),MPI_DOUBLE,src,2000,MPI_COMM_WORLD, &status);
25     fprintf(stderr, "standard receive a message of %d data\n", buff_size-1);
26     for(j=0; j<buff_size-1; j++) fprintf(stderr, "buf[%d]=%f\n",j,b[j]);
27
28     b+=buff_size-1;
29     MPI_Recv(b, 1, MPI_DOUBLE, src, 2000, MPI_COMM_WORLD, &status);
30     fprintf(stderr, "standard receive a message of one data\n");
31     fprintf(stderr, "buf[0]=%f\n",*b);
32 }
33
34 void buffered_send(double *buffer, int buff_size){
35     int i,j;
36     void *bbuffer;
37     int size;
38
39     fprintf(stderr, "buffered send message of %d data\n", buff_size-1);
40     for(j=0; j<buff_size-1; j++) fprintf(stderr, "buf[%d]=%f\n",j,buffer[j]);
41     MPI_Bsend(buffer, (buff_size-1), MPI_DOUBLE, dest, 2000, MPI_COMM_WORLD);
42
43     buffer+=buff_size-1;
44     fprintf(stderr, "bufferred send message of one data\n");
45     fprintf(stderr, "buf[0]=%f\n", *buffer);
46     MPI_Bsend(buffer, 1, MPI_DOUBLE, dest, 2000, MPI_COMM_WORLD);
47
48     MPI_Buffer_detach(&buffer, &size);
49     MPI_Buffer_attach(bbuffer, size);
50 }
51
52 int main(int argc, char *argv[])
53 {
54     int rank;
55     double buffer[SIZE], *tmpbuffer, *tmpbuf;
56     int tsize, bsize;
57     char *test = NULL;
58
59     MPI_Init(&argc, &argv);
60     MPI_Comm_rank(MPI_COMM_WORLD, &rank);
61
62     if (rank==src) { // 发送消息进程
63         generate_data(buffer, SIZE);
64         MPI_Pack_size(SIZE, MPI_DOUBLE, MPI_COMM_WORLD, &bsize);
65         tmpbuffer = (double*)malloc(bsize+2*MPI_BSEND_OVERHEAD);
66         if (!tmpbuffer) {
67             MPI_Abort(MPI_COMM_WORLD, 1);
68         }
69         // 告诉系统MPI_Bsend用到buffer就去tmpbuffer那里去找
70         MPI_Buffer_attach(tmpbuffer, bsize+2*MPI_BSEND_OVERHEAD);
71         buffered_send(buffer, SIZE);
72         MPI_Buffer_detach(&tmpbuf, &tsize);
73         printf("tsize detach from tmpbuf is : %d\n", tsize);
74     }
75     else if (rank==dest) {
76         normal_recv(buffer, SIZE);
77     }
78     else {
79         MPI_Abort(MPI_COMM_WORLD, 1);
80     }
81     MPI_Finalize();
82 }

代码输出结果是:

总共需要发送5个double类型,每个类型占8个字节;MPI通信其他附属信息占200个字节;因此总共缓冲区的大小的240个字节。

3.同步通信模式

同步发送进程的特点是:发送操作可以不依赖接受进程的相应接受操作是否已经启动,但是必须等着接受操作开始执行后才能返回;这意味着一旦同步发送返回后,发送缓冲区中的数据已经全部被系统缓冲区缓存。“发送缓冲区”表示MPI的缓冲区,“系统缓冲区”指的是操作系统的写缓冲区,注意二者的区别。这意味着同步发送缓冲区中的数据可以被释放或重新利用。

示例代码如下:

 1 #include "mpi.h"
 2 #include <stdio.h>
 3
 4 #define SIZE 10
 5
 6 static int src = 0;
 7 static int dest = 1;
 8
 9 int main(int argc, char *argv[])
10 {
11     int rank;
12     int act_size = 0;
13     int flag, np, rval, i;
14     int buffer[SIZE];
15     MPI_Status status, status1, status2;
16     int count1, count2;
17     MPI_Init(&argc, &argv);
18     MPI_Comm_rank(MPI_COMM_WORLD, &rank);
19     MPI_Comm_size(MPI_COMM_WORLD, &np);
20
21     if (np!=2) {
22         MPI_Abort(MPI_COMM_WORLD, 1);
23     }
24     act_size = 5; /*最大消息长度*/
25     if (rank==src) {
26         MPI_Ssend(buffer, act_size, MPI_INT, dest, 1, MPI_COMM_WORLD);
27         fprintf(stderr, "MPI_Ssend %d data,tag=1\n", act_size);
28         act_size = 4;
29         MPI_Ssend(buffer, act_size, MPI_INT, dest, 2, MPI_COMM_WORLD);
30         fprintf(stderr, "MPI_Ssend %d data,tag=2\n", act_size);
31     }
32     else if (rank=dest) {
33         MPI_Recv(buffer, act_size, MPI_INT, src, 1, MPI_COMM_WORLD, &status1);
34         MPI_Recv(buffer, act_size, MPI_INT, src, 2, MPI_COMM_WORLD, &status2);
35         MPI_Get_count(&status1, MPI_INT, &count1);
36         fprintf(stderr, "receive %d data,tag=%d\n",count1, status1.MPI_TAG);
37         MPI_Get_count(&status2, MPI_INT, &count2);
38         fprintf(stderr, "receive %d data,tag=%d\n",count2, status2.MPI_TAG);
39     }
40     MPI_Finalize();
41 }

代码执行结果如下:

如果将33 34行代码互换位置,则程序陷入了deadlock:一方面发送进程中tag=1的MPI_Ssend操作一直处于阻塞状态;另一方面接受进程中的tag=2的MPI_Recv操作处于阻塞状态;两个进程互相等着对方,陷入了死锁。

4. 就绪通信模式

与前几种通信模式不同,只有当接受进程的接受操作已经启动时,才可以在发送端启动发送进程。

一种可能的就绪通信模式实现方法如下图:

上图保证的目标是①要先于④执行;方法是插入②和③;①一定先于②执行,③一定等②成功后才能执行,③成功后④才能执行。

由此一定保证①先于④执行,就保证了就绪通信。

示例代码如下:

 1 #include "mpi.h"
 2 #include <stdio.h>
 3 #include <stdlib.h>
 4
 5 #define TEST_SIZE 2000
 6
 7 void test_rsend();
 8
 9 int main(int argc, char *argv[])
10 {
11     MPI_Init(&argc, &argv);
12     test_rsend();
13     MPI_Finalize();
14 }
15
16 void test_rsend()
17 {
18     int rank, size;
19     int next, prev;
20     int tag;
21     int count;
22     float send_buf[TEST_SIZE], recv_buf[TEST_SIZE];
23     MPI_Status status;
24     MPI_Request request;
25
26     MPI_Comm_rank(MPI_COMM_WORLD, &rank);
27     MPI_Comm_size(MPI_COMM_WORLD, &size);
28
29     if (2!=size) {
30         MPI_Abort(MPI_COMM_WORLD, 1);
31     }
32     next = rank + 1;
33     if (next >= size) next = 0;
34     prev = rank - 1;
35     if (prev <0) prev = size-1;
36
37     if (0==rank) {
38         fprintf(stderr, " Rsend Test\n");
39     }
40     tag = 1456;
41     count = TEST_SIZE/3;
42     if (0==rank) {
43         MPI_Recv(MPI_BOTTOM,0,MPI_INT,next,tag,MPI_COMM_WORLD, &status);
44         fprintf(stderr, " Process %d post Ready send\n", rank);
45         MPI_Rsend(send_buf,count,MPI_FLOAT,next,tag,MPI_COMM_WORLD);
46     }
47     else {
48         fprintf(stderr, " process %d post a receive call\n", rank);
49         MPI_Irecv(recv_buf, TEST_SIZE, MPI_FLOAT,MPI_ANY_SOURCE,MPI_ANY_TAG,MPI_COMM_WORLD,&request);
50         MPI_Send(MPI_BOTTOM,0,MPI_INT,next,tag,MPI_COMM_WORLD);
51         MPI_Wait(&request, &status);
52         fprintf(stderr, " Process %d Receive Rsend message from %d\n",rank, status.MPI_SOURCE);
53     }
54 }

代码执行结果如下:

时间: 2024-10-12 20:54:49

【MPI学习3】MPI并行程序设计模式:不同通信模式MPI并行程序的设计的相关文章

【MPI学习2】MPI并行程序设计模式:对等模式 &amp; 主从模式

这里的内容主要是都志辉老师<高性能计算之并行编程技术——MPI并行程序设计> 书上有一些代码是FORTAN的,我在学习的过程中,将其都转换成C的代码,便于统一记录. 这章内容分为两个部分:MPI对等模式程序例子 & MPI主从模式程序例子 1. 对等模式MPI程序设计 1.1 问题背景 这部分以Jacobi迭代为具体问题,列举了三个求解Jacobi迭代问题的MPI对等模式程序. 这里需要阐明一下,书上的Jacobi迭代具体的背景可以参考这个内容:http://www.mcs.anl.g

程序设计模式 —— State 状态模式

我应该如何阅读? 本文将使用优雅的文字风格来告诉你什么是状态模式. 注意: 1.在阅读本文之前请保证你已经掌控了 面对对象的思想与 多态的基本概念,否则将难以理解. 2.本文实现将用C++实现,你不一定必须学会C++,这些代码都有非常丰富的注释和简单的语法. 3.请不要跳着看,除非你已经学会. 那么现在开始吧 或许你会以为是类的各种状态,其实差不多.但是还有各种行为 允许一个对象在其内部状态改变时改变它的行为.实例化的对象看起来似乎修改了它的类 首先,状态,顾名思义你应该就差不多明白.它可以表示

程序设计模式 —— 抽象工厂模式

前言 工厂?意思是创建变量的厂子?要这个干什么?为什么不直接new new new!! 定义:为创建一组相关或相互依赖的对象提供一个接口,而无需指定他们的具体类. 但是,从现在开始,请不要再使用new. “What?不使用new?你怎么写C++程序,怎么写Java程序?” 我应该如何阅读? 本文将使用优雅的文字风格来告诉你什么是工厂模式. 注意: 1.在阅读本文之前请保证你已经掌控了 面对对象的思想与 多态的基本概念,否则将难以理解. 2.本文实现将用C++实现,你不一定必须学会C++,这些代码

设计模式之桥接模式优秀的程序结构(十五)

咱不要多, 就一个隐身技能, 嘿嘿嘿 定义 桥接模式(bridge): 在软件系统中, 某些由于自身的逻辑, 它具有两个或多个维度的变化, 那么如何应对这种"多维度的变化"? 如何利用面向对象的技术来使得该类型能够轻松的沿着多个方向进行变化, 而又不引入额外的复杂度?这就是Bridge模式. 而具体使用的方式, 则是将抽象部分与他们的实现部分分离, 使得他们都可以独立的变化. 桥接模式解决的问题: 调用方操作的子类数目减少了 实现部分切换十分容易, 主要变现在抽象部分与实现部分的耦合度

[转][osg]探究osg中的程序设计模式【目录】

作者:3wwang 原文接连:http://www.3wwang.cn/html/article_104.html 前序 探究osg中的程序设计模式---开篇 探究osg中的程序设计模式---创造性模式 探究osg中的程序设计模式---创造型模式---Factory(工厂)模式 探究osg中的程序设计模式---创造型模式---AbstractFactory(抽象工厂)模式 探究osg中的程序设计模式---创造型模式---Singleton(单例)模式 探究osg中的程序设计模式---创造型模式-

Java常见设计模式之工厂模式

工厂模式在我们日常的应用中应当算是比较广泛的一种设计模式了.今天让我们一起来学习一下,工厂的设计模式. 工厂模式在<Java与模式>中分为三类:     1)简单工厂模式(Simple Factory):不利于产生系列产品:     2)工厂方法模式(Factory Method):又称为多形性工厂:     3)抽象工厂模式(Abstract Factory):又称为工具箱,产生产品族,但不利于产生新的产品:        这三种模式从上到下逐步抽象,并且更具一般性.         GOF

设计模式之代理模式之读写分离!!!

小伙伴们你们的小可爱逗比又上线了!!! 最近感觉带表情的文章看多了,写篇文章不放上几十个表情感觉自己都写不出来什么!!!原谅你们的小可爱放荡...不羁...爱谁谁!!! 好了好了,开始上课了,今天你们的刘老师要讲的内容是?对对对!!!最后面那个同学说的对,就是设计模式之代理模式额外加读写分离设计!下课别走啊,刚才哪位同学!!! 代理这个词,相信很多同学应该不陌生了吧! 1.从非程序来说,代理生活中最常见的就是朋友圈刷屏的各种商品等等. 2.从服务器架构上来说,代理就是转发,好比你和第三者之间需要

【MPI学习6】MPI并行程序设计模式:具有不连续数据发送的MPI程序设计

基于都志辉老师<MPI并行程序设计模式>第14章内容. 前面接触到的MPI发送的数据类型都是连续型的数据.非连续类型的数据,MPI也可以发送,但是需要预先处理,大概有两类方法: (1)用户自定义新的数据类型,又称派生类型(类似定义结构体类型,但是比结构体复杂,需要考虑<类型,偏移量>两方面的内容) (2)数据的打包和解包(将不连续的数据给压缩打包到连续的区域,然后再发送:接受到打包数据后,先解包再使用) 这样做的好处,我猜一个是可以有效减少通信的次数,提高程序效率:另一方面可以减轻

【MPI学习1】简单MPI程序示例

有了apue的基础,再看mpi程序多进程通信就稍微容易了一些,以下几个简单程序来自都志辉老师的那本MPI的书的第七章. 现在ubuntu上配置了一下mpich的环境: http://www.cnblogs.com/liyanwei/archive/2010/04/26/1721142.html 注意,为了编译运行方便,在~/.bashrc文件中添加mpi的两个环境变量 设置完之后注意执行source ~/.bashrc命令 程序1 计时功能 主要用到的MPI_Wtime()这个函数 1 #inc