MPI+WIN10并行试运行

系统:2015 win10专业版 x64

MPI安装包:mpich2-1.4.1p1-win-x86-64.man

将后缀改为.msi 以管理员身份安装

安装过程一路默认,注意<behappy为默认的phrase>

安装完成以管理员身份打开命令提示符(cmd.exe)

cd \Program Files\MPICH2\bin

C:\Program Files\MPICH2\bin>smpd -install -phrase behappy ::<此处behappy与之前phrase对应>

然后C:\Program Files\MPICH2\bin>smpd –status查看是否成功,成功则显示smpd running on xxxxxx

注册用户C:\Program Files\MPICH2\bin>mpiexec –register

显示account (domain\user) xxxx : 直接回车默认当前用户

显示password: 输入操作系统当前用户密码

confirm password:

验证是否成功C:\Program Files\MPICH2\bin>mpiexec -validate(窗口提示success则表明注册成功)

测试示例程序

C:\Program Files\MPICH2\bin>cd ../examples

C:\Program Files\MPICH2\examples>..\bin\mpiexec.exe -n 4 cpi

(-n 后面参数为所用处理器核心数)

测试其他程序

将目录更改至目标exe文件处,执行"C:\Program Files\MPICH2\bin\mpiexec.exe" -n 2 xxxxx.exe, 不改目录直接使用程序路径可能出现错误

时间: 2024-12-26 07:58:54

MPI+WIN10并行试运行的相关文章

【MPI】并行奇偶交换排序

typedef long long __int64; #include "mpi.h" #include <cstdio> #include <algorithm> #include <cmath> using namespace std; int Compute_partner(int phase,int my_rank,int comm_sz){//根据趟数的奇偶性以及当前编号的编号得到partner进程的编号 int partner; if(!

Floyd-Warshall算法及其并行化实现(基于MPI)

Floyd-Warshall算法(或称Floyd算法)是用于寻找加权图中非固定起止点间最短路径的经典算法,它是基于动态规划思想设计的.当前我们所认识的Floyd算法之形式由计算机科学家(同时也是图灵奖得主) Robert Floyd 于 1962 年提出并发表.但在此之前,Bernard Roy(1959)和 Stephen Warshall(1962)也分别独立地提出了类似的算法.本文将主要讨论基于MPI的并行化Floyd算法实现. 欢迎关注白马负金羁的博客 http://blog.csdn.

有了OpenMP,MPI,为什么还要MapReduce? (转载)

OpenMP和MPI是并行编程的两个手段,对比如下: OpenMP:线程级(并行粒度):共享存储:隐式(数据分配方式):可扩展性差: MPI:进程级:分布式存储:显式:可扩展性好. OpenMP采用共享存储,意味着它只适应于SMP,DSM机器,不适合于集群.MPI虽适合于各种机器,但它的编程模型复杂: 需要分析及划分应用程序问题,并将问题映射到分布式进程集合: 需要解决通信延迟大和负载不平衡两个主要问题: 调试MPI程序麻烦: MPI程序可靠性差,一个进程出问题,整个程序将错误: 其中第2个问题

MPI程序的任务分解方法

用MPI编写并行程序时,任务分解是很重要的一部分,如何把T个任务(T块数据,T行矩阵等)分给P个进程,实现负载均衡,是需要好好考量的问题.分解任务时需要解决两个问题: 1.给出一个进程p,如何得知要处理的任务是哪些 2.给出一个任务t,如何得知它是由哪个进程处理的 (这里的p和t都是从0开始计数.) 一个好的任务分配,应该能够保证这两种计算都能高效完成.下面讨论三种分配方式.这里只讨论T>P的情况,T<=P时的分解方式是显而易见的. 一,交叉分解 对于进程p,它所处里的任务号为t=p+kP,其

【并行计算】用MPI进行分布式内存编程(一)

通过上一篇关于并行计算准备部分的介绍,我们知道MPI(Message-Passing-Interface 消息传递接口)实现并行是进程级别的,通过通信在进程之间进行消息传递.MPI并不是一种新的开发语言,它是一个定义了可以被C.C++和Fortran程序调用的函数库.这些函数库里面主要涉及的是两个进程之间通信的函数.MPI可以在Windows和linux环境中都有相应的库,本篇以Windows10作为演示开发环境. 1.Windows10+VS 2015上搭建MPI开发环境 下载 mpi for

【并行计算】用MPI进行分布式内存编程(二)

通过上一篇中,知道了基本的MPI编写并行程序,最后的例子中,让使用0号进程做全局的求和的所有工作,而其他的进程却都不工作,这种方式也许是某种特定情况下的方案,但明显不是最好的方案.举个例子,如果我们让偶数号的进程负责收集求和的工作,情况会怎么样?如下图: 对比之前的图发现,总的工作量与之前的一样,但是发现新方案中0号进程只做了3次接收和3次加法(之前的7次接收和7次加法),如果进程都是同时启动的,那么全局求和时间将是0号进程的接收时间和求和时间,即需要的总时间比原来方案的总时间减少了50%多.如

关于mpi的理论知识以及编写程序来实现数据积分中的梯形积分法。

几乎所有人的第一个程序是从“hello,world”程序开始学习的 #include "mpi.h" #include <stdio.h> int main(int argc, char* argv[]) { int rank, numproces; int namelen; char processor_name[MPI_MAX_PROCESSOR_NAME]; MPI_Init(&argc, &argv); MPI_Comm_rank(MPI_COMM_

MPICH配置安装与入门

最近,由于老师要求设计并行IO接口,所以开始着手学习MPI-IO的相关技术. 一.在介绍MPICH安装配置之前,先简单介绍几点基础内容: 1.MPICH与MPI的关系:MPICH是MPI的一种高效便携式实现标准,通过安装MPICH构建MPI编程环境,从而进行并行程序的开发.MPICH是MPI(Message-Passing Interface)的一个应用实现,支持最新的MPI-2接口标准(现在好像已经有MPI-3了),是用于并行运算的工具. 2.MPI2与MPI-IO的关系:1994年IBM's

【并行计算】-准备篇

1.背景知识 从1986年到2002年,微处理器的性能以平均50%的速度不断提升.但是,从2002年开始,单处理器的性能提升速度降到每年大约20%,这个差距是巨大的:如果以每年50%的速度提升,在10年里,微处理器的性能能提升60倍,而如果以20%的速度提升的话,10时间里,只能提升6倍.所以,从2005年起,大部分主流的CPU制造商决定通过并行处理来快速提升微处理器的性能.他们不再继续开发速度更快的单处理器芯片,而是开始将多个完整的单处理器放到一个集成电路芯片上.这一变化对软件人员带来了重大的