openMP实验报告目录openMP实验报告 1OpenMP简介 1实验一 2实验二 3实验三 5实验四 6实验五 9实验六 10实验七 11实验八 13实验总结 15在学习了MPI之后,我们又继续学习了有关openMP的并行运算,通过老师的细致讲解,我们对openMP有了一个初步的了解:pilerDirective),特别适合于多核CPU上的并行程序开发设计。它支持的语言包括:C语言、C++、Fortran;不过,用以上这些语言进行程序开发时,并非需要特别关注的地方,因为现如今的大多数编译器已经支持了OpenMP,例如:piler,piler、piler、VisualStudio等等。程序员在编程时,只需要在特定的源代码片段的前面加入OpenMP专用的#pargmaomp预编译指令,就可以“通知”编译器将该段程序自动进行并行化处理,并且在必要的时候加入线程同步及通信机制。当编译器选择忽略#pargmaomp预处理指令时,或者编译器不支持OpenMP时,程序又退化为一般的通用串行程序,此时,代码依然可以正常运作,只是不能利用多线程和多核CPU来加速程序的执行而已。 OpenMP使得程序员可以把更多的精力投入到并行算法本身,而非其具体实现细节。对基于数据分集的多线程程序设计,它是一个很好的选择。同时,使用OpenMP也提供了更强的灵活性,可以较容易的适应不同的并行系统配置。线程粒度和负载平衡等是传统多线程程序设计中的难题,然而,在OpenMP中,OpenMP库从程序员手中接管了部分这两方面的工作,从而使得程序员可以更加专注于具体的算法本身,而非如何编程使得代码在CPU负载平衡和线程粒度方面做出平衡。但是,作为高层抽象,OpenMP并不适合需要复杂的线程间同步和互斥的场合。OpenMP的另一个缺点是不能在非共享内存系统(如计算机集群)上使用。在这样的系统上,MPI使用较多。实验步骤:通过编写了一些程序,验证了关于openMP的一些简单的性质。实验一代码:#include""#include<cstdio>#include<cstdlib>intmain(intargc,char*argv[]){ intid,numb;omp_set_num_threads(3);#pragmaompparallelprivate(id,numb){id=omp_get_thread_num();numb=omp_get_num_threads();printf("Iamthread%doutof%d\n",id,numb);}system("pause");return0;}实验结果:可以看到,因为三个进程同步执行,所以输出顺序是乱序的,就是表示运行优先级相同。当把进程数改成10的时候,得到下面的结果:与上面的到的结论(并行并行运算)相同。实验二代码:#include""#include<cstdio>#include<cstdlib>intmain(intargc,char*argv[]){intid;omp_set_num_threads(2);#pragmaompparallel{ printf("whatwillyousee?\n"); #pragmaompfor for(inti=1;i<=5;++i) { printf("i=%dof%d\n",i,omp_get_thread_num()); printf("Howmanyanswers?\n"); }}system("pause");return0;}实验运行结果:可以看到,在设置进程为2的情况之下,运算(计算规模)被等可能的分配给各个进程。实验三代码:#include<iostream>#include<cstdlib>#include<>intmain(){#pragmaompparallelsections//声明该并行区域分为若干个section,section之间的运行顺序为并行的关系 {#pragmaompsection for(inti=0;i<5;++i) { std::cout<<i<<"+"<<std::endl; }#pragmaompsection for(intj=0;j<5;++j) { std::cout<<j<<"-"<<std::endl; } } system("pause"); return0;}运行结果:结果分析:语句”#pragmaompparallelsections”声明该并行区域分为若干个section, 代码:#include<cstdlib>#include<iostream>#include<>intmain(){#pragmaomppara
openmp实验总结报告 来自淘豆网m.daumloan.com转载请标明出处.