数组求和的快速方法(利用cuda的共享内存)--第二部分之程序完善

上一篇提到,那份源码的使用是有限制的。

这次来完善一下。其实就是迭代多次,使得最后一次刚好在一个线程块可以求和。

完善部分:

template<class DType>
DType array_sum_gpu(DType *dev_array,const int array_size,DType *dev_result)
{
	//const size_t max_block_size  = 512;//目前有些gpu的线程块最大为512,有些为1024.
	const size_t block_size = 512;//线程块的大小。

	size_t num_elements = array_size;
	size_t num_blocks = (num_elements/block_size) + ((num_elements%block_size) ? 1 : 0);

	double *dev_input_array = 0;
	double *dev_block_sums = 0;//一个线程块一个和。

	while(num_elements > block_size)
	{
		if(dev_block_sums == 0)//第一次
		{
			dev_input_array = dev_array;
		}
		else //除了第一次
		{
			if(dev_input_array != dev_array)
				cudaFree(dev_input_array);
			dev_input_array = dev_block_sums;
		}
		num_blocks = (num_elements/block_size) + ((num_elements%block_size) ? 1 : 0);
		//给输出结果分配内存
		cudaMalloc((void**)&dev_block_sums, sizeof(double) * (num_blocks ));
		// launch one kernel to compute, per-block, a partial sum//把每个线程块的和求出来
		block_sum<<<num_blocks,block_size,block_size * sizeof(double)>>>(dev_input_array, dev_block_sums, num_elements);
		num_elements = num_blocks;
	}

	block_sum<<<1,num_elements,num_elements * sizeof(double)>>>(dev_block_sums, dev_result, num_elements);
	double result = 0;
	cudaMemcpy(&result, dev_result, sizeof(double), cudaMemcpyDeviceToHost);
	cudaFree(dev_block_sums);
	return result;

}

核函数block_sum还是原来的代码。

下面是测试我的代码;

void test_sum2()
{
	// create array of 256k elements
	//const int num_elements = 1<<18;//=512*512=262144
	const int num_elements = 1<<20;

	// generate random input on the host
	std::vector<double> h_input(num_elements);
	for(int i = 0; i < h_input.size(); ++i)
	{
		h_input[i] = 1;//random_num<double>();
	}

	const double host_result = std::accumulate(h_input.begin(), h_input.end(), 0.0f);
	std::cerr << "Host sum: " << host_result << std::endl;

	// move input to device memory//分配内存
	double *d_input = 0;
	cudaMalloc((void**)&d_input, sizeof(double) * num_elements);
	cudaMemcpy(d_input, &h_input[0], sizeof(double) * num_elements, cudaMemcpyHostToDevice);

	double *dev_result=0;
	cudaMalloc((void**)&dev_result,sizeof(double));

	double sum = array_sum_gpu(d_input,num_elements,dev_result);
	std::cout << "Device sum: " << sum << std::endl;

}

可以把数组数量num_elements调到很大,代码仍然能运行正确。但是如果是之前那份代码,就不可以了。

其实这个程序还是有点限制的。

请注意第一次求num_blocks.

size_t num_blocks = (num_elements/block_size) + ((num_elements%block_size) ? 1 : 0);

万一第一次求出的num_blocks大于线程块的最大数量,一般是65535,那就不行了。

所以如果数组的元素数量大于1024*65535,那就无法计算了。

解决这中问题的通常方法,是让一个线程串行执行多个相同任务。

由于求解的问题暂时没有超过这个数量级(6-7千万),所以先这样。

时间: 2024-11-09 03:40:31

数组求和的快速方法(利用cuda的共享内存)--第二部分之程序完善的相关文章

数组求和的快速方法(利用cuda的共享内存)--第一部分之源码分析

代码来自于这里 https://code.google.com/p/stanford-cs193g-sp2010/source/browse/trunk/tutorials/sum_reduction.cu 貌似是斯坦福的课程. 核函数分析: // this kernel computes, per-block, the sum // of a block-sized portion of the input // using a block-wide reduction template<cl

数组求和的快速方法(利用cuda的共享内存)--第三部分之性能分析

测试的数组数量是 const int num_elements = 1<<20; 运算次数是1000次. 发现gpu的分配内存和拷贝操作很花时间. 1 对数量为 1<<20的数组,1000次cpu求和操作,时间是7720.0 ms. 2 在gpu,一次分配内存和拷贝,1000次求和,时间是360.0 ms. 3 在gpu,1000次分配内存和拷贝,1000次求和,时间是2700.0 ms. 哈哈,如果省去分配内存和拷贝时间,求和操作,在 gpu比cpu快20倍. 但是加上的话,就快

数组求和的多种方法,并比较性能

可以借用下面12种方法对数组求和,创建一个长度为10w的数组,进行测试 every()?????  检测数值元素的每个元素是否都符合条件. filter()??????检测数值元素,并返回符合条件所有元素的数组. map()?? ?? ? 通过指定函数处理数组的每个元素,并返回处理后的数组. some()?????  用于检测数组中的元素是否满足指定条件(函数提供). reduce()????   数组中的每个值(从左到右)开始合并,最终为一个值 reduceRight()??  数组中的每个值

javascript中数组的22种方法 (转载)

前面的话 数组总共有22种方法,本文将其分为对象继承方法.数组转换方法.栈和队列方法.数组排序方法.数组拼接方法.创建子数组方法.数组删改方法.数组位置方法.数组归并方法和数组迭代方法共10类来进行详细介绍 对象继承方法 数组是一种特殊的对象,继承了对象Object的toString().toLocaleString()和valueOf()方法 [toString()] toString()方法返回由数组中每个值的字符串形式拼接而成的一个以逗号分隔的字符串 [注意]该方法的返回值与不使用任何参数

javascript中数组的22种方法

× 目录 [1]对象继承 [2]数组转换 [3]栈和队列[4]数组排序[5]数组拼接[6]创建数组[7]数组删改[8]数组位置[9]数组归并[10]数组迭代[11]总结 前面的话 数组总共有22种方法,本文将其分为对象继承方法.数组转换方法.栈和队列方法.数组排序方法.数组拼接方法.创建子数组方法.数组删改方法.数组位置方法.数组归并方法和数组迭代方法共10类来进行详细介绍 对象继承方法 数组是一种特殊的对象,继承了对象Object的toString().toLocaleString()和val

父子进程共享内存通信的三种方法

1.  mmap MAP_ANONYMOUS 在支持MAP_ANONYMOUS的系统上,直接用匿名共享内存即可, 2. mmap  /dev/zero 有些系统不支持匿名内存映射,则可以使用fopen打开/dev/zero文件,然后对该文件进行映射,可以同样达到匿名内存映射的效果. 3. shmget shmat shmctl shmget 是老式的system V 共享内存模式,很多系统都支持这种方法. 父子进程共享内存通信的三种方法

数组求和方法汇总

var arr = [1, 2, 3, 4, 5, 6];测试时我不想过度使用全局变量影响命名空间,所以没使用未声明变量.而是直接通过私有作用域设置静态私有变量,也可以用其他设计模式来限定变量作用域.因为数组对象的迭代方法也是一种遍历,所以也可以借助用来实现求和.一.利用数组对象的各迭代方法:1.array.every()查询是否有所有项都匹配的方法: 1 (function() { 2 var sum = 0; 3 4 function getSum(item, index, array) {

CUDA学习:第一CUDA代码:数组求和

今天有些收获了,成功运行了数组求和代码:就是将N个数相加求和 //环境:CUDA5.0,vs2010 #include "cuda_runtime.h"#include "device_launch_parameters.h" #include <stdio.h> cudaError_t addWithCuda(int *c, int *a); #define TOTALN 72120#define BLOCKS_PerGrid 32#define TH

JavaScript利用数组原型,添加方法实现遍历多维数组每一个元素

原型就是提供给我们为了让我们扩展更多功能的. 今天学习了用js模拟底层代码,实现数组多维的遍历.思想是在数组原型上添加一个方法. 1 // js中的数组forEach方法,传入回掉函数 能够帮助我们遍历数组 2 var arr =[1,2,3,4,[1,2,[1,4]]]; 3 arr.forEach( 4 function(item , index , arr){ 5 alert(item); //1 2 3 4 1214 6 } 7 ); 8 //我们发现 这个方法只提供给我们遍历一维数组的