底座和奇怪的问题:算法执行加法、乘法、不加区分除法性能? 计算机分析人士认为原则:加法、乘法和除法,以减少计算性能,然而,到什么程度降低?
写C使用程序30乘以一百万计算的数据来测试时间差,码,如以下:
#include <stdio.h> #include <stdlib.h> #include <time.h> #define N 1000000 void add(float x[], long n) { float sum = 0; for(long i = 0; i < n; i++) sum += x[i]; } void prod(float x[], long n) { float sum = 1; for(long i = 0; i < n; i++) sum *= (x[i]); } void div(float x[], long n) { for(long i = 0; i < n; i++) { x[i] /= 3.0; } } int main() { float x[N]; clock_t t1 = clock(); for(int i = 0; i < 50; i++) add(x, N); clock_t t2 = clock(); printf("百万数据加法用时:%f 秒\n", (double)(t2 - t1)/ CLOCKS_PER_SEC); t1 = clock(); for(int i = 0; i < 50; i++) prod(x, N); t2 = clock(); printf("百万数据乘法用时:%f 秒\n", (double)(t2 - t1)/ CLOCKS_PER_SEC); t1 = clock(); for(int i = 0; i < 50; i++) div(x, N); t2 = clock(); printf("百万数据除法用时:%f 秒\n", (double)(t2 - t1)/ CLOCKS_PER_SEC); return 0; }
结果例如以下:
百万数据加法用时:0.157051 秒
百万数据乘法用时:0.184712 秒
百万数据除法用时:0.161014 秒
-----------------------------------------
当加入数百万的数据与:0.156099 第二
乘法万个数据点与时间:0.184023 第二
当数以百万计的数据除以:0.159588 第二
这说明了什么问题?
应该说算法不再区分基本操作?
时间: 2024-10-08 15:32:20