gpu

import randomimport threadingN = 100res_dic = {}def compute_combination(n, x):    numerator = 1    denominator = 1    breaker = n - x    for i in range(n, breaker, -1):        numerator *= i    breaker = x + 1    for i in range(1, breaker, 1):        denominator *= i    return int(numerator / denominator)def gen_column(num, newer):    random_breaker = N - 1    replace_index = random.randint(0, random_breaker)    if newer[replace_index] == 0:        newer[replace_index] = 1    if newer.count(0) == num:        return newer    else:        gen_column(num, newer)def enumerate_column(num):    combination = compute_combination(N, num)    i = 0    while i < combination:        model_list = [0 for ii in range(0, N, 1)]        gen_column(num, model_list)        if model_list in res_dic[num]:            i -= 1        if model_list not in res_dic[num]:            res_dic[num].append(model_list)        if len(res_dic[num]) == combination:            return res_dic[num]        i += 1        print(num, len(res_dic[num]), combination)NO_LIST = [95, 85, 80, 79, 74]for i in NO_LIST:    res_dic[i] = []class MyThread(threading.Thread):    def __init__(self, func, args, name):        threading.Thread.__init__(self)        self.name, self.func, self.args = name, func, args    def run(self):        self.func(self.args)threads_list = []for i in res_dic:    thread_instance = MyThread(enumerate_column, (i), enumerate_column.__name__)    threads_list.append(thread_instance)for t in threads_list:    t.setDaemon = False    t.start()for t in threads_list:    t.join()a, b, c, d, e = res_dici, min_, target_ = 0, N, 3for ai in res_dic[a]:    for bi in res_dic[b]:        for ci in res_dic[c]:            for di in res_dic[d]:                for ei in res_dic[e]:                    final_dic = {}                    for ii in range(0, 6, 1):                        final_dic[ii] = 0                    for ii in range(0, N, 1):                        l_ = []                        l_.append(ai[ii])                        l_.append(bi[ii])                        l_.append(ci[ii])                        l_.append(di[ii])                        l_.append(ei[ii])                        count_ = l_.count(1)                        final_dic[count_] += 1                    compare_ = 0                    for ii in range(0, target_, 1):                        compare_ += final_dic[ii]                    min_ = min(min_, compare_)print(min_)
时间: 2024-10-10 05:03:59

gpu的相关文章

Tensorflow Windows Build with GPU Support

Step-by-step Windows build 虽然Research一直在用Caffe,而且用的飞起,但还是很关注tensorflow社区的事情,最近发现TF有windows版本的了,就自己试了试. 步骤:https://github.com/tensorflow/tensorflow/tree/master/tensorflow/contrib/cmake Pre-requisites: Microsoft Windows 10 Microsoft Visual Studio Enter

如何建立一个GPU加速的研究计算集群(一)

世界上某些最快的计算机是集群组成的.集群是有多个计算机通过高速网络连接起来的一个计算系统.集群计算机比单台计算机可以达到更高的可用性,可靠性和伸缩性.随着对基于GPU的高性能计算采用越来越广,英伟达GPU逐渐成为世界上最厉害的超级计算集群的一部分.世界前500的超级计算机中,包括差不多50个采用了英伟达的的GPU,并且目前世界上最快的计算机泰坦,使用了大约18000个英伟达开普勒GPU. 在这个帖子中,我将会一步一步的介绍设计.部署和管理一个小型的GPU集群整个过程.我会介绍GPU集群的组成部分

&nbsp; &nbsp; MD5,MySQL,SHA解密 - 利用GPU进行密码破解

使用方法: 1 打开命令行cmd 然后切换到egb的目录,假设你的文件夹在f盘,则输入:  f:2. 在当前目录输入: egb.exe /info查看你的电脑是否支持使用CUDA3. 可以将要破解的文件放置到当前目录4. 回到命令窗口,输入: egb.exe MD5 Settings/MD5.ini password.txt5. 上面的MD5表示使用MD5解密方式,而Settings/MD5.ini则是具体的配置文件.程序内置了72中不同类型的解密配置文件,可以自己浏览一下. 而passwd.t

OpenCL入门:(二:用GPU计算两个数组和)

本文编写一个计算两个数组和的程序,用CPU和GPU分别运算,计算运算时间,并且校验最后的运算结果.文中代码偏多,原理建议阅读下面文章,文中介绍了OpenCL相关名词概念. http://opencl.codeplex.com/wikipage?title=OpenCL%20Tutorials%20-%201  (英文版) http://www.cnblogs.com/leiben/archive/2012/06/05/2536508.html (博友翻译的中文版) 一.创建工程 按照OpenCL

windows10+anaconda3+tensorflow(GPU)

2017.6.2安装时间 先装anaconda3或者在anaconda2下win+r cmd控制器 conda create -n Anaconda3 python=3.5 (上一步会在里面出现文件 我剪切到别的地方了) 在Anaconda2/envs中安装Anaconda 3版本的  会提示已经存在 我是删了重新在envs下直接安装Anaconda3 注意要安装3.5版本不要3.6网页下面有连接进去安装Anaconda3 4.2 然后把刚才的两个文件复制粘贴回来 然后调用的时候就 activa

90、Tensorflow实现分布式学习,多台电脑,多个GPU 异步试学习

''' Created on 2017年5月28日 @author: weizhen ''' import time import tensorflow as tf from tensorflow.examples.tutorials.mnist import input_data import mnist_inference BATCH_SIZE = 100 LEARNING_RATE_BASE = 0.01 TRAINING_STEPS = 1000 LEARNING_RATE_DECAY

DeepLearning4j 实战——手写体数字识别GPU实现与性能比较

在之前的博客中已经用单机.Spark分布式两种训练的方式对深度神经网络进行训练,但其实DeepLearning4j也是支持多GPU训练的.这篇文章我就总结下用GPU来对DNN/CNN进行训练和评估过程.并且我会给出CPU.GPU和多卡GPU之前的性能比较图表.不过,由于重点在于说明Mnist数据集在GPU上训练的过程,所以对于一些环境的部署,比如Java环境和CUDA的安装就不再详细说明了. 软件环境的部署主要在于两个方面,一个是JDK的安装,另外一个是CUDA.目前最新版本的DeepLearn

GPU渲染管线与可编程着色器

本文由@浅墨_毛星云 出品,转载请注明出处.   文章链接:http://blog.csdn.net/poem_qianmo/article/details/71978861 这篇文章是解析计算机图形学界"九阴真经总纲"一般存在的<Real-Time Rendering 3rd>系列文章的第三篇.将带来RTR3第三章内容"Chapter 3 The Graphics Processing Unit 图形处理器"的总结.概括与提炼. 这章的主要内容是介绍G

Windows下Caffe在GPU编译过程

Windows下Caffe在GPU编译过程 GeForce8800 GTS512: cc=1.1 CUDA6.5 问题一: src/caffe/layers/conv_layer.cu(20): error : too few arguments in function call Error in in conv_layer.cu :forward_gpu_gemm needs the argument skip_im2col #1962 解决: https://github.com/BVLC/

基于GPU的高分一号影像正射校正的设计与实现

一 RPC正射校正的原理 影像正射校正的方法有很多,主要包含两大类:一类是严格的几何纠正模型,另一类是近似几何纠正模型.当遥感影像的成像模型和有关参数已知时,可以根据严格的成像模型来校正图像,这种方法属于严格几何纠正,最具代表的是共线方程法.当传感器成像模型未知或者无法获取相关的辅助参数时,可以用假定的数学模型模拟成像模型,对影像实现校正,这种方法属于近似几何纠正,主要有:几何多项式纠正.有理函数法.局部区域校正等模型.本文将主要对RPC正射校正模型进行展开讨论. RPC模型将像点坐标d(lin