github上DQN代码的环境搭建,及运行(Human-Level Control through Deep Reinforcement Learning)conda配置

最近师弟在做DQN的实验,由于是强化学习方面的东西,正好和我现在的研究方向一样于是我便帮忙跑了跑实验,于是就有了今天的这个内容。

首先在github上进行搜寻,如下图:

发现第一个星数最多,而且远高于其它的项目,于是拉取这个链接:

https://github.com/devsisters/DQN-tensorflow

本篇博客主要是讲解一下该代码运行环境的如何搭建,采用  conda 配置。

首先看下  README  上的内容, 主要是requirement最重要:

考虑到运行的兼容性,于是决定使用python2.7版本环境运行,下面开始  conda  的配置:

搜寻python2.7版本,并采用最小自版本号

conda search python=2.7

选择  python2.7.3版本, 为环境命名 dqn_2  :

conda create -n dqn_2  python=2.7.3

进入新建环境,并确认版本:

conda activate dqn_2

安装    numpy  scipy

conda install numpy scipy

安装   tqdm   (进度条模块)

pip install tqdm==4.30

安装   gym     (oepnai 的  游戏环境交互模块)

可选安装:

pip install gym==0.1.0

必选安装:

pip install gym[Atari]==0.1.0

安装  gpu 计算环境    cudatookit    和     cudnn(由于需要安装深度学习框架   tensorflow-gpu ,  python27  0.12.1  版本。)

由于安装的tensorflow-gpu 0.12.1 所依赖的 环境,我们选择  cudatookit8.0   cudnn5.1

如下图:

conda install cudatoolkit=8.0=3

conda install cudnn=5.1.10=cuda8.0_0

安装深度学习框架   tensorflow-gpu ,  选择python27  0.12.1  版本。

给出下载地址:

https://storage.googleapis.com/tensorflow/linux/gpu/tensorflow_gpu-0.12.1-cp27-none-linux_x86_64.whl

pip install tensorflow_gpu-0.12.1-cp27-none-linux_x86_64.whl

为运行环境设置动态库地址, 目的是为了要 程序知道安装的cudatookit和cudnn的lib位置:

export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/home/devil/anaconda3/envs/dqn_2/lib

其中,   dqn_2   为conda 中所设置的运行环境名称。

运行:

python main.py --env_name=Breakout-v0 --is_train=True

配置成功,  并且可运行。

参考资料:

https://blog.csdn.net/u011636567/article/details/77162217

原文地址:https://www.cnblogs.com/devilmaycry812839668/p/10436416.html

时间: 2024-11-05 16:08:00

github上DQN代码的环境搭建,及运行(Human-Level Control through Deep Reinforcement Learning)conda配置的相关文章

【论文 PPT】 【转】Human-level control through deep reinforcement learning(DQN)

最近在学习强化学习的东西,在网上发现了一个关于DQN讲解的PPT,感觉很是不错,这里做下记录,具体出处不详. 原文地址:https://www.cnblogs.com/devilmaycry812839668/p/10505001.html

[github]Github上传代码

最近需要将课设代码上传到Github上,之前只是用来fork别人的代码. 这篇文章写得是windows下的使用方法. 第一步:创建Github新账户 第二步:新建仓库 第三部:填写名称,简介(可选),勾选Initialize this repository with a README选项,这是自动创建REAMDE.md文件,省的你再创建. 第四步:安装Github shell程序,地址:http://windows.github.com/ 第五步:打开Git Shell,输入以下命令生成密钥来验

GitHub 上下载代码运行报错 :'The sandbox is not sync with the Podfile.lock\'

问题描述: github下载的Demo,很多时候使用到CocoaPods,有的时候因为依赖关系或者版本问题不能编译运行.出现例如The sandbox is not sync with the Podfile.lock问题时候,如下所示 diff: /../Podfile.lock: No such file or directory diff: Manifest.lock: No such file or directory error: The sandbox is not in sync

使用GitBash向gitHub上同步代码

本人记性不好,鉴于每次都要去找别人的,不如自己总结一下 下面给大家带来使用GitBash向Github上同步代码的步骤总结; 1.现在github上新建知识库,也就是new repository 2,填下你项目的项目名和项目描述,创建知识库完成 3.下面生成的这些东西很重要奥,可以减少很多不必要的麻烦 4.需要开启你的GitBash客户端了,进入到你安装git的目录下 5.创建本地文件夹(mkdir  HSSPhone) 打开你得Git文件夹,你会看到目录下多了一个HSSPhone文件 6.输入

iOS-操作github上传代码001

iOS-操作github上传代码 github for mac客户端怎么使用 看着上图完全没有头绪:   步骤1:先添加一个mac的本地仓库:repository是仓库的意思 1.In the top left corner of the app, click ?. Add create clone button in Mac app . 2. At the top of the menu, click Add. The Add option in the Mac app . 3The Loca

将 GitHub 上的代码向 Coding 更新

问题: 从 GitHub 上 clone 代码到本地很慢,10 KB/s 左右,为了解决这个问题,尝试将 GitHub 上的代码通过离线下载的方式,用百度云和115网盘下载,经常失败,弃之~ 国内也有挺多代码托管平台,如 GitCafe,Coding,oschina 等,oschina 没使用过,不太清楚,其余两个平台都支持将项目从 GitHub 导入到自己的网站,导入速度也还不错.完毕后,再将第三方库(如 AFNetworking)或自己的项目 clone 到本地,测试下来 Coding 的速

Github上传代码菜鸟超详细教程【转】

最近需要将课设代码上传到Github上,之前只是用来fork别人的代码. 这篇文章写得是windows下的使用方法. 第一步:创建Github新账户 第二步:新建仓库 第三部:填写名称,简介(可选),勾选Initialize this repository with a README选项,这是自动创建REAMDE.md文件,省的你再创建. 第四步:安装Github shell程序,地址:http://windows.github.com/ 第五步:打开Git Shell,输入以下命令生成密钥来验

Mac系统下STF的环境搭建和运行

本文参考以下文章整理:MAC 下 STF 的环境搭建和运行 一. 前言 STF,全称是Smartphone Test Farm,WEB 端批量移动设备管理控制工具,就是可以用浏览器来批量控制你的移动设备,目前只支持Android设备. 二.环境搭建 1. 安装xcode和xcode 命令行工具 (安装Macport需要) Xcode:直接在App Store下载安装 Xcode Command Line Tools:在terminal中输入以下命令,然后在弹出的安装步骤中猛点下一步自动安装. 1

Deep Reinforcement Learning 基础知识(DQN方面)

Introduction 深度增强学习Deep Reinforcement Learning是将深度学习与增强学习结合起来从而实现从Perception感知到Action动作的端对端学习的一种全新的算法.简单的说,就是和人类一样,输入感知信息比如视觉,然后通过深度神经网络,直接输出动作,中间没有hand-crafted工作.深度增强学习具备使机器人实现完全自主的学习一种甚至多种技能的潜力. 虽然将深度学习和增强学习结合的想法在几年前就有人尝试,但真正成功的开端是DeepMind在NIPS 201