Learning Discriminative and Transformation Covariant Local Feature Detectors实验环境搭建详细过程

依赖项:

Python 3.4.3

tensorflow>1.0.0, tqdm, cv2, exifread, skimage, glob

1、安装tensorflow:https://www.tensorflow.org/install/pip?lang=python3

1、安装python开发环境

sudo apt update
sudo apt install python3-dev python3-pip
sudo pip3 install -U virtualenv

2、创建虚拟环境(Python虚拟环境用于将包安装与系统隔离。)

virtualenv --system-site-packages -p python3 ./venv#创建目录venv来保存虚拟环境
source ./venv/bin/activate  #激活虚拟环境#激活之后,shell提示符cd ../../加上了(venv)

pip install --upgrade pip  # upgrading pip

pip list #how packages installed within the virtual environment
deactivate  #  exit virtualenv

3、使用pip安装tensflow

pip install tensorflowimport tensorflow as tf; print(tf.__version__)"  # 输出1.11.0

  https://www.tensorflow.org/install/gpu 这是链接地址:

只有在安装了Cuda Toolkit7.5和cuDNN v4的64位Ubuntu下面可以通过pip安装支持GPU的tensflow。不然就需要使用源码安装。

如果要支持GPU,需要安装Cuda Toolkit(V>7.0)和cuDNN(V>=2)

tensorflow只支持计算能力>3.0的GPU。

--------- 现在已经安装好了tensflow

 2、安装tqdm   https://github.com/tqdm/tqdm这是介绍

pip install tqdm

  安装的是4.27.0版本的。

3、安装cv2

pip install opencv-python

  安装的版本是:opencv-python-3.4.3.18

 4、安装exifread  https://pypi.org/project/ExifRead/

pip install ExifRead

  安装的版本是:(2.1.2)

5、安装scikit-image   https://scikit-image.org/

pip install -U scikit-image

6、安装glob  https://pypi.org/project/glob2/

glob用它可以查找符合特定规则的文件路径名。查找文件只用到三个匹配符:"*", "?", "[]"

pip install glob2

依赖项到这里就安装完成了。

-----------------------------------------------分割线-----------------------下面是使用(Usage)

1、得到数据集,先进行下载https://www.dropbox.com/s/l7a8zvni6ia5f9g/datasets.tar.gz?dl=0

下载完成后解压数据到./data目录下。

2、运行代码

cd ./script  # 切换当前路径

./batch\_run_train.sh #运行脚本去生成transformed patch and train the model

./batch\_run_test.sh  #提取局部特征点Extract local feature point

./batch\_run_eval.sh  #评估性能Evaluate the performance

  

原文地址:https://www.cnblogs.com/wongyi/p/9822329.html

时间: 2024-10-30 05:45:42

Learning Discriminative and Transformation Covariant Local Feature Detectors实验环境搭建详细过程的相关文章

Deep Learning 23:dropout理解_之读论文“Improving neural networks by preventing co-adaptation of feature detectors”

理论知识:Deep learning:四十一(Dropout简单理解).深度学习(二十二)Dropout浅层理解与实现.“Improving neural networks by preventing co-adaptation of feature detectors” 感觉没什么好说的了,该说的在引用的这两篇博客里已经说得很清楚了,直接做试验吧 注意: 1.在模型的测试阶段,使用”mean network(均值网络)”来得到隐含层的输出,其实就是在网络前向传播到输出层前时隐含层节点的输出值都

DiMP: Learning Discriminative Model Prediction for Tracking

Learning Discriminative Model Prediction for Tracking 2020-03-26 11:45:15 Paper: ICCV-2019 Code: https://github.com/visionml/pytracking 1. Background and Motivation: 原文地址:https://www.cnblogs.com/wangxiaocvpr/p/12573283.html

综述:Local Invariant Feature Detectors: A Survey

翻译 局部不变特征探测器:一项调查:综述 摘要 - 原文地址:https://www.cnblogs.com/Alliswell-WP/p/TranslationOfPapers_Review005.html

elasticsearch local debug环境搭建

最近计划看看elasticsearch的源码,首先得把local debug环境搞定. 下载源码.因为公司产线是5.6.5,所以就下载了5.6.5的代码. 源码编译.先进入到/elasticsearch/core目录,因为IDE是idea,所以用gradle idea编译core目录.然后进入到/elasticsearch目录,在运行gradle idea命令.gradle版本要3.5以上,我用的是4.4.1. 导入IDE.import project(选择elasticsearch根目录) -

spark1.4 Windows local调试环境搭建总结

1.scala版本scala-2.10.4 官方推荐scala-2.11.7[不推荐,非sbt项目.需要后加载] 2.spark版本spark-1.4.0-bin-hadoop2.6.tgz 3.hadoop3.1版本hadoop-2.6.0.tar.gz3.2环境变量HADOOP_HOME=E:/ysg.tools/spark/hadoop-2.6.0或System.setProperty("hadoop.home.dir", "E:\ysg.tools\spark\had

元学习-Learning How to Learn-第三课:学习新知识的一般过程

第三课:学习新知识的一般过程 一.建立组块:整理新的知识 1.前提--排除干扰,集中注意力:创意的基础是专注: 2.找到建立组块的位置--通读材料,抓住标题类信息,掌握知识分布的情况:自顶向下,而不是从前往后: 3.开始建立组块--理解材料,遍历知识细节,通过对范例的批判吸收建立知识的内在关联:单纯的阅读乃至理解是不够的(批判吸收和独立自主更为关键),孤立的知识点也是不够的(联系更为关键): 二.连接组块:将新的知识整合到知识体系中 4.针对性练习--了解应用背景,确定何时使用而何时不使用这个组

利用KNIME建立Spark Machine learning 模型 1:开发环境搭建

1.Knime Analytics 安装 从官方网站下载合适的版本 https://www.knime.com/downloads 将下载的安装包在安装路径解压 https://www.knime.com/installation-0 下图是knime启动后的欢迎页面 要与spark集×××互,需要在Knime中安装KNIME? Extension for Apache Spark.并在Hadoop集群边界节点或能够执行spark-submit的节点安装Spark Job Server.架构图如

github上DQN代码的环境搭建,及运行(Human-Level Control through Deep Reinforcement Learning)conda配置

最近师弟在做DQN的实验,由于是强化学习方面的东西,正好和我现在的研究方向一样于是我便帮忙跑了跑实验,于是就有了今天的这个内容. 首先在github上进行搜寻,如下图: 发现第一个星数最多,而且远高于其它的项目,于是拉取这个链接: https://github.com/devsisters/DQN-tensorflow 本篇博客主要是讲解一下该代码运行环境的如何搭建,采用  conda 配置. 首先看下  README  上的内容, 主要是requirement最重要: 考虑到运行的兼容性,于是

Learning Scrapy:《精通Python爬虫框架Scrapy》Windows环境搭建

之前用爬虫抓点数据的时候基本上就是urllib3+BeautifulSoup4,后来又加入requests,大部分情况就够用了.但是最近心血来潮想学一下Scrapy,于是找了本书——<精通Python爬虫框架Scrapy>.内容算是比较可以的,但是按书中附录搭建环境着实折腾了一点时间,于是想把碰到的问题总结一下,让大家也少走点弯路. 进入正题之前,有几点要说明一下: 安装这个环境有什么用?这个环境就是一个服务器,有需要你抓的网站,不会因现实中的网站改版而造成代码失效,书中测试代码的网站基本上都