MongoDB介绍(1)-环境安装

一.   MongoDB是一款高性能,开源,无模式的文档型数据库,是Nosql数据库中较为常见的一种,他在许多场景下可用于替代关系型数据库或键值存储关系。

传统的数据库一般由数据库(database)/表(table)/记录(Record/ROW)三个层次概念组成,MongoDB则由 数据库(database),集合(Collection)和文档对象(Document)组成。集合(Collection)对应关系型数据库中的表(Table),但集合中没有行,列的概念,体现模式自由的特点。

二. 下载/安装和配置

登录 https://www.mongodb.com/download-center/community 下载计算机配置适配 当前版本镜像:

例如 windows 64-bit的安装包下载地址是 https://fastdl.mongodb.org/win32/mongodb-win32-x86_64-2008plus-ssl-4.0.9-signed.msi 。因为是个人使用所以建议下载社区版。

安装完成后,建议下载一个客户端可视化管理工具,如 mongoDB Compass Community,或者 ROBO 3T(ROBOMongo的升级版),建议下载 ROBO 3T,因为MongoDB Compass貌似没有

语句查询功能 (当前没找到),只能整体查看数据,不能编写查询语句。 而ROBO3T功能强大的多,不仅可以连接Server,还可以在里面编辑语句,增删查改 (CRUD)都可以实现,就如 mssqlserver 一样。

Compass 界面

也可以下载ROBO3T,下载地址https://robomongo.org/如下图

ROBO3T安装王成后,界面如下,界面同Compass大同小异,不同的是ROBO3T提供了 可以编辑 查询语句的环境 ,该环境基于chromium V8引擎,相当于javascript解释器,并且有智能感知功能,这一点是非常方便的,特别对于入门的小白来讲。

连接后的界面

至此我们的运行环境安装完成了,下面进行配置

首先 打开 CMD命令提示符

1、创建文件夹

在安装目录下 C:\Program Files\MongoDB\Server\4.0 目录下创建data文件夹,在data文件夹下创建db文件夹,同时在data文件夹下创建logs文件夹,在logs文件夹下创建mongo.log文件(这个文件可以创建一个mongo.txt文件然后在更改后缀名成log)

2、加入环境变量

把MongoDB加入环境变量 C:\MongoDB\Server\4.0\bin

然后打开cmd输入 mongo --help 有大量回显表示加入成功

3、配置数据路径和日志路径

下面分别在cmd中运行以下两句话

指定数据库路径: mongod --dbpath C:\MongoDB\Server\3.4\data\db

第二句加入系统服务和指定log路径命令:mongod --bind_ip 0.0.0.0 --logpath C:\MongoDB\Server\3.4\data\logs\mongo.log --logappend --dbpath C:\MongoDB\Server\3.4\data\db --port 27017 --serviceName "MongoDB" --serviceDisplayName "MongoDB" --install

这句话没有换行 一定要注意

结束配置

到这一步其实是完毕了,但是mongodb现在还是手动开启的,每次使用MongoDB都需要点击Mongo.exe或者使用命令在cmd输入,

net start MongoDB 启动mongodb

net stop MongoDB 关闭

计算机或者我的电脑右击系统服务打开,选择mongodb,设置自启动

至此,Mongodb配置基本完成了。

原文地址:https://www.cnblogs.com/wutongcoding/p/10817364.html

时间: 2024-10-11 04:20:33

MongoDB介绍(1)-环境安装的相关文章

RabbitMQ简单介绍+Windows环境安装

文章目录 1.RabbitMQ简介2.RabbitMQ与其他MQ有什么不同3.RabbitMQ环境安装3.1 安装erlang3.2 安装rabbitmq-server4. RabbitMQ管理平台介绍 1.RabbitMQ简介 RabbitMQ 是一个由 erlang 开发的 AMQP(Advanced Message Queue )的开源实现.AMQP 的出现其实也是应了广大人民群众的需求,虽然在同步消息通讯的世界里有很多公开标准(如 COBAR的 IIOP ,或者是 SOAP 等),但是在

Redis介绍和环境安装

-------------------Redis环境安装------------------- 1.安装 1.卸载软件 sudo apt-get remove redis-server 2.清除配置 sudo apt-get remove --purge redis-server 3.删除残留文件 1.sudo find / -name redis:文档查找 名字 2.删除 sudo rm -rf var/lib/redis/ sudo rm -rf /var/log/redis sudo rm

python介绍与环境安装

一.python能做什么? 1.爬虫 2.大数据与数据分析(Spark) 3.自动化运维与自动化测试 4.Web开发:Flask.Django 5.机器学习:Tensor Flow 二.Python3环境安装 第一步:Python官网:https://www.python.org下载 第二步:下载好python安装包之后,双击进行安装,Python3.6以上版本的可以勾选“Add Python3.7 to Path”自动添加环境变量配置: 第三步:默认选择,点击Next,如下图所示: 第四步:如

GeoTools介绍、环境安装、读取shp文件并显示

GeoTools是一个开放源代码(LGPL)Java代码库,它提供了符合标准的方法来处理地理空间数据,例如实现地理信息系统(GIS).GeoTools库实现了开放地理空间联盟(OGC)规范. Geotools主要提供各种GIS算法,实现各种数据格式的读写和显示. 在显示方面要差一些,只是用Swing实现了地图的简单查看和操作. 用户可以根据Geotools提供的算法自己实现地图的可视化.OpenJump和udig就是基于Geotools的. 目前的大部分开源软件,如udig,geoserver等

MongoDB —— Windows环境安装与简单使用

公司使用mongodb 来做数据库的功能,第一次使用,所以自己去研究了下MongoDB的官网和相关资料,本地windows环境搭建了一个MongoDB的简单数据库,话不多说,进入正题 一.下载MongoDB 1.MongoDB官网:点击打开 2.下载地址:MongoDB 下载 MongoDB官网提供了很多个下载版本,现在最新的是3.2版本的,并且有linux的,也有windows不同操作系统的,我本机是win 64位的,所以下载了mongodb-win32-x86_64-2008plus-ssl

Android NDK 简单介绍、工具安装、环境配置

NDK全称:Native Development Kit. 1.NDK是一系列工具的集合. * NDK提供了一系列的工具,帮助开发人员高速开发C(或C++)的动态库,并能自己主动将so和java应用一起打包成apk.这些工具对开发人员的帮助是巨大的. * NDK集成了交叉编译器,并提供了对应的mk文件隔离平台.CPU.API等差异,开发者仅仅须要简单改动mk文件(指出"哪些文件须要编译"."编译特性要求"等),就能够创建出so. * NDK能够自己主动地将so和Ja

MongoDB -- 介绍、安装、库管理、备份以及恢复

Mongodb 介绍 文档型数据库 C++语言编写,分布式文件存储的开源数据库系统,属于NoSQL 在高负载的情况下,可以添加更多的节点,保证服务器的性能 为WEB应用提供可扩展的高性能数据存储解决方案. 将数据存储为一个文档,数据结构由键值对组成,MongoDB文档类似于JSON对象.字段值可以包含其他文档,数组以及文档数组. 从3.2开始默认使用WiredTiger storage engine. NoSQL MongoDB安装 vim /etc/yum.repos.d/mongodb-or

node.js环境安装,及连接mongodb测试

1.node.js环境安装 npm config set registry https://registry.npm.taobao.orgnpm config get registrynpm root -g 2.mongodb-3.2.9测试(配置了用户名密码) var Server = require('mongodb').Server;var Db = require('mongodb').Db; var server = new Server('115.29.171.114', 27017

(转)Scrapy安装介绍 windows环境下---

一. Scrapy简介 Scrapy is a fast high-level screen scraping and web crawling framework, used to crawl websites and extract structured data from their pages. It can be used for a wide range of purposes, from data mining to monitoring and automated testing