localhost 无法启动

1、打开Internert信息管理查看IIS是否启动,且默认网站时候已经开启;  
2、打开http://127.0.0.1 看是否能访问IIS的默认网页,能访问则说明IIS已经成功安装到电脑上,可能是无法解析localhost;  
3、开始--命令(cmd)--ping localhost,看是否能ping通,从127.0.0.1上返回信息,如果成功则说明可以解析localhost;  
4、如果上一步不成功,则用记事本打开C:/WINDOWS/system32/drivers/etc/hosts文件,看里面是否有包含:127.0.0.1 localhost ,如果没有则将其添加进去,再查看能否访问localhost。  
5、尝试将网站的主目录指向另一个目录或新建一个虚拟目录,并在该新目录创建一个新的网页文件,如index.html,然后将其加到默认网站的"文档"项中作为默认访问的网页,重新输入网址:http://localhost,看否能访问。  
6、还是不行的话将IIS卸载掉,重新再安装一次。

还有一种情况也会导致"无法访问localhost, 但可以访问127.0.0.1",这是我所遇到的,返回的信息如下:

The page cannot be displayed  
There is a problem with the page you are trying to reach and it cannot be displayed.

--------------------------------------------------------------------------------

Please try the following:

Click the Refresh button, or try again later.

Open the Web site home page, and then look for links to the information you want.  
If you believe you should be able to view this directory or page, please contact the Web site administrator by using the e-mail address or phone number listed on the Web site home page.  
10061 - Connection refused  
Internet Security and Acceleration Server

--------------------------------------------------------------------------------  
Technical Information (for support personnel)

Background:  
The server you are attempting to access has refused the connection with the gateway. This usually results from trying to connect to a service that is inactive on the server.

ISA Server: XWProxy1.star-net.cn  
Via:

Time: 2008-10-14 0:50:36 GMT

这是因为我所在部门的电脑只能通过局域网内主机做代理服务器来访问网络,在设置代理服务器的时候,未将"对于本地址不使用代理服务器(B)"打钩,导致访问本地地址的时候也实验代理服务器,localhost只能被本地主机解析,代理服务器不能解析其他主机的localhost。只要将 Internet选项--链接--局域网设置--代理服务器 下的那个√打上就可以了。

时间: 2024-10-16 03:58:28

localhost 无法启动的相关文章

安装启动kafka

vim kafka/config/server.properties #确保唯一 broker.id=0 #允许删除主题 delete.topic.enable=true # 指定数据文件所在目录 log.dirs=/var/local/kafka/logs #zookeeper 的连接地址 zookeeper.connect=localhost:2181 启动kafka ./bin/kafka-server-start.sh config/server.properties #查看进程,带上全

日志采集项目框架

1,项目图如下: 2, 实现过程 启动zookeeper(三台): bin/zkServer.sh start 启动kafka(三台): [email protected]1:/usr/local/kafka# bin/kafka-server-start.sh config/server.properties >logs/kafka3.log 2>&1 在131中创建access的topic: [email protected]1:/usr/local/kafka# bin/kafk

webpack入门

前面的话 在webpack出现之前,市面上已经存在的模块管理和打包工具并不适合大型的项目,尤其单页面 Web 应用程序.最紧迫的原因是如何在一个大规模的代码库中,维护各种模块资源的分割和存放,维护它们之间的依赖关系,并且无缝的将它们整合到一起生成适合浏览器端请求加载的静态资源.webpack是当下最热门的前端资源模块化管理和打包工具.它可以将许多松散的模块按照依赖和规则打包成符合生产环境部署的前端资源.还可以将按需加载的模块进行代码分隔,等到实际需要的时候再异步加载 webpack的内容丰富且杂

运维之我的docker-使用ELK处理docker日志

因为docker产生的容器不是一个永久存储的文件,所以无法保证你的文件永久保存.建议大家把容器产生的日志通过fluentd,flume,logstash等工具传送到一个日志仓库,这样保证方便保证数据的安全和管理.由于docker官方的推荐,我们本次讲解是fluentd日志收集组件. 具体使用如下: 安装ES 1. 初始化环境 [[email protected] src]# vim /etc/sysctl.conf vm.max_map_count = 290000 [[email protec

Window环境下配置Redis服务的方法及查看缓存数据的工具介绍

工具下载位置:http://pan.baidu.com/s/1hqVh1f2,包括服务端配置以及查看缓存的工具. 服务端是以服务的形式运行,将Redis服务端解压到某个目录,然后执行cmd执行命令: redis-server.exe --service-install redis.windows.conf --loglevel verbose 注意事项,修改Redis端口及密码的配置在文件redis.windows-service.conf中:(使用redis284.rar中解压文件) 修改端口

安装storm集群

手工安装Storm集群 注:最新的Storm已不再必须依赖ZeroMQ,各种依赖的库和软件也已经有更新的版本. 要手工安装Storm,需要先安装以下软件 Zookeeper集群(安装方法详见管理向导) Java6.0 Python2.6.6 Unzip命令 NOTE: Nimbus和管理进程将要依赖Java.Python和unzip命令 安装本地库: 安装ZeroMQ: 1 wget http://download.zeromq.org/historic/zeromq-2.1.7.tar.gz

Elk实时日志分析平台5.0版本源码安装配置

目录 一. 安装JAVA. 1 二. 安装elasticsearch. 2 三. 配置elasticsearch. 2 四. 安装logstash. 3 五. 配置 logstash. 3 六. 安装kibana. 4 七. 配置kibana. 5 八. 安装x-pack插件... 5 九. x-pack管理用户... 6 1. 添加用户... 6 2. 查看用户... 6 3. 测试用户登录... 6 4. 删除用户... 6 十. 安装filebeat. 7 一. 安装JAVA # mkdi

用Flask实现视频数据流传输

Flask 是一个 Python 实现的 Web 开发微框架.这篇文章是一个讲述如何用它实现传送视频数据流的详细教程. 我敢肯定,现在你已经知道我在O’Reilly Media上发布了有关Flask的一本书和一些视频资料.在这些上面,Flask框架介绍的覆盖面是相当完整的,出于某种原因,也有一小部分的功能没有太多的提到,因此我认为在这里写一篇介绍它们的文章是一个好主意. 这篇文章是专门介绍流媒体的,这个有趣的功能让Flask应用拥有这样一种能力,以分割成小数据块的方式,高效地为大型请求提供数据,

Ubuntu环境下手动配置HBase

配置HBase 前提: 配置Hadoop(http://www.cnblogs.com/xxx0624/p/4166095.html) 配置zoopkeeper(http://www.cnblogs.com/xxx0624/p/4168440.html) 1. 下载HBase 解压HBase tar -zxvf hbase-0.98.8-hadoop2-bin.tar.gz 然后移动到/home目录下,并重命名为hbase 2. 设置环境变量 #set hbase environment exp